Сибирские Нейросети: Речевая аналитика и малые безопасные языковые модели для бизнеса
213 subscribers
98 photos
15 videos
2 files
92 links
https://sibnn.ai
https://lk.sibnn.ai Писец
ИТ-компания «Сибирские Нейросети» рассказывает об исследованиях.
Мы можем:
- Анализировать разговоры real time;
- Обучать и уменьшать большие языковые модели;
- Автоматизировать коммуникации
Download Telegram
У комсомолки, как всегда забавные заголовки:
«Писец» оказался глухим, но грамотным: искусственный интеллект написал «Тотальный диктант» - его результаты удивили даже разработчиков

*Коллеги, кто из вас удивился?

Читайте на WWW.NSK.KP.RU:
https://www.nsk.kp.ru/daily/27602/4928791/
🤣2
🦜 1 июня
- с 8:00 (мск) / 12:00 (местное время) стартует офлайн Data Fest 2024 в гостях у МехМата НГУ
https://ods.ai/events/fest2024-ngu-nsk
в Новосибирске.

От нашей компании "Сибирские нейросети" сегодня кофе-брейки 🥪🍪 и 2 доклада 🤖🤖:
📍 Иван Бондаренко выступит в главном зале с 12:10 (нск) с докладом "Маленькая, но удаленькая! Зачем использовать LLM размером меньше 1B параметров?". Посмотреть можно онлайн-трансляцию и будет запись.
📍 Роман Дерунец выступит в малом зале с 15:00 (нск) с докладом "От платоновских "Диалогов" к "сильному ИИ", или пара слов о мультимодальном RAG для LLM". Будет запись доклада.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
🏆С 31.05.24 наша компания «Сибирские нейросети» участник «Сколково» https://navigator.sk.ru/orn/1126275
🎉8
⚡️Немного предстоящих анонсов.

🔥24-25 июня в Санкт-Петербурге состоится конференция HighLoad #Highload, где наш технический директор Иван Бондаренко выступит с докладом: "Сильный искусственный интеллект у вас в подвале: как собрать мультимодальную LLM из опенсорса и настроить её под вашу задачу".

💫Тезисы:
Диалоговый агент на базе ChatGPT — это сейчас одно из наиболее эффективных средств автоматизации общения в практически любых бизнес-процессах, где это общение возникает, будь то деловая переписка, модерация контента в интернет-магазине или анализ диалогов в контакт-центре. А если общение — это не только текст, а ещё и, например, картинки (в духе «глянь, подходящий ли стиль у этой картинки для новогодней рекламы» или «эй, посмотри, на этой фотке точно нет запрещёнки»), то здесь поможет ChatGPT Vision.

Но в текущих реалиях далеко не всегда есть доступ к серверам OpenAI, на которых работает ChatGPT Vision. Также не всегда оправдана отправка данных на сторонние сервера по соображениям безопасности или экономики. Таких вот «не всегда» очень много. И что же делать в этом случае? Делать свою мультимодальную LLM!

В своём выступлении Иван расскажет, как можно собрать такую мультимодальную LLM из опенсорсных компонентов на вашем железе, как правильно подготовить датасет для кастомизации этой мультимодальной LLM под вашу бизнес-специфику и, наконец, как оценить качество того, что получилось.

Ссылка на мероприятие: https://highload.ru/spb/2024/abstracts/11747

А для тех, кто хочет пообщаться с нашим мультимодальным ИИ, телеграмм-бот:
@small_nsu_ai_bot
👍6
💥Наши тех.дир Иван и llm-разработчик Роман сегодня на #Highload Saint Highload++
Иван выступает, а Роман поддерживает нашего мультимодального бота Менона, чтобы он справлялся с нагрузкой, которая возникла после доклада Ивана.
6🔥3👏2
❤️Один из зрителей сделал конспект доклада Ивана:
👍2
Forwarded from mtsepkov (Maxim Tsepkov)
#Highload Иван Бондаренко (НГУ) Сильный искусственный интеллект у вас в подвале: как собрать мультимодальную LLM из опенсорса и настроить ее под вашу задачу. Началось все с участия в соревновании Strong Intelligence на AIJ-2023, где надо было сделать ИИ, способный понимать картинки и звуки. Базовую LLM давали организаторы, решение надо было представить в контейнере, дальше организаторы оценивали на своих тестах. Они пошли понятным путем, собрав энкодеры из open source решений. Энкодер - два такта, перекодировка изображения или звуков в вектор параметров, а потом перекодировав вектор параметров в вектор токенов для LLM. В презентации есть подробности - что использовано.

Заняли 14 место из 30, их результат не удовлетворил. И они подумали - а что можно сделать? Анализ показал проблему: энкодеры работают независимо от контекста разговора. И появилась другая идея: сделать общую модель мира во внешней базе данных и искать в нем, создавая контекст разговора, они назвали это припоминанием знаний. Для этого использована китайская ONE-PLANE, которая связывает разные модальности и превращенная в ANNOY-вектор для поиска английская википедия. Дополнительно потребовался генератор коротких подписей к рисункам - его результат фокусирует поиск, распознаватель звуков и преобразователи для речи и других видов звуков. И уже полученный в результате текст подается на вход LLM. В докладе было разобрана механика работы на конкретном примере.

Дальше надо сравнивать результаты с другими. Они сравнивали свои с разными решениями, при этом в качестве арбитра выступал ChatGPT - он оценивал качества ответов разных систем, сравнивал их ответы между собой. Получается относительно объективная метрика. И есть сравнения с разными системами, а также в конфигурациях с разными LLM. B тут оказалось, что основной фокус переносится на этап создания контекста, а мощность LLM уже не столь важна - что существенно для производительности, так как создание контекста - относительно дешевые решения.

Таким образом, компонентная архитектура - гибкий и не требовательный к железу способ управлять знаниями системы. И архитектура распознавания через припоминание имеет большее значение, чем LLM. Университет поддержал грантом, делают систему для ориентации студентов, способную отвечать на философские вопросы, типа чему стоит учиться, и на конкретные - куда нести документы.
👍2