Neural Deep
7.66K subscribers
308 photos
44 videos
3 files
199 links
Head of AI redmadrobot.ru

6 лет: 0>>>Head of AI
AI Infrastructure | Production RAG

Local inference
RAG (2M+ книг)
RAG chat bot (5М+ токенов)
B2B платформа (10+ клиентов)
B2C gptdaisy.com (100k MAU)

Код, кейсы
github.com/vakovalskii | @neuraldeepchat
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Мне конечно нечего тут сказать за репертура но ремикс Агутина и стиль подобный Миадзаки делает такие вещи приятными к просмотру

FLUX + Runaway внутри моего бота 4 генерации картинки и 4 генерации видео(с первого раза) склейка в CapCut за 2 минуты
👍85🔥3😁3
Хочу поделиться с вами интересным эссе от Дарио Амодеи, CEO Anthropic, о потенциальном влиянии Powerful AI на мир:

"Machines of Loving Grace: How AI Could Transform the World for the Better"

Амодеи рассматривает, как Powerful AI может изменить различные сферы жизни в ближайшие 5-10 лет после его создания:

• Здравоохранение и биология
• Нейронаука и психическое здоровье
• Экономическое развитие
• Управление и демократия
• Смысл жизни в эпоху AI

Интересно, что автор отходит от термина AGI в пользу "Powerful AI", что отражает уход от хайпа в прагматичный взгляд на развитие технологий LLM

Рекомендую к прочтению всем, кто интересуется будущим AI и его влиянием на общество и еще написано достаточно круто и легко читается.

https://darioamodei.com/machines-of-loving-grace
1👍982
Media is too big
VIEW IN TELEGRAM
Мы с вами живём в очень интересное время!

С первого раза поймали!
🔥15👍5😁21
Neural Deep
Всем привет! Что-то я давно не писал лонгридов, а только пересылал посты из моего наблюдения. И накопилось порядком много тем которые я прорабатывал последний месяц, вот пришел спросить у вас, что вам было бы интересно почитать. Проголосовать можно в комментариях…
Всем привет!
Как обещал, раскрываю 5 пункт! 🚀
Создание мультиагентной системы на базе Llama 3.1-8b: Интеллектуальный супервизор задач
Ключевые особенности на мой взгляд
Использование vLLM
Применение lm-format-enforcer для структурированного вывода
Многопоточная обработка на NVIDIA RTX 4090 в 10 потоков

📊 Архитектура системы:
Супервизор (на базе Llama 3.1 8b)
RAG Agent разработки NDT (для работы с базой знаний)
SQL Agent (для запросов к БД)
ResponseGenerator Agent (для генерации ответов)

🤔 Почему lm-format-enforcer, а не function calling?
Я попробовал lm-format-enforcer, и мне понравилось, как я могу контролировать детерминированность структурированного вывода, что критично для сложных многоагентных систем.

Как это работает?
Внутри кода запуска модели происходит фильтрация путем создания маски разрешенных токенов на основе текущего состояния парсера и применения этой маски к выходным логитам языковой модели, обнуляя вероятности недопустимых токенов перед выбором следующего токена.
📝 Пример схемы для запроса:
schema = {
"type": "object",
"properties": {
"agent": {"type": "string", "enum": ["RAG", "SQL", "ResponseGenerator"]},
"task": {
"type": "object",
"properties": {
"query": {"type": "string"},
"additional_info": {"type": "string"}
},
"required": ["query"]
}
},
"required": ["agent", "task"]
}

Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
request_data = {
"messages": messages,
"model": "llama-3.1-8b-instruct",
"max_tokens": 1000,
"temperature": 0.0,
"guided_json": json.dumps(schema),
"guided_decoding_backend": "lm-format-enforcer"
}


Запрос: Когда была последняя продажа проекта компании 'Супервизор'?
Ответ от модели:
{
"task": {
"query": "Последняя продажа проекта компании 'Супервизор'"
},
"agent": "SQL"
}


Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос

SELECT * FROM sales WHERE company_name = 'Супервизор'


и вернет данные в responce generator

[
0:"2023-05-15"
1:"2023-08-22"
]


Преимущества подхода:

Точный контроль над форматом вывода
Снижение вероятности галлюцинаций
Улучшенная интеграция между агентами
Масштабируемость на сложные сценарии

Что дальше?

- Усложнение агентской сети
- Работа над сборкой датасета для агентов
- Дальнейшая оптимизация производительности
23🔥125👍1
Forwarded from Denis Sexy IT 🤖
Новый редизайн ChatGPT будто-то на что-то намекает, но не совсем ясно на что ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁11🔥61
🔥9😁21
Forwarded from Сергей Горюшко
Красивое с реддита:
https://www.reddit.com/r/LocalLLaMA/s/1HkJlDtZsF

Кастомный билд 4 4090, Threadripper Pro 7965WX, 256GB RAM, два БП (be quiet! Straight Power 12 Platinum 1500W , Cooler Master V SFX Platinum 1300W), водное охлаждение и несколько 360mm вентиляторов. Материнка Asus Pro WRX90E-SAGE SE.
🔥147
Neural Deep pinned Deleted message
А вот и контент от нас NDT!
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени на обновление данных часто не хватает, поиск материалов стал сложнее, а часть информации вообще канула в лету вместе с ушедшими сотрудниками. В итоге пересылка документов в чатах и многочисленные гугл-таблички стали самым простым, но не самым удобным и тем более безопасным вариантом.
👍97🔥6
Media is too big
VIEW IN TELEGRAM
Завтра принимаю участие в GENERATIONS INNOVATION AWARD.

Деловая программа традиционно будет посвящена вопросам перехода на инновационную модель российской экономики, развитию технологий и выстраиванию международной кооперации.

Завершит деловую программу презентация лучших кейсов российских компаний и вузов в формате «TED Talks» и награждение победителей.


Вот так звучит в приглашении)

Что значит в формате «TED Talks» мне не очень понятно, но сказали, что ничего готовить не надо, кроме того, что мы уже присылали, когда подавались на это мероприятие.

А подавались мы на 2 номинации:

1. Внутренняя инновация года:
В рамках номинации оцениваются внутренние инновационные проекты компаний, которые помогли улучшить процессы, а также эффективность от их реализации, в 2023 г.

2. Международная кооперация и экспорт инноваций:
В рамках номинации оцениваются результаты кооперации в области инноваций, совместных проектов и разработок технологий и высокотехнологичной продукции российских компаний с партнерами из дружественных стран, в 2023 г.

Прикрепленный видосик к посту как раз таки про вторую номинацию)

Посмотрим, как все пройдет. Если повезёт, то может и победим.

Завтра отпишусь! Stay tuned.
11👍11🔥41
день добрый
512😁6🔥4
Мой личный батхерт к которому я пришел в течении года

2025 не за горами а зумеры из LLM заново изобрели RPA!

Помните обещания OpenAI про AGI к 2025 году? На пороге обещанной даты, а что мы видим?
Спойлер: зумеры с восторгом переизобретают RPA на базе LLM! 😅
Агент управления ПК от антропик в туже копилку

Что происходит на самом деле и что я вижу:
"Автоматизирую процессы с помощью GPT!" — по факту, обычный RPA
"Революционные AI-ассистенты" — классические таск-трекеры с NLP
"AI-агенты" — хайп-термин для скриптов автоматизации

Забавные наблюдения:

Цены на API упали в 25 раз — "уникальная" технология стала коммодити
Prompt-инженеры по сути пишут правила для классификаторов
"AI-стартапы" делают то, что Automation Anywhere умел 10 лет назад

В чем twist?
Вместо обещанного искусственного интеллекта получили новый способ писать условия для if-else, только теперь на естественном языке
Мораль истории?
Новое поколение просто переупаковало старые идеи в модную обёртку. Но может, это и неплохо? RPA стал доступнее, а космические обещания про AGI превратились в практичные инструменты автоматизации.

И кстати в следующем интенсиве я буду рассказывать про MAS и агентов (как собрать себе агента для рабочих задач)
11👍1410😁2
Neural Deep
Всем привет! Как обещал, раскрываю 5 пункт! 🚀 Создание мультиагентной системы на базе Llama 3.1-8b: Интеллектуальный супервизор задач Ключевые особенности на мой взгляд Использование vLLM Применение lm-format-enforcer для структурированного вывода Многопоточная…
Понял что формат работы Супервизора был неполностью описан, дополнил модель данных и ответы от агентов

Кстати все больше агентов появляется в нашем арсенале если интересно узнать ставьте 🔥 расскажу про каждого агента


📝 Пример схемы для запроса:
schema = {
"type": "object",
"properties": {
"agent": {"type": "string", "enum": ["RAG", "SQL", "ResponseGenerator"]},
"task": {
"type": "object",
"properties": {
"query": {"type": "string"},
"additional_info": {"type": "string"}
},
"required": ["query"]
}
},
"required": ["agent", "task"]
}

Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
request_data = {
"messages": messages,
"model": "llama-3.1-8b-instruct",
"max_tokens": 1000,
"temperature": 0.0,
"guided_json": json.dumps(schema),
"guided_decoding_backend": "lm-format-enforcer"
}


Запрос: Когда была последняя продажа проекта компании 'Супервизор'?
Ответ от модели:
{
"task": {
"query": "Последняя продажа проекта компании 'Супервизор'"
},
"agent": "SQL"
}


Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос из неявного пользовательского запроса

Как? Ему передали модель данных таблиц и провели небольшой инконтекст лернинг
Теперь он умеет джоинть таблички если надо и шарит в каком месте доставать данные

SELECT * FROM sales WHERE company_name = 'Супервизор'


и вернет данные в responce generator

[
0:"2023-05-15"
1:"2023-08-22"
]



P.S Это работает на моделях и меньше 8b и может быть встроено в ваш бизнес!
🔥217👍6
Всем привет! Хочу поделится репозиторием для валидации CV моделей.
https://github.com/MiXaiLL76/faster_coco_eval
Этот репозиторий в одиночку тащит мой друг @mixaill76 и не сдается.
Сейчас он остался единственным, кто в эту NLP поддерживает валидационные CV пайплайны и обновляет свои библиотеки.
Кроме того, он обошел все остальные библиотеки по скорости валидации.
В общем, прошу поддержать лайком и звездочкой на github!

А для тех, кто еще увлекается CV, вот вам простой код запуска этой либы:

install:
pip install faster-coco-eval


usage:
import faster_coco_eval

# Replace pycocotools with faster_coco_eval
faster_coco_eval.init_as_pycocotools()

from pycocotools.coco import COCO
from pycocotools.cocoeval import COCOeval

anno = COCO(str(anno_json)) # init annotations api
pred = anno.loadRes(str(pred_json)) # init predictions api (must pass string, not Path)

val = COCOeval(anno, pred, "bbox")
val.evaluate()
val.accumulate()
val.summarize()


Сравнение по скорости работы прилагаю скрином:
🔥11👍65
Forwarded from red_mad_robot
В чём C-level хочет разобраться прямо сейчас? В AI, конечно.

❤️ Поэтому мы вместе со SberDevices запустили серию митапов GenAI Pulse, где помогали российскому бизнесу разобраться в этих ваших (и наших) LLM. Рассказываем, как всё прошло.

✔️ Кто пришёл?

В этот раз с нами были: VK, Burger King, ФСК, А101, Kerama Marazzi, Merlion и другие.

✔️ Что обсуждали?

Теория: погружались в контекст разных слоёв рынка AI, его тренды и вызовы для бизнеса;
Практика: ideation-воркшоп, где мы вместе с участниками генерировали гипотезы по применению AI в сфере их бизнеса;
Выпускной Демо: мы представили демо-версии сценариев, разработанных на воркшопе, чтобы участники могли наглядно увидеть, как LLM решает их задачи.

✔️ А ещё мы создали специальный чат-бот GenAI Pulse, куда не только отправляли материалы со встреч, но и делились эксклюзивными исследованиями рынка от аналитического центра r_m_r.

😊 Слово участнику:

«Митапы оказались именно тем, что сейчас нужно для моих проектов: половина из них уже включает AI, и здесь я смог углубиться в детали, которые важны для их дальнейшего развития. Команды red_mad_robot и SberDevices доступно объяснили, как работает RAG и как он позволяет использовать внешние данные для более точных ответов. Приятно, что спикеры не переборщили со сложной терминологией, поэтому погружение в генеративный AI было плавным и понятным». — Лев Корнев, ведущий менеджер продукта в B2C-направлении VK.


Что мы поняли: такие мероприятия рынку сейчас нужны, как никогда. Поэтому в начале 2025 года мы снова соберёмся в нашей штаб-квартире на Ленинском с лучшим видом на Москву, чтобы разбираться в AI.

↗️ Подписывайтесь на нашу рассылку, чтобы не пропустить набор на следующие митапы.
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥5👍4
Media is too big
VIEW IN TELEGRAM
Сцена из фильма где Уилл Смит спрашивает робота может ли тот рисовать картины и сочинять музыку =)
😁131
Однозначно требует тестов!
Что-то мало шума про open-source в коде а это
А нам как раз нужно проверить пару гипотез на клиенте, об эффективности напишу позднее

Qwen2.5-Coder-7b-instruct

Возможно мало доверия ведь это Китай
Ссылка на коллекцию
🔥8👍31
This media is not supported in your browser
VIEW IN TELEGRAM
Ваш карманный спец по GenAI
слетал тут на днях в МСК, провел очень интересный, на мой взгляд, воркшоп по применению ИИ в бизнесе.
Скоро раскрою чуть подробнее, но кейсов для себя я достал предостаточно. Ну и гипотезу подтвердил.
Чекаем крутые облака!
🔥1383
Всем привет пока подрастет новое поколение после спокойной ночи, у меня добрались руки развернуть Qwen 2.5 Coder

Дано

1. Новости о том что появилась Open-Source LLM которая по написанию кода сопоставима с GPT-4o
2. Код бота который состоит из более чем 600 строк и является монолитом
3. Qwen2.5-Coder-32B-Instruct развернута на нашем сервере с четырьмя 4090 на кастомном охлаждении который мы собрали вместе с одной крутой хардварной студией из Санкт-Петербурга

Характеристики запуска:
- 32B
- FP16
- Скорость чтения более 2к токенов в секунду
- Скорость генерации 20 токенов в секунду
- Контекст вмещает 32k токенов
- Длина очереди 2

Загрузил код в промпт и написал простую задачу на русском а именно "расширить модель лимитов и добавить туда новые возможности логирования последней активности пользователя по любым действиям" что влечет как по мне не мало изменений в коде

Результат

Модель за два прохода выдала 400 строк в первый раз и 200 во второй код заработал с первого раза без исправлений

Одна и небольшая задача изменения кода на питоне конечно не очень репрезентативно так что отдал на тест в свой отдел разработки посмотрим что скажут ребята по диффу модель сделала 15 изменений в этой портянке и предложила создать мерж скрипт на случай если этого поля нет в БД что ж я всегда считал этих ребят сверхлюдьми

Как всегда все со скринами и пруфами
🔥14👍53