Валера Ковальский
15K subscribers
542 photos
89 videos
5 files
470 links
Head of AI Engineer | DevOps | Hardware
From IT Admin to Head of AI in 6 years
Автор https://neuraldeep.ru/
Raised $2M+ for human-centric AI startups
github.com/vakovalskii | chat @neuraldeepchat
Download Telegram
Forwarded from red_mad_robot
Что мешает масштабировать генеративный ИИ 

В red_mad_robot мы регулярно проводим сессии по генеративному ИИ для технических команд, и один из самых частых запросов связан с переходом от первых ИИ-сценариев к системной работе. 

Старт обычно получается быстрым. Сложнее закрепить эффект в процессе: договориться о правилах работы, критериях качества, границах системы и способе переноса удачных кейсов в общий контур разработки.

О том, как проходить этот этап, узнали у Head of AI red_mad_robot Валеры Ковальского и CTO AI red_mad_robot Влада Шевченко. Они как раз и ведут программу AI-Ready 🔗

#AI_moment #роботайм

↗️ red_mad_robot
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥96
Как создавать AI-агентов на on-prem-моделях?

Как меняется создание пайплайна, когда мы переходим на локальные модели?

Что вообще может этот ваш Qwen на 4B по сравнению с GPT-5.5?

Чтобы ответить на эти (и многие другие) вопросы максимально-качественно, основываясь на большом практическом опыте, я попросил присоединиться к стриму Валеру.

Все, кому были неудобны стримы по субботам, возрадуйтесь!

Стрим будет во вторник, 5 мая в 16:00 мск.

Проведём его на моём YouTube-канале.

Чтобы добавить событие в календарь, нажимайте сюда.

Задавайте вопросы в комментариях. Обязательно ответим на них на стриме!
🔥37👍157😁1
NeuralDeep LLM Hub

Добавлено:

qwen3.6-35b-a3b
Второй инстанс под gpt oss 120b
whisper large-v3-turbo
Возможность в ЛК отключить логирование (тут конечно надо поверить мне на слово)

Обе LLM протестированы с codex/opencode/hermes-agent/kiro/cursor

Осталось 70 регистраций на free тир (добиваем 1к регистраций)

Из-за активного юзеджа зарезал фритир и протир по лимитам
За это время вы закинули 140 000 запросов и затестили все модели из списка
И как-то дали 4 рпс на обе gpt oss 120b

Спасибо, что используете, я продолжаю эксперименты и скоро расскажу про них! Расскажите в комментариях, какие эксперименты провели вы с этой платформой

https://hub.neuraldeep.ru/
2🔥33👍147
Forwarded from Pavel Zloi
Расширение каталога на Hub NeuralDeep

Сегодня вместе с Валерием (@neuraldeep) добавили новых моделей в публичной API проекта NeuralDeep. Базовый URL для запросов api.neuraldeep.ru (OpenAI-совместимо, Bearer с ключом). Ключ можно полчить после регистрации на hub.neuraldeep.ru.

Итого:
- LLM'ки - из коробки через апишку доступны две флагманские модельки gpt-oss-120b и qwen3.6-35b-a3b, их можно крутить в кодовых агентах и чатботах.
- Эмбеддинги - в дополнение к bge-m3 и e5-large добавили русскоязычную frida, мультимодальную jina-embeddings-v4 и толстушку qwen3-embedding-4b.
- Реранкеры - уже была bge-reranker для ранжирования чанков, пригодится для вашего RAGу.
- Голос в текст (ASR) - помимо whisper-1 добавили ещё и whisper-podlodka-turbo.

Полный список моделей можно посмотреть так:
curl -sS "https://api.neuraldeep.ru/v1/models" \
-H "Authorization: Bearer <ваш-ключ-с-хаба>"


Регистрируйтесь, пользуйтесь, предлагайте свои модельки, поддерживайте рублём, рассказывайте друзьям - нам пригодится любая ваша помощь.
132🔥246
Pavel Zloi
Расширение каталога на Hub NeuralDeep Сегодня вместе с Валерием (@neuraldeep) добавили новых моделей в публичной API проекта NeuralDeep. Базовый URL для запросов api.neuraldeep.ru (OpenAI-совместимо, Bearer с ключом). Ключ можно полчить после регистрации…
This media is not supported in your browser
VIEW IN TELEGRAM
Встроил в хаб OpenWebUI, чтобы показать реальную скорость, и вы сразу могли проверить модели!

Работает фича из личного кабинета после авторизации (если вы нашли баг или вам интересен такой ИИкит, пишите в ЛС)

https://hub.neuraldeep.ru/

P.S. Токен из видео уже не работает))))
Скорость на видео реальная х1

За идею спасибо Паше
127👍12🔥9🤯2
С большой GPU большая ответственность

Разберем стек
vLLM + LiteLLM + Codex CLI

Часть первая, когда у вас много GPU серверов под LLM инференс, а у меня часть в одном офисе, часть в колокейшене (когда арендуешь стойку в датацентре под свое железо, не AWS) и нужно все же понять как сделать одно API окно сверху всего этого, привет https://hub.neuraldeep.ru/ и все наши эксперименты выше =)

В целом это проблема любой связки vLLM + LiteLLM даже если вы заводите это внутри компании, не на продажу

У меня заняло неделю по вечерам найти, и решить проблемы, пройдусь по пунктам чтобы вам было быстрее

Вы так же найдете те же проблема на GitHub vLLM висят открытые issues с января-апреля 2026
#33089 (multi-turn Responses API),
#39426 (tool-aggregation protocol drift) десятки людей жалуются на одно и то же, апстрим месяцами не закрывает

Боль набер ван роутинг

LiteLLM по дефолту simple-shuffle или следующий кандидат latency-based routing
Звучит умно выбирает самый быстрый сервер или рандомим
По факту на двух одинаковых инстансах LLM с GPU он залипает на winner-сервер навсегда, второй простаивает в ноль, курит за деньги вашей компании

Включить round-robin?
Нельзя
Round-robin для multi-turn агент loop убивает кеш на каждом turn'е попадаешь на другой сервер история пере-prefillится с нуля +5-10s к ответу, песня да?

Нужен sticky session (один user всегда на одном сервере) + балансировка между разными user'ами
Из коробки в LiteLLM такого нет, оно как бы есть но его как бы нет 💀

Решение простое как две копейки главное на него выйти сразу, "custom routing strategy"
180 строк кода
Внутри consistent-hash md5 от api_key_alias, один user всегда на одном сервере
Разные user'ы, разные сервера через равномерное распределение хеша, что делать когда будет требоваться масштабирование дальше? Расскажу в следующих сериях
Сервер в колокейшене ожил (ура) и по логам есть кеш!

Боль набер два кеш умирает без sticky решается первым пунктом и сильно связан с роутингом, но дальше сложнее

Боль 3 Codex CLI шлет нестандартные tool types

Я хочу использовать Codex CLI как агентный харнес в своих экспериментах, с qwen3.6 все просто фиксим протокол и поехали, с gpt oss 120b чуть сложнее так как там что? Правильно harmony =)

Codex CLI отправляет в запрос tools которые vLLM не понимает custom, image_generation, namespace
vLLM на это шлет вам 400 tool type custom not supported, вы оптекаете и думаете что с этим делать
Codex падает на старте, до первой генерации

Лезу в исходники vLLM есть файл harmony_utils.py (harmony это внутренний формат сообщений для gpt-oss моделей, как ChatML для других)
Там whitelist tool types web_search_preview, code_interpreter, container, function
Все
Никаких custom или image_generation 😳

Решение в лоб, bind-mount (монтируете файл с хоста поверх файла в контейнере, апстрим не трогаете) с пропатченным harmony_utils.py
Расширил whitelist на custom, web_search, file_search, image_generation, local_shell, apply_patch, mcp_*
После этого Codex реально начинает работать делает git rev-parse, читает файлы, пишет код

Боль набер 4 Responses API строгая валидация

Responses API это новый OpenAI endpoint /v1/responses (на смену /v1/chat/completions)
С server-side state через previous_response_id
Codex с ним и работает (completions дипрекейтнули еще 2-3 месяца назад)

На каждом turn'е шлет previous_response_id + полный input[] с историей
В истории assistant-айтемы которые vLLM ранее сам сгенерировал
У них нет полей id, status="completed", annotations=[]

По OpenAI-схеме это required-поля
vLLM строгая Pydantic-валидация запрос делает что?
Правильно отлетает
Codex в ступоре
Вы тоже

Решение тот же подход bind-mount пропатченных Pydantic-моделей делаем поля optional с дефолтами

Итого
Кодинг агенты помогли собрать все это в кучу, и локализовать проблемы, да не так элегантно но работает!
Базовый вывод это легко находится через Codex/Claude Code главное тесты и что бы вы понимали что делаете
Все это решилось так же через подробные логи на всех сторонах систем

Затестить все это можно тут https://hub.neuraldeep.ru/docs#agents
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥38👍18💯96😁1
Мы начинаем нашу трансляцию "Как создавать AI-агентов на on-prem-моделях?"

https://youtube.com/live/wjA9aPg7pjQ?feature=share – подключайтесь!
25
Сброшены недельные лимиты для всех!

Добавлены еще инстансы qwen3.6-35b-a3b (латенси должен упасть)

Обновлены лимиты на free тире

Пол ярда токенов на квен за 2 дня КАРЛ! 🦾

Проработана дока для подключения моделей к агентам https://hub.neuraldeep.ru/docs#agents (теперь там есть огромная кнопка скопировать доку в md, сделаны базовые фиксы responses api
🔥43105😁3👍2
Валера Ковальский
Video message
После митапа и еще одной встречи с Андреем пришли к точному выводу что я где-то справа, часть людей еще по середине

UPDATE:

Нашли правильную картинку https://t.iss.one/neuraldeepchat/58210
😁45💯12🤡5👍32🔥1
Media is too big
VIEW IN TELEGRAM
Запись вчерашнего стрима "Как создавать AI-агентов на on-prem-моделях?".

YouTube: https://www.youtube.com/live/wjA9aPg7pjQ

Telegram: в медиа этого поста

Участники:
1. @neuraldeep
2. @kdoronin_blog

Паша. На стриме его несколько раз вспоминали:
@evilfreelancer

Платформа, с помощью которой тестировали on-prem-модели:
https://hub.neuraldeep.ru/

Презентация – в комментариях.
17👍13🔥5🤝2
Харнесы умирают?

После панельной дискуссии про вайбкодинг в офисе Туту с Серёжей, Андреем, Максимом и Женей у меня появилось большое желание встретится с Андреем и поговорить в спокойной обстановке, результатом разговора стал мем в канале про который мы вспомнили но есть и еще небольшая рефлексия

Все эти умные спеки, агентные обвязки, саб-агенты для ревью, отдельные оркестраторы
Год назад без этого было никак, и я ощущал лютейшее FOMO что не обуздал весь этот SDLC контент завод по производству кода

Cегодня модели стали умнее харнесов(обвязок над классическим СС/Codex CLI)
И вся эта обвязка из 1 000 000 спек превратилась в хрупкие лестницы из спичек ИМХО, которые проще сжечь, чем поддерживать

UPDATE: Я в целом про процесс написания кода, тестирование/ревю/багфиксы нужно автоматизировать и точно возможно расскажу в след постах что для этого делаю!

Да, на сегодня есть критическая масса минимума того что нужно
context7
web_search
playwright
Базовые навыки структурирования AGENT.md/CLAUDE.md
На этом наверное и все

Я для себя понял простую вещь если ты знаешь что делаешь, тебе хватит пары промптов в рукаве которые подсовываем в начале сессии
Модели за счёт статистики доделают как надо, без миллиона спецификаций

Чем проще велосипед тем лучше и надежнее он едет


Сегрегация ранних адоптеров

Еще как факт после панельки главное наблюдение большинству людей мешает не сложность LLM, а страх перед инструментом
Мы даже сравнили его с благоговением, как когда-то перед навигатором, который говорил поворачивать с моста через три полосы и его слушались

Народ боится сказать модели "слышь, ты, попроще объясни я не DevOps с 6 летним стажем" или "cлышь ты ***** делай ровно не ленись на ревю"
Боится переформулировать вопрос
Боится написать "сделай мне"
Или же страх=не понимание возможностей?
Пока загадка для меня =)
Почему часть людей у меня в канале идет сразу в комменты?
Спросить у кодинг агента как решить проблему? Разобраться самому? Что это? Лень?
Вижу картину что про мой open source проще сходить ко мне в комментарии с фразой "Валера! Не работает! Почини!"

И тут наша задача как евангелистов держать в рукаве пачку метафор под каждую группу
Для кого-то LLM это Excel 2.0
Для кого-то поисковик без критического мышления
Для кого-то джун, к которому надо научиться правильно обращаться

Чем раньше человек научится тем легче ему будет жить дальше
Получается что учится никогда не поздно! И задавать правильные вопросы тоже human_question_skill.md =)
56👍27🔥16💯8😁3🤯3🤔11
Media is too big
VIEW IN TELEGRAM
Обновление NeuralDeep Hub
https://hub.neuraldeep.ru/

1) Увеличили с Пашей количество серверов под qwen3.6-35b-a3b
2) Светлая тема
3) Форма обратной связи с уведомлением админу, как на видео
4) Возможность оплатить тариф через ЮКассу (но есть особенность: для STARTER доступно 20 мест, для PRO — 10 мест; первые 30 PRO получают также полный доступ)

И самое интересное: про подписку экспериментально доступно https://coder.neuraldeep.ru/

Это концепт, который работает в связке с таким стеком:

Barmetal server это физический сервер (Yandex) + MicroVM + OpenCode Web + qwen3.6-35b-a3b. Доступен только платным подпискам PRO. Ресурсов не так много, я все оплачиваю со своих средств ради эксперимента

Самое интересное — это повторить механики подписок от Anthropic и OpenAI

Спасибо, что тестируете
Вы уже сгенерировали 2 000 000 токенов
1🔥46
Валера Ковальский
Обновление NeuralDeep Hub https://hub.neuraldeep.ru/ 1) Увеличили с Пашей количество серверов под qwen3.6-35b-a3b 2) Светлая тема 3) Форма обратной связи с уведомлением админу, как на видео 4) Возможность оплатить тариф через ЮКассу (но есть особенность:…
UPDATE: Новый продукт в рамках хаба

LLM Research system
https://search.neuraldeep.ru/

Собрал в него все лучшие свои подходы workflow поиска в интернете: чистый LLM Call пайплайн

Всем пользователям доступен Perplexity-подобный поиск на базе GPT OSS 120b (возможны задержки с ответами). Основной поисковый индекс: Yandex + Видео (Rutube + VK)

Решение будет развиваться и доступно в рамках базовой авторизации в хабе

https://hub.neuraldeep.ru/
https://search.neuraldeep.ru/
https://coder.neuraldeep.ru/ (PRO)
https://webui.neuraldeep.ru/ (OpenWebUI)
https://drift.neuraldeep.ru/ (Персональный агент)
https://speechcoreai.com(персональная система для транскрибирования)

Видео поиска в комментариях
341🔥26👍12
OpenAI осознали бесперспективность файн-тюнинга моделей

7 Мая OpenAI оповестили разработчиков, что лавочка закрывается. Новые компании уже больше не могут запускать задачи тюнинга. В течение полугода закроют возможность даже для тех, кто уже тюнил. А возможность использования своих тюненых моделей сохранится только до момента выключения базовой модели. Потом - все.

См deprecations page.

В OpenAI говорят, что надо переключаться на RAG-и, нормальные инженерные подходы, оркестрацию и контроль качества. Это и выгоднее для всех, и позволяет быстрее выкатить рабочие решения без наступания на грабли.

Это все логично. Среди кейсов успешных внедрений AI в бизнес задачи я видел только один случай, когда традиционную LLM затюнили и получили желаемый результат, который стоил того (тюны ASR/Wake/Emb/TTS/CV стэка сюда не включаем, да и они тоже уже отмирают). Эти кейсы вместе с паттернами я разбираю в курсе AI Assitants вместе с бесперспективностью тюнинга и векторных подходов.

Тюнинг (и векторные RAGи) умирают не потому, что они не работают (вполне себе работают), а просто потому, это слишком долгий, дорогой и рискованный подход к повышению качества ответов (как для пользователей, так и для вендоров). Есть пути попроще - context engineering, современные frontier модели (включая локальные), контроль качества, tool use.

Если вы до сих пор используете тюнингованные модели в облаке, можно ожидать, что и другие компании последуют примеру OpenAI и свернут лавочку тюнинга, даже если это LORA. А потом это дойдет и до экосистемы локального inference.

И когда это произойдет, можно будет еще раз перечитать мой прогноз в конце 2024 года про тупиковость fine-tuning, ну или крик души про fine-tuning в бизнесе от 2023 года)

Ваш, @llm_under_hood 🤗
4🔥29👍145🤮4🤝2🤬1💯1
Валера Ковальский
Харнесы умирают? После панельной дискуссии про вайбкодинг в офисе Туту с Серёжей, Андреем, Максимом и Женей у меня появилось большое желание встретится с Андреем и поговорить в спокойной обстановке, результатом разговора стал мем в канале про который мы…
Харнесы умирают? Часть 2

Собрал коменты
через ллм и чутка обработал

После моего наброса накидали в комментах много чего полезного, собираю в одно место
Главное что унес

Pavel Zloi разнес идею что что-то умирает
Хайп спадает а технология остается и сидит на своей задаче
Так было с RAG, агентами, MCP, скиллами, теперь с харнесом
Все живо просто эволюционировало


ElKornacio ткнул что современный харнес это не про тулинг а про упакованный процесс
У него имплементация 15-20% времени, ревью и рефакторинг 50-60% и это факт с которым не поспорить
Узкое горлышко не написать код а проверить
Мой пост был именно про основу кода, ревью и тесты отдельная история и там автоматизация нужна


Mike Shevchenko принес три категории харнеса
Экзоскелет который двигает руками модели умирает
Память identity и recall между сессиями не умирает
Инструменты shell браузер поиск точно не умирает


Vladimir дал простой критерий Харнес нужен если экономит время на план дебаг следить за дурилкой
Если больше ковыряешься чем экономишь значит что-то не так


Kirill B про лень задать вопрос агенту
Это не лень а неготовность брать ответственность за результат
Проще пнуть мейнтейнера чем принести пуллреквест
Записал себе
Полезности из коментов забрал в сохраненки


Mutation testing через LLM про которое ElKornacio говорил
LLMorpheus
Meta ACH разбор
Cross-model review Claude + Codex Официальный плагин ставится через /plugin marketplace add openai/codex-plugin-cc
Get Shit Done про который Maxim рассказал Convergency planning через все CLI одновременно Claude, Codex, OpenCode, GLM
Best practices от Boris Cherny и Anthropic для тех кто еще не видел
Официальный гайд

Заголовок был кликбейтным признаю
Умирает излишняя сложность поверх того что модели уже умеют
Умирают саб-агенты для ревью когда хватает второй сессии кодекса
Умирают графовые оркестраторы из 50 нод когда работает один реакт цикл
Умирают тысячестрочные AGENT.md когда хватает 200 строк с context7, web_search, playwright

Не умирает упакованный процесс, память между сессиями и cross-model review на объемных задачах
Сначала собери процесс руками на одном CC или Codex с парой промптов
Упираешься в потолок и теряешь время на копипасты бери харнес типа GSD Харнес жрет больше времени чем экономит выкидывай и возвращайся к простоте
Чем проще велосипед тем лучше и надежнее едет Но если везешь 150к строк кода с брейк ченджами велосипед не подойдет нужен грузовик

Спасибо всем кто накидал, пишите что у вас работает, собираем общую картину
👍439🔥9🤝3💯2
Валера Ковальский
UPDATE: Новый продукт в рамках хаба LLM Research system https://search.neuraldeep.ru/ Собрал в него все лучшие свои подходы workflow поиска в интернете: чистый LLM Call пайплайн Всем пользователям доступен Perplexity-подобный поиск на базе GPT OSS 120b…
Помните мой проект Topsha?

Так вот, я не прекратил его развивать, просто закрыл свою ветку в приват, и сегодня представляю вам многопользовательское решение на базе своего харнеса и sandbox для кода.

Drift (личный AI-агент с памятью между сессиями, веб-поиском, песочницей для исполнения кода, Telegram-ботом, интеграцией с Google Workspace, расписанием задач и навыками для работы с PPTX/DOCX/PDF)

https://drift.neuraldeep.ru/

Со всеми лимитами можно ознакомиться на странице тарифов!
🔥4313🤔7👏3