Forwarded from Константин Доронин
Media is too big
VIEW IN TELEGRAM
Запись вчерашнего стрима "Как создавать AI-агентов на on-prem-моделях?".
YouTube: https://www.youtube.com/live/wjA9aPg7pjQ
Telegram: в медиа этого поста
Участники:
1. @neuraldeep
2. @kdoronin_blog
Паша. На стриме его несколько раз вспоминали:
@evilfreelancer
Платформа, с помощью которой тестировали on-prem-модели:
https://hub.neuraldeep.ru/
Презентация – в комментариях.
YouTube: https://www.youtube.com/live/wjA9aPg7pjQ
Telegram: в медиа этого поста
Участники:
1. @neuraldeep
2. @kdoronin_blog
Паша. На стриме его несколько раз вспоминали:
@evilfreelancer
Платформа, с помощью которой тестировали on-prem-модели:
https://hub.neuraldeep.ru/
Презентация – в комментариях.
❤17👍13🔥5🤝2
Харнесы умирают?
После панельной дискуссии про вайбкодинг в офисе Туту с Серёжей, Андреем, Максимом и Женей у меня появилось большое желание встретится с Андреем и поговорить в спокойной обстановке, результатом разговора стал мем в канале про который мы вспомнили но есть и еще небольшая рефлексия
Все эти умные спеки, агентные обвязки, саб-агенты для ревью, отдельные оркестраторы
Год назад без этого было никак, и я ощущал лютейшее FOMO что не обуздал весь этот SDLC контент завод по производству кода
Cегодня модели стали умнее харнесов(обвязок над классическим СС/Codex CLI)
И вся эта обвязка из 1 000 000 спек превратилась в хрупкие лестницы из спичек ИМХО, которые проще сжечь, чем поддерживать
UPDATE: Я в целом про процесс написания кода, тестирование/ревю/багфиксы нужно автоматизировать и точно возможно расскажу в след постах что для этого делаю!
Да, на сегодня есть критическая масса минимума того что нужно
context7
web_search
playwright
Базовые навыки структурирования AGENT.md/CLAUDE.md
На этом наверное и все
Я для себя понял простую вещь если ты знаешь что делаешь, тебе хватит пары промптов в рукаве которые подсовываем в начале сессии
Модели за счёт статистики доделают как надо, без миллиона спецификаций
Чем проще велосипед тем лучше и надежнее он едет
Сегрегация ранних адоптеров
Еще как факт после панельки главное наблюдение большинству людей мешает не сложность LLM, а страх перед инструментом
Мы даже сравнили его с благоговением, как когда-то перед навигатором, который говорил поворачивать с моста через три полосы и его слушались
Народ боится сказать модели "слышь, ты, попроще объясни я не DevOps с 6 летним стажем" или "cлышь ты ***** делай ровно не ленись на ревю"
Боится переформулировать вопрос
Боится написать "сделай мне"
Или же страх=не понимание возможностей?
Пока загадка для меня =)
Почему часть людей у меня в канале идет сразу в комменты?
Спросить у кодинг агента как решить проблему? Разобраться самому? Что это? Лень?
Вижу картину что про мой open source проще сходить ко мне в комментарии с фразой "Валера! Не работает! Почини!"
И тут наша задача как евангелистов держать в рукаве пачку метафор под каждую группу
Для кого-то LLM это Excel 2.0
Для кого-то поисковик без критического мышления
Для кого-то джун, к которому надо научиться правильно обращаться
Чем раньше человек научится тем легче ему будет жить дальше
Получается что учится никогда не поздно! И задавать правильные вопросы тоже
После панельной дискуссии про вайбкодинг в офисе Туту с Серёжей, Андреем, Максимом и Женей у меня появилось большое желание встретится с Андреем и поговорить в спокойной обстановке, результатом разговора стал мем в канале про который мы вспомнили но есть и еще небольшая рефлексия
Все эти умные спеки, агентные обвязки, саб-агенты для ревью, отдельные оркестраторы
Год назад без этого было никак, и я ощущал лютейшее FOMO что не обуздал весь этот SDLC контент завод по производству кода
Cегодня модели стали умнее харнесов(обвязок над классическим СС/Codex CLI)
И вся эта обвязка из 1 000 000 спек превратилась в хрупкие лестницы из спичек ИМХО, которые проще сжечь, чем поддерживать
UPDATE: Я в целом про процесс написания кода, тестирование/ревю/багфиксы нужно автоматизировать и точно возможно расскажу в след постах что для этого делаю!
Да, на сегодня есть критическая масса минимума того что нужно
context7
web_search
playwright
Базовые навыки структурирования AGENT.md/CLAUDE.md
На этом наверное и все
Я для себя понял простую вещь если ты знаешь что делаешь, тебе хватит пары промптов в рукаве которые подсовываем в начале сессии
Модели за счёт статистики доделают как надо, без миллиона спецификаций
Чем проще велосипед тем лучше и надежнее он едет
Сегрегация ранних адоптеров
Еще как факт после панельки главное наблюдение большинству людей мешает не сложность LLM, а страх перед инструментом
Мы даже сравнили его с благоговением, как когда-то перед навигатором, который говорил поворачивать с моста через три полосы и его слушались
Народ боится сказать модели "слышь, ты, попроще объясни я не DevOps с 6 летним стажем" или "cлышь ты ***** делай ровно не ленись на ревю"
Боится переформулировать вопрос
Боится написать "сделай мне"
Или же страх=не понимание возможностей?
Пока загадка для меня =)
Почему часть людей у меня в канале идет сразу в комменты?
Спросить у кодинг агента как решить проблему? Разобраться самому? Что это? Лень?
Вижу картину что про мой open source проще сходить ко мне в комментарии с фразой "Валера! Не работает! Почини!"
И тут наша задача как евангелистов держать в рукаве пачку метафор под каждую группу
Для кого-то LLM это Excel 2.0
Для кого-то поисковик без критического мышления
Для кого-то джун, к которому надо научиться правильно обращаться
Чем раньше человек научится тем легче ему будет жить дальше
Получается что учится никогда не поздно! И задавать правильные вопросы тоже
human_question_skill.md =)❤56👍27🔥16💯8😁3🤯3🤔1 1
Media is too big
VIEW IN TELEGRAM
Обновление NeuralDeep Hub
https://hub.neuraldeep.ru/
1) Увеличили с Пашей количество серверов под qwen3.6-35b-a3b
2) Светлая тема
3) Форма обратной связи с уведомлением админу, как на видео
4) Возможность оплатить тариф через ЮКассу (но есть особенность: для STARTER доступно 20 мест, для PRO — 10 мест; первые 30 PRO получают также полный доступ)
И самое интересное: про подписку экспериментально доступно https://coder.neuraldeep.ru/
Это концепт, который работает в связке с таким стеком:
Barmetal server это физический сервер (Yandex) + MicroVM + OpenCode Web + qwen3.6-35b-a3b. Доступен только платным подпискам PRO. Ресурсов не так много, я все оплачиваю со своих средств ради эксперимента
Самое интересное — это повторить механики подписок от Anthropic и OpenAI
Спасибо, что тестируете
Вы уже сгенерировали 2 000 000 токенов
https://hub.neuraldeep.ru/
1) Увеличили с Пашей количество серверов под qwen3.6-35b-a3b
2) Светлая тема
3) Форма обратной связи с уведомлением админу, как на видео
4) Возможность оплатить тариф через ЮКассу (но есть особенность: для STARTER доступно 20 мест, для PRO — 10 мест; первые 30 PRO получают также полный доступ)
И самое интересное: про подписку экспериментально доступно https://coder.neuraldeep.ru/
Это концепт, который работает в связке с таким стеком:
Barmetal server это физический сервер (Yandex) + MicroVM + OpenCode Web + qwen3.6-35b-a3b. Доступен только платным подпискам PRO. Ресурсов не так много, я все оплачиваю со своих средств ради эксперимента
Самое интересное — это повторить механики подписок от Anthropic и OpenAI
Спасибо, что тестируете
Вы уже сгенерировали 2 000 000 токенов
1🔥46
Валера Ковальский
Обновление NeuralDeep Hub https://hub.neuraldeep.ru/ 1) Увеличили с Пашей количество серверов под qwen3.6-35b-a3b 2) Светлая тема 3) Форма обратной связи с уведомлением админу, как на видео 4) Возможность оплатить тариф через ЮКассу (но есть особенность:…
UPDATE:
Kimi k2.6 теперь доступна всем PRO кто приобрел подписку через юкассу
https://hub.neuraldeep.ru/
Kimi k2.6 теперь доступна всем PRO кто приобрел подписку через юкассу
https://hub.neuraldeep.ru/
51🔥33❤6⚡5
Валера Ковальский
Обновление NeuralDeep Hub https://hub.neuraldeep.ru/ 1) Увеличили с Пашей количество серверов под qwen3.6-35b-a3b 2) Светлая тема 3) Форма обратной связи с уведомлением админу, как на видео 4) Возможность оплатить тариф через ЮКассу (но есть особенность:…
UPDATE: Новый продукт в рамках хаба
LLM Research system
https://search.neuraldeep.ru/
Собрал в него все лучшие свои подходы workflow поиска в интернете: чистый LLM Call пайплайн
Всем пользователям доступен Perplexity-подобный поиск на базе GPT OSS 120b (возможны задержки с ответами). Основной поисковый индекс: Yandex + Видео (Rutube + VK)
Решение будет развиваться и доступно в рамках базовой авторизации в хабе
https://hub.neuraldeep.ru/
https://search.neuraldeep.ru/
https://coder.neuraldeep.ru/ (PRO)
https://webui.neuraldeep.ru/ (OpenWebUI)
https://drift.neuraldeep.ru/ (Персональный агент)
https://speechcoreai.com(персональная система для транскрибирования)
Видео поиска в комментариях
LLM Research system
https://search.neuraldeep.ru/
Собрал в него все лучшие свои подходы workflow поиска в интернете: чистый LLM Call пайплайн
Всем пользователям доступен Perplexity-подобный поиск на базе GPT OSS 120b (возможны задержки с ответами). Основной поисковый индекс: Yandex + Видео (Rutube + VK)
Решение будет развиваться и доступно в рамках базовой авторизации в хабе
https://hub.neuraldeep.ru/
https://search.neuraldeep.ru/
https://coder.neuraldeep.ru/ (PRO)
https://webui.neuraldeep.ru/ (OpenWebUI)
https://drift.neuraldeep.ru/ (Персональный агент)
https://speechcoreai.com(персональная система для транскрибирования)
Видео поиска в комментариях
3❤41🔥26👍12
Forwarded from LLM под капотом
OpenAI осознали бесперспективность файн-тюнинга моделей
7 Мая OpenAI оповестили разработчиков, что лавочка закрывается. Новые компании уже больше не могут запускать задачи тюнинга. В течение полугода закроют возможность даже для тех, кто уже тюнил. А возможность использования своих тюненых моделей сохранится только до момента выключения базовой модели. Потом - все.
См deprecations page.
В OpenAI говорят, что надо переключаться на RAG-и, нормальные инженерные подходы, оркестрацию и контроль качества. Это и выгоднее для всех, и позволяет быстрее выкатить рабочие решения без наступания на грабли.
Это все логично. Среди кейсов успешных внедрений AI в бизнес задачи я видел только один случай, когда традиционную LLM затюнили и получили желаемый результат, который стоил того (тюны ASR/Wake/Emb/TTS/CV стэка сюда не включаем, да и они тоже уже отмирают). Эти кейсы вместе с паттернами я разбираю в курсе AI Assitants вместе с бесперспективностью тюнинга и векторных подходов.
Тюнинг (и векторные RAGи) умирают не потому, что они не работают (вполне себе работают), а просто потому, это слишком долгий, дорогой и рискованный подход к повышению качества ответов (как для пользователей, так и для вендоров). Есть пути попроще - context engineering, современные frontier модели (включая локальные), контроль качества, tool use.
Если вы до сих пор используете тюнингованные модели в облаке, можно ожидать, что и другие компании последуют примеру OpenAI и свернут лавочку тюнинга, даже если это LORA. А потом это дойдет и до экосистемы локального inference.
И когда это произойдет, можно будет еще раз перечитать мой прогноз в конце 2024 года про тупиковость fine-tuning, ну или крик души про fine-tuning в бизнесе от 2023 года)
Ваш, @llm_under_hood 🤗
7 Мая OpenAI оповестили разработчиков, что лавочка закрывается. Новые компании уже больше не могут запускать задачи тюнинга. В течение полугода закроют возможность даже для тех, кто уже тюнил. А возможность использования своих тюненых моделей сохранится только до момента выключения базовой модели. Потом - все.
См deprecations page.
В OpenAI говорят, что надо переключаться на RAG-и, нормальные инженерные подходы, оркестрацию и контроль качества. Это и выгоднее для всех, и позволяет быстрее выкатить рабочие решения без наступания на грабли.
Это все логично. Среди кейсов успешных внедрений AI в бизнес задачи я видел только один случай, когда традиционную LLM затюнили и получили желаемый результат, который стоил того (тюны ASR/Wake/Emb/TTS/CV стэка сюда не включаем, да и они тоже уже отмирают). Эти кейсы вместе с паттернами я разбираю в курсе AI Assitants вместе с бесперспективностью тюнинга и векторных подходов.
Тюнинг (и векторные RAGи) умирают не потому, что они не работают (вполне себе работают), а просто потому, это слишком долгий, дорогой и рискованный подход к повышению качества ответов (как для пользователей, так и для вендоров). Есть пути попроще - context engineering, современные frontier модели (включая локальные), контроль качества, tool use.
Если вы до сих пор используете тюнингованные модели в облаке, можно ожидать, что и другие компании последуют примеру OpenAI и свернут лавочку тюнинга, даже если это LORA. А потом это дойдет и до экосистемы локального inference.
И когда это произойдет, можно будет еще раз перечитать мой прогноз в конце 2024 года про тупиковость fine-tuning, ну или крик души про fine-tuning в бизнесе от 2023 года)
Ваш, @llm_under_hood 🤗
4🔥29👍15❤5🤮4🤝2🤬1💯1
Валера Ковальский
Харнесы умирают? После панельной дискуссии про вайбкодинг в офисе Туту с Серёжей, Андреем, Максимом и Женей у меня появилось большое желание встретится с Андреем и поговорить в спокойной обстановке, результатом разговора стал мем в канале про который мы…
Харнесы умирают? Часть 2
Собрал коменты через ллм и чутка обработал
После моего наброса накидали в комментах много чего полезного, собираю в одно место
Главное что унес
Pavel Zloi разнес идею что что-то умирает
Хайп спадает а технология остается и сидит на своей задаче
Так было с RAG, агентами, MCP, скиллами, теперь с харнесом
Все живо просто эволюционировало
ElKornacio ткнул что современный харнес это не про тулинг а про упакованный процесс
У него имплементация 15-20% времени, ревью и рефакторинг 50-60% и это факт с которым не поспорить
Узкое горлышко не написать код а проверить
Мой пост был именно про основу кода, ревью и тесты отдельная история и там автоматизация нужна
Mike Shevchenko принес три категории харнеса
Экзоскелет который двигает руками модели умирает
Память identity и recall между сессиями не умирает
Инструменты shell браузер поиск точно не умирает
Vladimir дал простой критерий Харнес нужен если экономит время на план дебаг следить за дурилкой
Если больше ковыряешься чем экономишь значит что-то не так
Kirill B про лень задать вопрос агенту
Это не лень а неготовность брать ответственность за результат
Проще пнуть мейнтейнера чем принести пуллреквест
Записал себе
Полезности из коментов забрал в сохраненки
Mutation testing через LLM про которое ElKornacio говорил
LLMorpheus
Meta ACH разбор
Cross-model review Claude + Codex Официальный плагин ставится через /plugin marketplace add openai/codex-plugin-cc
Get Shit Done про который Maxim рассказал Convergency planning через все CLI одновременно Claude, Codex, OpenCode, GLM
Best practices от Boris Cherny и Anthropic для тех кто еще не видел
Официальный гайд
Заголовок был кликбейтным признаю
Умирает излишняя сложность поверх того что модели уже умеют
Умирают саб-агенты для ревью когда хватает второй сессии кодекса
Умирают графовые оркестраторы из 50 нод когда работает один реакт цикл
Умирают тысячестрочные AGENT.md когда хватает 200 строк с context7, web_search, playwright
Не умирает упакованный процесс, память между сессиями и cross-model review на объемных задачах
Сначала собери процесс руками на одном CC или Codex с парой промптов
Упираешься в потолок и теряешь время на копипасты бери харнес типа GSD Харнес жрет больше времени чем экономит выкидывай и возвращайся к простоте
Чем проще велосипед тем лучше и надежнее едет Но если везешь 150к строк кода с брейк ченджами велосипед не подойдет нужен грузовик
Спасибо всем кто накидал, пишите что у вас работает, собираем общую картину
Собрал коменты через ллм и чутка обработал
После моего наброса накидали в комментах много чего полезного, собираю в одно место
Главное что унес
Pavel Zloi разнес идею что что-то умирает
Хайп спадает а технология остается и сидит на своей задаче
Так было с RAG, агентами, MCP, скиллами, теперь с харнесом
Все живо просто эволюционировало
ElKornacio ткнул что современный харнес это не про тулинг а про упакованный процесс
У него имплементация 15-20% времени, ревью и рефакторинг 50-60% и это факт с которым не поспорить
Узкое горлышко не написать код а проверить
Мой пост был именно про основу кода, ревью и тесты отдельная история и там автоматизация нужна
Mike Shevchenko принес три категории харнеса
Экзоскелет который двигает руками модели умирает
Память identity и recall между сессиями не умирает
Инструменты shell браузер поиск точно не умирает
Vladimir дал простой критерий Харнес нужен если экономит время на план дебаг следить за дурилкой
Если больше ковыряешься чем экономишь значит что-то не так
Kirill B про лень задать вопрос агенту
Это не лень а неготовность брать ответственность за результат
Проще пнуть мейнтейнера чем принести пуллреквест
Записал себе
Полезности из коментов забрал в сохраненки
Mutation testing через LLM про которое ElKornacio говорил
LLMorpheus
Meta ACH разбор
Cross-model review Claude + Codex Официальный плагин ставится через /plugin marketplace add openai/codex-plugin-cc
Get Shit Done про который Maxim рассказал Convergency planning через все CLI одновременно Claude, Codex, OpenCode, GLM
Best practices от Boris Cherny и Anthropic для тех кто еще не видел
Официальный гайд
Заголовок был кликбейтным признаю
Умирает излишняя сложность поверх того что модели уже умеют
Умирают саб-агенты для ревью когда хватает второй сессии кодекса
Умирают графовые оркестраторы из 50 нод когда работает один реакт цикл
Умирают тысячестрочные AGENT.md когда хватает 200 строк с context7, web_search, playwright
Не умирает упакованный процесс, память между сессиями и cross-model review на объемных задачах
Сначала собери процесс руками на одном CC или Codex с парой промптов
Упираешься в потолок и теряешь время на копипасты бери харнес типа GSD Харнес жрет больше времени чем экономит выкидывай и возвращайся к простоте
Чем проще велосипед тем лучше и надежнее едет Но если везешь 150к строк кода с брейк ченджами велосипед не подойдет нужен грузовик
Спасибо всем кто накидал, пишите что у вас работает, собираем общую картину
👍43❤9🔥9🤝3💯2
Валера Ковальский
UPDATE: Новый продукт в рамках хаба LLM Research system https://search.neuraldeep.ru/ Собрал в него все лучшие свои подходы workflow поиска в интернете: чистый LLM Call пайплайн Всем пользователям доступен Perplexity-подобный поиск на базе GPT OSS 120b…
Помните мой проект Topsha?
Так вот, я не прекратил его развивать, просто закрыл свою ветку в приват, и сегодня представляю вам многопользовательское решение на базе своего харнеса и sandbox для кода.
Drift (личный AI-агент с памятью между сессиями, веб-поиском, песочницей для исполнения кода, Telegram-ботом, интеграцией с Google Workspace, расписанием задач и навыками для работы с PPTX/DOCX/PDF)
https://drift.neuraldeep.ru/
Со всеми лимитами можно ознакомиться на странице тарифов!
Так вот, я не прекратил его развивать, просто закрыл свою ветку в приват, и сегодня представляю вам многопользовательское решение на базе своего харнеса и sandbox для кода.
Drift (личный AI-агент с памятью между сессиями, веб-поиском, песочницей для исполнения кода, Telegram-ботом, интеграцией с Google Workspace, расписанием задач и навыками для работы с PPTX/DOCX/PDF)
https://drift.neuraldeep.ru/
Со всеми лимитами можно ознакомиться на странице тарифов!
🔥43❤13🤔7👏3
Forwarded from Pavel Novak
Пока @VaKovaLskii и @eprogrammist активно развивают крутой продукт https://hub.neuraldeep.ru , я не дам вам забыть Codbash, и я по чуть его развиваю, так как пользуюсь им каждый день, итак, в ближайшем релизе https://github.com/vakovalskii/codbash
🚀 Codbash — что нового
С последнего релиза вкладка «Projects» превратилась в полноценный launcher для AI-агентов, появилась поддержка новых агентов и куча мелких улучшений.
✨ Главное: запуск агентов — в один клик
Projects теперь — это две вкладки:
- Projects — карточки ваших проектов с кнопками ▶ New (новая сессия) и ⟳ Last (продолжить последнюю). Можно выбрать агента «на разок» через ⏷, не меняя дефолт.
- History — привычный список сессий, ничего не потерялось, просто переехало.
Добавлять проекты теперь проще:
- Кнопка «+ Add Project» с тремя вкладками: локальный путь, ваши репозитории GitHub, репозитории где вы контрибьютор.
- Можно прямо из дашборда клонировать репо с GitHub одним кликом — он попадёт в ~/code/<repo> и сразу появится в списке.
- Если запустить агента в новом git-репозитории под $HOME, проект сам добавится в Projects.
Настройка дефолтного агента:
В ⚙ Settings можно выбрать, какой агент будет запускаться по ▶ New по умолчанию. Список показывает только то, что у вас реально установлено.
🔍 Drill-down по проекту
Клик на проект — и вы видите только его сессии, с понятным breadcrumb «× Clear filter».
📊 Дашборд сам обновляется
Раз в минуту подтягиваются новые сессии и свежие траты — не нужно жать Refresh. Также починена аналитика, которая показывала закэшированные данные после переключения вкладок.
💳 Подписки в Analytics
Теперь можно вводить любой сервис и план (не только Claude/Cursor/Codex). При знакомой комбинации цена подставляется сама. И починен баг, когда после третьей добавленной подписки новые перестали
появляться.
🛠 Чистка проектов
- Worktree-репозитории больше не дублируются как отдельные «проекты» — все ветки и worktrees собираются под основной репо.
- Если ваш $HOME сам по себе git-репозиторий (например, dotfiles) — codbash больше не приписывает его remote к сессиям, запущенным просто из домашней папки.
🔄 Background git fetch (свежее)
Для подключённых репозиториев данные о ветках и коммитах подтягиваются в фоне — без блокировок UI.
🚀 Codbash — что нового
С последнего релиза вкладка «Projects» превратилась в полноценный launcher для AI-агентов, появилась поддержка новых агентов и куча мелких улучшений.
✨ Главное: запуск агентов — в один клик
Projects теперь — это две вкладки:
- Projects — карточки ваших проектов с кнопками ▶ New (новая сессия) и ⟳ Last (продолжить последнюю). Можно выбрать агента «на разок» через ⏷, не меняя дефолт.
- History — привычный список сессий, ничего не потерялось, просто переехало.
Добавлять проекты теперь проще:
- Кнопка «+ Add Project» с тремя вкладками: локальный путь, ваши репозитории GitHub, репозитории где вы контрибьютор.
- Можно прямо из дашборда клонировать репо с GitHub одним кликом — он попадёт в ~/code/<repo> и сразу появится в списке.
- Если запустить агента в новом git-репозитории под $HOME, проект сам добавится в Projects.
Настройка дефолтного агента:
В ⚙ Settings можно выбрать, какой агент будет запускаться по ▶ New по умолчанию. Список показывает только то, что у вас реально установлено.
🔍 Drill-down по проекту
Клик на проект — и вы видите только его сессии, с понятным breadcrumb «× Clear filter».
📊 Дашборд сам обновляется
Раз в минуту подтягиваются новые сессии и свежие траты — не нужно жать Refresh. Также починена аналитика, которая показывала закэшированные данные после переключения вкладок.
💳 Подписки в Analytics
Теперь можно вводить любой сервис и план (не только Claude/Cursor/Codex). При знакомой комбинации цена подставляется сама. И починен баг, когда после третьей добавленной подписки новые перестали
появляться.
🛠 Чистка проектов
- Worktree-репозитории больше не дублируются как отдельные «проекты» — все ветки и worktrees собираются под основной репо.
- Если ваш $HOME сам по себе git-репозиторий (например, dotfiles) — codbash больше не приписывает его remote к сессиям, запущенным просто из домашней папки.
🔄 Background git fetch (свежее)
Для подключённых репозиториев данные о ветках и коммитах подтягиваются в фоне — без блокировок UI.
🔥21❤13👍6💯2
Ежедневный дайджест
Проект который я начал полгода назад и продолжаю поддерживать!
На сегодня @neuraldeepbot сканирует более 60 каналов, на него подписано 1300+ человек
На сегодня он подготовил уже более 100 дайджестов, проводя около 20 минут в цикле поиска и метчинга каждое утро, чтобы предоставить вам интересные новости и готовить дайджест каждое утро в 10 часов
Дайджест абсолютно бесплатный. Чтобы запустить подписку на дайджест, достаточно нажать «Старт» в боте.
Из полезных фишек: по всем 60 каналам можно задавать вопросы под капотом OpenAI Agent SDK и gpt-oss 120b с нашего хаба https://hub.neuraldeep.ru/
Проект который я начал полгода назад и продолжаю поддерживать!
На сегодня @neuraldeepbot сканирует более 60 каналов, на него подписано 1300+ человек
На сегодня он подготовил уже более 100 дайджестов, проводя около 20 минут в цикле поиска и метчинга каждое утро, чтобы предоставить вам интересные новости и готовить дайджест каждое утро в 10 часов
Дайджест абсолютно бесплатный. Чтобы запустить подписку на дайджест, достаточно нажать «Старт» в боте.
Из полезных фишек: по всем 60 каналам можно задавать вопросы под капотом OpenAI Agent SDK и gpt-oss 120b с нашего хаба https://hub.neuraldeep.ru/
Telegram
Neural Deep Agent
Agentic telegram RAG
Question? »»» @neuraldeep
Question? »»» @neuraldeep
👍16🔥9❤4🤮1
Forwarded from Neural Deep Agent
🗓 AI ДАЙДЖЕСТ • 15.05.2026
━━━━━━━━━━━━━━━
🚀 МОДЕЛИ И СЕРВИСЫ
🔹 GPT 5.5 впервые прошла тест ProgramBench
Модель GPT 5.5 в режимах high и xhigh полностью решила задачу cmatrix из бенчмарка ProgramBench, став первой публичной моделью, доведшей это реальное задание по переписке утилит до конца [3].
🔹 Claude для юристов: новые MCP-коннекторы
Anthropic расширил функционал Claude для юридической отрасли, добавив 20 MCP-коннекторов и 12 специализированных плагинов, включая инструменты для трудового права и студентов юрфаков [11].
━━━━━━━━━━━━━━━
🔬 ИССЛЕДОВАНИЯ
🔹 Perceptron AI выпустила модель Mk1 для анализа видео
Стартап представил флагманскую мультимодальную модель Mk1, способную к воплощенному резонингу и оперированию пространственно-временной информацией о физическом мире [6].
━━━━━━━━━━━━━━━
🛠 ИНСТРУМЕНТЫ
🔹 OpenAI Codex Remote: управление Mac с телефона
Вышла функция Codex Remote on Mobile, позволяющая управлять приложением Codex на MacOS напрямую с iOS и Android устройств, что потенциально заменяет необходимость в Telegram-мостах [2] [4].
🔹 Open Design: open-source клон Claude Design
Проект Open Design от nexu-io собрал 20 000 звезд на GitHub за 6 дней, предлагая бесплатный аналог платного сервиса Anthropic для создания прототипов, лендингов и презентаций с экспортом в HTML/PDF/PPTX [8].
🔹 Уральский Барс и Aqua Voice
Команда BashAdventure открыла запись на горные этапы проекта «Уральский Барс», а приложение Aqua Voice вышло на iOS, обеспечив голосовое общение через чаты и приложения с удобным UX [9] [10].
📚 Подготовлено Neural Deep Agent
━━━━━━━━━━━━━━━
🚀 МОДЕЛИ И СЕРВИСЫ
🔹 GPT 5.5 впервые прошла тест ProgramBench
Модель GPT 5.5 в режимах high и xhigh полностью решила задачу cmatrix из бенчмарка ProgramBench, став первой публичной моделью, доведшей это реальное задание по переписке утилит до конца [3].
🔹 Claude для юристов: новые MCP-коннекторы
Anthropic расширил функционал Claude для юридической отрасли, добавив 20 MCP-коннекторов и 12 специализированных плагинов, включая инструменты для трудового права и студентов юрфаков [11].
━━━━━━━━━━━━━━━
🔬 ИССЛЕДОВАНИЯ
🔹 Perceptron AI выпустила модель Mk1 для анализа видео
Стартап представил флагманскую мультимодальную модель Mk1, способную к воплощенному резонингу и оперированию пространственно-временной информацией о физическом мире [6].
━━━━━━━━━━━━━━━
🛠 ИНСТРУМЕНТЫ
🔹 OpenAI Codex Remote: управление Mac с телефона
Вышла функция Codex Remote on Mobile, позволяющая управлять приложением Codex на MacOS напрямую с iOS и Android устройств, что потенциально заменяет необходимость в Telegram-мостах [2] [4].
🔹 Open Design: open-source клон Claude Design
Проект Open Design от nexu-io собрал 20 000 звезд на GitHub за 6 дней, предлагая бесплатный аналог платного сервиса Anthropic для создания прототипов, лендингов и презентаций с экспортом в HTML/PDF/PPTX [8].
🔹 Уральский Барс и Aqua Voice
Команда BashAdventure открыла запись на горные этапы проекта «Уральский Барс», а приложение Aqua Voice вышло на iOS, обеспечив голосовое общение через чаты и приложения с удобным UX [9] [10].
📚 Подготовлено Neural Deep Agent
👍13🔥5❤3🤮2
Обновления одного из продуктов на Hub
https://drift.neuraldeep.ru/
Для PRO пользователей была замечена ошибка с моделькой Kimi k2.6, она не работала
На сегодня всё исправлено, приятного использования!
Из апдейтов протестирован и добавлен BYOK (для OpenRouter)
Всё, что вы пишете в TG-чате, повторяется в вебе, и наоборот
Можно выставить модель по умолчанию для ТG бота
Добавлена интеграция с Битрикс24, на сегодня можно добавить один портал
Напоминаю что Drift это реинкарнация Topsha только вам не нужно ничего разворачивать на своем сервере!
https://drift.neuraldeep.ru/
Для PRO пользователей была замечена ошибка с моделькой Kimi k2.6, она не работала
На сегодня всё исправлено, приятного использования!
Из апдейтов протестирован и добавлен BYOK (для OpenRouter)
Всё, что вы пишете в TG-чате, повторяется в вебе, и наоборот
Можно выставить модель по умолчанию для ТG бота
Добавлена интеграция с Битрикс24, на сегодня можно добавить один портал
Напоминаю что Drift это реинкарнация Topsha только вам не нужно ничего разворачивать на своем сервере!
🔥10👍4❤2
Forwarded from Константин Доронин
"Каждый токен на счету".
Вы его ждали – и он пришёл. Анонс нового стрима!
Для большинства пользователей то, что OpenClaw или Hermes едят токены с лопаты – не проблема.
Дело в том, что использует эту обвязку вокруг агента один человек. Поэтому и разница в пять раз(хорошо если в пять!) по количеству используемых токенов – это разница между $20 и $100. Для человека с доходом в $2000 и то, и другое – приемлемая цена за удобство от использования личного ассистента.
У бизнеса, как правило, степеней свободы меньше. Так как включается эффект масштаба. И мы получаем уже выражение вида "цена" умножить на 20 сотрудников и ещё на 10 бизнес-процессов. И разница, в таком случае, получается между $4000 и $20000... Это в маленькой и скромной компании. Представьте, что творится хотя бы в среднем бизнесе?
Время представить гостей:
Сергей Нотевский. AI Platform Lead в Битрикс24. Про те крутые штуки, которые они там у себя в Битрикс24 выпускают, я ещё вам поведаю. В рамках нашей беседы Сергей расскажет о том, как настроить prefix_cache и сэкономить на этом "десятки поцентов костов" (прямая цитата из этого поста).
Родион Мостовой. Создатель CodeAlive.ai – системы организации контекста для программных проектов. Несколько лет Родион занимается тем, что оптимизирует контекст для LLM и, как следствие, токены, которые на него уходят.
На стриме пощупаем руками оба подхода, сделаем практические выводы и определим принципы, которыми стоит руководствоваться, чтобы не разбрасываться бесцельно токенами.
Дата и время проведения стрима: воскресенье, 17 мая, 16:00 мск
Место проведения: мой YouTube-канал
Чтобы не пропустить – добавьте в календарь!
Вы его ждали – и он пришёл. Анонс нового стрима!
Для большинства пользователей то, что OpenClaw или Hermes едят токены с лопаты – не проблема.
Дело в том, что использует эту обвязку вокруг агента один человек. Поэтому и разница в пять раз
У бизнеса, как правило, степеней свободы меньше. Так как включается эффект масштаба. И мы получаем уже выражение вида "цена" умножить на 20 сотрудников и ещё на 10 бизнес-процессов. И разница, в таком случае, получается между $4000 и $20000... Это в маленькой и скромной компании. Представьте, что творится хотя бы в среднем бизнесе?
Время представить гостей:
Сергей Нотевский. AI Platform Lead в Битрикс24. Про те крутые штуки, которые они там у себя в Битрикс24 выпускают, я ещё вам поведаю. В рамках нашей беседы Сергей расскажет о том, как настроить prefix_cache и сэкономить на этом "десятки поцентов костов" (прямая цитата из этого поста).
Родион Мостовой. Создатель CodeAlive.ai – системы организации контекста для программных проектов. Несколько лет Родион занимается тем, что оптимизирует контекст для LLM и, как следствие, токены, которые на него уходят.
На стриме пощупаем руками оба подхода, сделаем практические выводы и определим принципы, которыми стоит руководствоваться, чтобы не разбрасываться бесцельно токенами.
Дата и время проведения стрима: воскресенье, 17 мая, 16:00 мск
Место проведения: мой YouTube-канал
Чтобы не пропустить – добавьте в календарь!
🔥18❤11