SGR Deep Research топ 3 в open-source!
Пока кипит работа по финализированнию наших тестов и выявлению лучшей архитектуры агента для небольших и недорогих моделей
Хочу с вами поделится очень крутыми новостями!
Бенчмарк и новые фичи!
Что было сделано:
1) Был добавлен MCP как клиент (теперь вы можете подключить любой набор тулов внутрь агента)
2) Проработаны и оптимизированы промпты для читаемости и понимания LLM
3) Проработаны докстринги у каждого тула
Осмысленные и протестированы description
4) Использован гибридный подход: агент строится на концепции SGR и подходах ReAct+PlanAct, также был применён чистый Function Calling (со схемой решения можно ознакомиться в комментариях под постом)
5) Я разнес тул вэб поиска на /search и /extract
5) Я лично провел огромное кол-во экспериментов по созданию разных tool_kit для проверки агента
Самое важное этот агент sgr_tools_agent.py мой личный фаворит для использования моделей по типу
gpt-4o-mini
gpt-4.1-mini
И схожих им по размеру (как говорит интернет это что-то в районе 40-80b)
Сначала мы занялись поиском бенчмарка, на котором можно протестировать SGR Deep Research
Выбирали из: BESPOKE, FRAMES, MS MARCO, SimpleQA, SealQA
Остановились на SimpleQA так как хотелось проверить возможности агента на поиск фактов!
Нашим ориентиром стал лидерборд из репозитория фреймворка ROMA, в нем приведено сравнение точности различных LLM на SimpleQA, встроенных в поисковый движок
Тестовый прогон на SimpleQA Verified
Перед запуском на SimpleQA (4326 вопросов/ответов)
решили провести тестирование на урезанной версии SimpleQA Verified (1000 вопросов/ответов).
Для оценки правильности ответов мы использовали подход LLM-as-a-judge, где в качестве судьи выбрали gpt-4o
Для старта в качестве агента для SGR Deep Research взяли sgr_auto_tool_calling_agent.py,
Точность оценивали у двух LLM: gpt-4.1-mini и gpt-4o-mini.
Результат на SimpleQA Verified получили следующий:
gpt-4.1-mini → Accuracy: 0.792
gpt-4o-mini → Accuracy: 0.705
Вывод: gpt-4.1-mini оказался точнее
А режим auto мешал агенту и превращал его в чатбота, такое нам не надо
С ним идем на полный SimpleQA но убираем режим auto у тулов и переключаемся в required sgr_tools_agent.py.
Оценка SGR Deep Research на SimpleQA
В качестве LLM выбрали gpt-4.1-mini, а в качестве агента - sgr_tool_calling_agent.
Произвели все изменения что я описал выше учитывая незначительные дополнительные правила и указания
(фититься под бенчмарк не хотелось бы как ROMA)
Результат бенчмарка получили следующий:
gpt-4.1-mini → Accuracy: 0.861
Таким образом, опираясь на лидерборд из ROMA, мы смогли занять 7 место среди общего списка, а также 3 МЕСТО среди open-source решений на недорогой модели и самом базовом поиске от Tavily!
Если быть честными на gpt-4.1-mini это первое место так как был использован Tavily Basic (с ограничением на экстракт в 33к символов, что сильно экономит токены)
Более подробное описание параметров запуска, а также результатов тестирования мы выложили репозиторий
Тут есть все
Коды запуска
Коды от Зиона =)
LLM-as-a-judge
Таблица с ответами
Кстати мы не поленились и собрали полный лог каждого прогона можно посмотреть тут
Так что теперь можете не только брать данное решение как лишенное готовых агентных фреймворков,
так и доказать перед командой точность результатами бенчмарка!
Отдельное спасибо нашей open-source команде которая смогла реализовать это:
Ревью кода - Артём
Координирование - я
Подготовка данных и реализация логики тестирования: Максим
Паша наш MCP гуру
Ринат собирает кейсы, и распространяет проект на EN уровне!
Цифры:
232 млн токенов
8к запросов на /search
1200 запросов на /extract
Полный тест такого бенчмарка обошелся в $170
Далее мы планируем оценить работу агента уже на локальных LLM
Репо: https://github.com/vamplabAI/sgr-deep-research
P.S замену tool calling не нужно делать!
Но если очень хочется можно
Мы всех слышим и умеем читать пейперы =)
Пока кипит работа по финализированнию наших тестов и выявлению лучшей архитектуры агента для небольших и недорогих моделей
Хочу с вами поделится очень крутыми новостями!
Бенчмарк и новые фичи!
Что было сделано:
1) Был добавлен MCP как клиент (теперь вы можете подключить любой набор тулов внутрь агента)
2) Проработаны и оптимизированы промпты для читаемости и понимания LLM
<MAIN_TASK_GUIDELINES>
<DATE_GUIDELINES>
<CORE_PRINCIPLES>
<REASONING_GUIDELINES>
3) Проработаны докстринги у каждого тула
Осмысленные и протестированы description
4) Использован гибридный подход: агент строится на концепции SGR и подходах ReAct+PlanAct, также был применён чистый Function Calling (со схемой решения можно ознакомиться в комментариях под постом)
5) Я разнес тул вэб поиска на /search и /extract
5) Я лично провел огромное кол-во экспериментов по созданию разных tool_kit для проверки агента
Самое важное этот агент sgr_tools_agent.py мой личный фаворит для использования моделей по типу
gpt-4o-mini
gpt-4.1-mini
И схожих им по размеру (как говорит интернет это что-то в районе 40-80b)
Сначала мы занялись поиском бенчмарка, на котором можно протестировать SGR Deep Research
Выбирали из: BESPOKE, FRAMES, MS MARCO, SimpleQA, SealQA
Остановились на SimpleQA так как хотелось проверить возможности агента на поиск фактов!
Нашим ориентиром стал лидерборд из репозитория фреймворка ROMA, в нем приведено сравнение точности различных LLM на SimpleQA, встроенных в поисковый движок
Тестовый прогон на SimpleQA Verified
Перед запуском на SimpleQA (4326 вопросов/ответов)
решили провести тестирование на урезанной версии SimpleQA Verified (1000 вопросов/ответов).
Для оценки правильности ответов мы использовали подход LLM-as-a-judge, где в качестве судьи выбрали gpt-4o
Для старта в качестве агента для SGR Deep Research взяли sgr_auto_tool_calling_agent.py,
Точность оценивали у двух LLM: gpt-4.1-mini и gpt-4o-mini.
Результат на SimpleQA Verified получили следующий:
gpt-4.1-mini → Accuracy: 0.792
gpt-4o-mini → Accuracy: 0.705
Вывод: gpt-4.1-mini оказался точнее
А режим auto мешал агенту и превращал его в чатбота, такое нам не надо
С ним идем на полный SimpleQA но убираем режим auto у тулов и переключаемся в required sgr_tools_agent.py.
Оценка SGR Deep Research на SimpleQA
В качестве LLM выбрали gpt-4.1-mini, а в качестве агента - sgr_tool_calling_agent.
Произвели все изменения что я описал выше учитывая незначительные дополнительные правила и указания
(фититься под бенчмарк не хотелось бы как ROMA)
Результат бенчмарка получили следующий:
gpt-4.1-mini → Accuracy: 0.861
Таким образом, опираясь на лидерборд из ROMA, мы смогли занять 7 место среди общего списка, а также 3 МЕСТО среди open-source решений на недорогой модели и самом базовом поиске от Tavily!
Если быть честными на gpt-4.1-mini это первое место так как был использован Tavily Basic (с ограничением на экстракт в 33к символов, что сильно экономит токены)
Более подробное описание параметров запуска, а также результатов тестирования мы выложили репозиторий
Тут есть все
Коды запуска
Коды от Зиона =)
LLM-as-a-judge
Таблица с ответами
Кстати мы не поленились и собрали полный лог каждого прогона можно посмотреть тут
Так что теперь можете не только брать данное решение как лишенное готовых агентных фреймворков,
так и доказать перед командой точность результатами бенчмарка!
Отдельное спасибо нашей open-source команде которая смогла реализовать это:
Ревью кода - Артём
Координирование - я
Подготовка данных и реализация логики тестирования: Максим
Паша наш MCP гуру
Ринат собирает кейсы, и распространяет проект на EN уровне!
Цифры:
232 млн токенов
8к запросов на /search
1200 запросов на /extract
Полный тест такого бенчмарка обошелся в $170
Далее мы планируем оценить работу агента уже на локальных LLM
Репо: https://github.com/vamplabAI/sgr-deep-research
P.S замену tool calling не нужно делать!
Но если очень хочется можно
Мы всех слышим и умеем читать пейперы =)
28❤52🔥43 10
SGR Code Agent
Мысль от @elkornacio которая вдохновляет
С этой мотивацией я взял SGR-core и пошел пилить Vampi, терминального агента на базе мелких моделей в PlanAct режиме для подготовки драфта проекта
Мысль от @elkornacio которая вдохновляет
Мне кажется втайне каждый разраб мечтает запилить кодового агента это же как сына растить - ты делаешь что-то, куда закладываешь логику собственного поведения, пытаешься формализовать то, как ты сам пишешь код, в набор правил
С этой мотивацией я взял SGR-core и пошел пилить Vampi, терминального агента на базе мелких моделей в PlanAct режиме для подготовки драфта проекта
3🔥47👍17❤10👏5
Всем привет!
Тут прокатилась волна банов openai акаунтов (моих) API использование
Кого-то тоже затронуло?
Хочу понять что детектировать начали (прокси IP спалил) или уже и запросы стали чекать на RU текст?
Или просто банхамером задело
Хочу понять системность так как отлетает 3 акк
hetzner
Update: всем спасибо за оч полезную инфу
Далее буду осторожнее
Со мной такое в первый раз ( за один акк прям обидно 2 года ему было)
Тут прокатилась волна банов openai акаунтов (моих) API использование
Кого-то тоже затронуло?
Хочу понять что детектировать начали (прокси IP спалил) или уже и запросы стали чекать на RU текст?
Или просто банхамером задело
Хочу понять системность так как отлетает 3 акк
hetzner
Update: всем спасибо за оч полезную инфу
Далее буду осторожнее
Со мной такое в первый раз ( за один акк прям обидно 2 года ему было)
1🤔11👍6❤5🤯3
Forwarded from red_mad_robot
red_mad_robot и СберТех разработали мультиагентную систему, которая автоматически находит и исправляет уязвимости в коде ⚡
Она анализирует результаты SAST — статического анализа, который выявляет потенциально опасные места на этапе разработки. В системе несколько агентов: один собирает контекст, другой определяет, какие срабатывания действительно критичны, а третий формирует патчи и предлагает изменения в исходный код.
Результат — снижение ручной нагрузки, ускорение цикла исправлений и повышение точности анализа до 70 %.
В новой статье подробно рассказали, как устроена архитектура и зачем вообще нужен мультиагентный подход. Читайте!
#AI_moment #роботайм
↗️ red_mad_robot
Она анализирует результаты SAST — статического анализа, который выявляет потенциально опасные места на этапе разработки. В системе несколько агентов: один собирает контекст, другой определяет, какие срабатывания действительно критичны, а третий формирует патчи и предлагает изменения в исходный код.
Результат — снижение ручной нагрузки, ускорение цикла исправлений и повышение точности анализа до 70 %.
В новой статье подробно рассказали, как устроена архитектура и зачем вообще нужен мультиагентный подход. Читайте!
#AI_moment #роботайм
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥33👍9👏6💯3
SGR Challenge?
Шучу, Ринат открыл регистрацию на ERC3 не упусти возможность найти новые скиллы/друзей/общение/работу
Кто-то уже в нашем чатике берет и разворачивает наш проект что бы быстро пилить тулы под соревнование
Ты уже развернул sgr-core?
P.S сегодня будет релиз в main выкатим стабильную ветку из бенчмакра!
Следите за обновлениями: https://github.com/vamplabAI/sgr-deep-research
Шучу, Ринат открыл регистрацию на ERC3 не упусти возможность найти новые скиллы/друзей/общение/работу
Кто-то уже в нашем чатике берет и разворачивает наш проект что бы быстро пилить тулы под соревнование
Ты уже развернул sgr-core?
P.S сегодня будет релиз в main выкатим стабильную ветку из бенчмакра!
Следите за обновлениями: https://github.com/vamplabAI/sgr-deep-research
1 16🔥12👍4👏1
Тем временем наше комьюнити энтузиастов растет
Дошли до 3 топоров
Наш топ чатик: https://t.iss.one/neuraldeepchat
Где я еще обитаю:
https://t.iss.one/llm_driven_products
https://t.iss.one/natural_language_processing
https://t.iss.one/+tKjQsEgRPqY0ZGMy
https://t.iss.one/elkornacio_chat
Дошли до 3 топоров
Наш топ чатик: https://t.iss.one/neuraldeepchat
Где я еще обитаю:
https://t.iss.one/llm_driven_products
https://t.iss.one/natural_language_processing
https://t.iss.one/+tKjQsEgRPqY0ZGMy
https://t.iss.one/elkornacio_chat
2 24🔥14😁8
Forwarded from Daisy news
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь я умею рендерить HTML-код. Попроси меня написать код для сайта, презентации или слайда. Нажми «Развернуть» и сразу увидишь, как идея превращается в готовый результат. Это удобно, если нужно проверить вёрстку или визуализировать концепт перед показом команде. В следующих релизах появится возможность экспортировать такие артефакты, чтобы делиться ими вне Daisy.
🌼 @daisygpt_bot
#DaisyNews
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥16❤6 4😁1
Qwen3-vl-32b вышла
https://huggingface.co/Qwen/Qwen3-VL-32B-Instruct
Разворачиваю и выдаю доступ?)
Готовы тестить?
Тут нам нужно будет две 4090(48гб) и такие есть у меня, пошел выкачивать…✈️
https://huggingface.co/Qwen/Qwen3-VL-32B-Instruct
Разворачиваю и выдаю доступ?)
Готовы тестить?
Тут нам нужно будет две 4090(48гб) и такие есть у меня, пошел выкачивать…✈️
1🔥26❤6 3
1😁21❤15🤯3
SGR-паттерн
Еще один очень крутой разбор когда и где нужно применять наше решение
Читать тут:
https://t.iss.one/countwithsasha/320
Репо: https://github.com/vamplabAI/sgr-deep-research
Еще один очень крутой разбор когда и где нужно применять наше решение
Читать тут:
https://t.iss.one/countwithsasha/320
Репо: https://github.com/vamplabAI/sgr-deep-research
Telegram
Поляков считает
SGR-паттерн: как заставить маленькие модели работать как большие
В конце августа 2025 Валерий Ковальский (автор канала NeuralDeep) запилил готовую либу для SGR-паттерна на GitHub. Репозиторий быстро собрал звезды и оброс контрибьюторами — теперь его упоминают…
В конце августа 2025 Валерий Ковальский (автор канала NeuralDeep) запилил готовую либу для SGR-паттерна на GitHub. Репозиторий быстро собрал звезды и оброс контрибьюторами — теперь его упоминают…
1👍12❤5🔥4
Cтабильный релиз sgr-core 0.3.0
What's Changed
Навели красоту в README и с логикой агента в цеом
Закрепили результаты бенчмарка
Продолжаем улучшать!
Всем причастным огромное спасибо!
Релиз: https://github.com/vamplabAI/sgr-deep-research/releases/tag/0.3.0
What's Changed
fix tool calling agent _select_action_phase behaviour by virrius in #45
Simple cli example client for getting started and testing by kv-gits in #32
Benchmark simpleqa by maksimov-m in #43
Feat: Декомпозиция и перенос тулов в пакет core.tools by EvilFreelancer in #48
Fix/remove dynamic date from prompts by vakovalskii in #51
New readme and contributing by maksimov-m in #49
Навели красоту в README и с логикой агента в цеом
Закрепили результаты бенчмарка
Продолжаем улучшать!
Всем причастным огромное спасибо!
Релиз: https://github.com/vamplabAI/sgr-deep-research/releases/tag/0.3.0
7🔥52❤12👏4 4
«Личная эффективность: как хоть что-то успевать в 2025?»
Сразу спойлер НИКАК
Но я точно знаю ребята разберут этот кейс со своих сторон!
#безвотэтоговотвсего
Сегодня Серега снова проводит пушечную крутую 21 встречу с топ спикерами!
P.S. Для тех, кто не успел зарегистрироваться - ссылочки на трансляции:
VK Video
Yotube
И кстати более детально я так же разберу личную эффективность с ИИ кодерами на нашей конфе (успей попасть на регу)
Сразу спойлер НИКАК
Но я точно знаю ребята разберут этот кейс со своих сторон!
#безвотэтоговотвсего
Сегодня Серега снова проводит пушечную крутую 21 встречу с топ спикерами!
P.S. Для тех, кто не успел зарегистрироваться - ссылочки на трансляции:
VK Video
Yotube
И кстати более детально я так же разберу личную эффективность с ИИ кодерами на нашей конфе (успей попасть на регу)
Telegram
#безвотэтоговотвсего
Дружочки!
Сегодня в 18:30 мы встречаемся с теми кто зарегался на нашу 21ю оффлайн встречу на площадке дружочков из ecom.tech по адресу: Москва, Овчинниковская набережная, 18/1 стр. 2, 9 этаж. (схема прохода в офис и подробности в комментариях).
До встречи…
Сегодня в 18:30 мы встречаемся с теми кто зарегался на нашу 21ю оффлайн встречу на площадке дружочков из ecom.tech по адресу: Москва, Овчинниковская набережная, 18/1 стр. 2, 9 этаж. (схема прохода в офис и подробности в комментариях).
До встречи…
1❤8👍6🔥4
Вайб Цех
Первый раз в жизни собираю митап!
Когда мы прогоняли сегодня с ребятами материал для конфы я понял, мы собрали реально очень полезную инфу для вас!
И от 0 и до 100 по сложности есть!
Значит будет интересно!
Ссылка на онлайн стрим https://red-mad-robot.timepad.ru/event/3605115/
25.10.2025
Дядя вещает вещи: https://t.iss.one/dealerAI
Первый раз в жизни собираю митап!
Когда мы прогоняли сегодня с ребятами материал для конфы я понял, мы собрали реально очень полезную инфу для вас!
И от 0 и до 100 по сложности есть!
Значит будет интересно!
Ссылка на онлайн стрим https://red-mad-robot.timepad.ru/event/3605115/
25.10.2025
Дядя вещает вещи: https://t.iss.one/dealerAI
🔥21 10❤8👍4
Neural Kovalskii
Всем привет! Тут прокатилась волна банов openai акаунтов (моих) API использование Кого-то тоже затронуло? Хочу понять что детектировать начали (прокси IP спалил) или уже и запросы стали чекать на RU текст? Или просто банхамером задело Хочу понять системность…
UPDATE OpenAI deactivating (пост тут)
Нашел причину бана своих акков! Вырубайте
Оказалось проблема была не в IP и не в RU тексте
LiteLLM сливал все внутренние метаданные прокси напрямую в OpenAI
Что утекало
Если клиент передавал хоть какую то
OpenAI видел (лайт ллм душка прям все собирал)
Все IP адреса через x-forwarded-for
Что вы используете прокси
Информацию о расходах и ключах
User-Agent = автоматизация
Внутреннюю структуру сервиса
→ Бан 3 аккаунтов (одному было 2 года обидно)
Как это произошло
У меня появилось приложение клиент которого использует RestSharp для подключения к прокси (популярная C# библиотека 9.8k звезд) просто передавал
Прям внутрь реквеста к ллм
И всё LiteLLM начинал сливать всю инфу в OpenAI
Код проблемы, пока нашел с курсором но передал так же людям проверить!
https://github.com/BerriAI/litellm/blob/main/litellm/proxy/litellm_pre_call_utils.py#L892
https://github.com/BerriAI/litellm/blob/main/litellm/proxy/proxy_server.py#L7855
https://github.com/BerriAI/litellm/blob/main/litellm/proxy/route_llm_request.py#L122
https://github.com/BerriAI/litellm/blob/main/litellm/llms/openai/chat/gpt_transformation.py#L436
Вы в зоне риска если
Используете LiteLLM Proxy
Клиенты передают
Используете nginx перед LiteLLM
В РФ + VPS за рубежом
Большинство клиентов не передают metadata вообще и юзают обычные клиенты на питоне типа
Но если хоть один клиент начинает использовать metadata утечка уже началась....
Кто на LiteLLM и ходит к openai напрямую проверьте это по списку
1 Проверьте логи что реально уходит к провайдеру (сделайте тест с передачей метадаты)
2 Временно запретите клиентам передавать
UPDATE: необходимо вырубать
Далее буду осторожнее
Со мной такое в первый раз (за один акк прям обидно 2 года ему было)
Нашел причину бана своих акков! Вырубайте
enable_preview_features=False Оказалось проблема была не в IP и не в RU тексте
LiteLLM сливал все внутренние метаданные прокси напрямую в OpenAI
Что утекало
Если клиент передавал хоть какую то
metadata (например sessionId в теле реквеста то LiteLLM добавлял к ней ВСЮ внутреннюю инфу прокси хотя должен был писать во внутренний лог{
"metadata": {
"sessionId": "abc-123", // от клиента
"headers": { // ВСЁ ЭТО УТЕКАЛО
"x-real-ip": "1.2.3.4",
"x-forwarded-for": "5.6.7.8, ...",
"user-agent": "RestSharp/112.1.0"
},
"user_api_key_spend": 287.83,
"endpoint": "https://my-proxy.com/..."
}
}OpenAI видел (лайт ллм душка прям все собирал)
Все IP адреса через x-forwarded-for
Что вы используете прокси
Информацию о расходах и ключах
User-Agent = автоматизация
Внутреннюю структуру сервиса
→ Бан 3 аккаунтов (одному было 2 года обидно)
Как это произошло
У меня появилось приложение клиент которого использует RestSharp для подключения к прокси (популярная C# библиотека 9.8k звезд) просто передавал
sessionId для трекинга (честно не знаю то ли это клиент делает то ли разработчик)metadata = new { sessionId = "abc-123" }Прям внутрь реквеста к ллм
"role": "user",
"content": "Привет! Как дела?"
}
],
"temperature": 1,
"metadata": {
"sessionId": "a5b3e26b-18c7-4017-9bcd-c2db6e450f78"
},
"stream_options": {
"include_usage": true
}
}'
И всё LiteLLM начинал сливать всю инфу в OpenAI
Код проблемы, пока нашел с курсором но передал так же людям проверить!
https://github.com/BerriAI/litellm/blob/main/litellm/proxy/litellm_pre_call_utils.py#L892
https://github.com/BerriAI/litellm/blob/main/litellm/proxy/proxy_server.py#L7855
https://github.com/BerriAI/litellm/blob/main/litellm/proxy/route_llm_request.py#L122
https://github.com/BerriAI/litellm/blob/main/litellm/llms/openai/chat/gpt_transformation.py#L436
Вы в зоне риска если
Используете LiteLLM Proxy
Клиенты передают
metadata Используете nginx перед LiteLLM
В РФ + VPS за рубежом
Большинство клиентов не передают metadata вообще и юзают обычные клиенты на питоне типа
AsyncOpenAI Но если хоть один клиент начинает использовать metadata утечка уже началась....
Кто на LiteLLM и ходит к openai напрямую проверьте это по списку
1 Проверьте логи что реально уходит к провайдеру (сделайте тест с передачей метадаты)
2 Временно запретите клиентам передавать
metadataUPDATE: необходимо вырубать
enable_preview_features=False без него мы проверили трафик и все чисто)Далее буду осторожнее
Со мной такое в первый раз (за один акк прям обидно 2 года ему было)
3🔥55🤯48😁10👍6
n8n+SGR?
Кастомная нода?
Автор: @mixaill76
Ждемс
Чем больше огоньков, тем быстрее Миша выпустит это в open source, а мы с ним запишем стрим как это все быстро настроить 🔥
Миша подключился прогревать вас, переосмысленное посторонние ReAct агентов: https://t.iss.one/neuraldeepchat/22012
Кастомная нода?
Автор: @mixaill76
Ждемс
Чем больше огоньков, тем быстрее Миша выпустит это в open source, а мы с ним запишем стрим как это все быстро настроить 🔥
Миша подключился прогревать вас, переосмысленное посторонние ReAct агентов: https://t.iss.one/neuraldeepchat/22012
67🔥178 18💯12
Neural Kovalskii
Вайб Цех Первый раз в жизни собираю митап! Когда мы прогоняли сегодня с ребятами материал для конфы я понял, мы собрали реально очень полезную инфу для вас! И от 0 и до 100 по сложности есть! Значит будет интересно! Ссылка на онлайн стрим https://red…
Вайб Цех
Юхууу ребят!
Уже завтра разбираем, как AI меняет разработку?😈
- SberAI про то, почему LLM так хороши в коде
- Яндекс GO от ChatGPT-юзера до вайб-кодера
- red_mad_robot как AI превращает разработчика в дирижёра
- Панельная дискуссия с Cloud.ru, ProSpace, GitVerse
230+ уже зареганы на онлайн.
Присоединяйся → https://red-mad-robot.timepad.ru/event/3605115/
📅 25 октября, начало в 10:00 по МСК
Юхууу ребят!
Уже завтра разбираем, как AI меняет разработку?
- SberAI про то, почему LLM так хороши в коде
- Яндекс GO от ChatGPT-юзера до вайб-кодера
- red_mad_robot как AI превращает разработчика в дирижёра
- Панельная дискуссия с Cloud.ru, ProSpace, GitVerse
230+ уже зареганы на онлайн.
Присоединяйся → https://red-mad-robot.timepad.ru/event/3605115/
📅 25 октября, начало в 10:00 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
red-mad-robot.timepad.ru
Вайб Цех / События на TimePad.ru
Митап для тех, кто хочет стать мастером разработки.
Мы собираем инженеров и исследователей в одном цехе, чтобы показать, как вайб-кодинг превращается в новый стандарт индустрии. Здесь вместо станков работают LLM, детали — это код, а чертежи заменены промптами.
Мы собираем инженеров и исследователей в одном цехе, чтобы показать, как вайб-кодинг превращается в новый стандарт индустрии. Здесь вместо станков работают LLM, детали — это код, а чертежи заменены промптами.
3🔥24👍4