Media is too big
VIEW IN TELEGRAM
Как диффузионные LLM повлияют на сферу AI? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции.
В эфире рассмотрели:
🟠 Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠 Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠 Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?
Запись лекции доступна здесь и на других площадках:
➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
В эфире рассмотрели:
Запись лекции доступна здесь и на других площадках:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4
Сегодня Cursor стал, наверное, самым распространенным ИИ инструментом, применяемым программистами. И вот вдруг у многих он перестал работать. Пользователи Cursor только что уперлись в стену. Одна строка, зарытая в 485-строчном JSON-файле одного из расширений языковой службы Microsoft для VSCode, нарушила его совместимость с Cursor. Сообщество теперь вспоминает фразу из темной истории Microsoft: принять, расширить, погасить . Но так ли все плохо на самом деле? Прочитайте https://tomaszs2.medium.com/microsoft-quietly-blocked-cursor-from-using-its-vscode-extension-heres-the-line-of-code-that-8d664caf0de5 Вот эта строка : "license_terms": "The C/C++ extension may be used only with Microsoft Visual Studio, Visual Studio for Mac, Visual Studio Code, Azure DevOps, Team Foundation Server, and successor Microsoft products and services to develop and test your applications." в файле vscode-pptools/Extension /src /nativeStrings.json в файле на github. Выход из ситуации очевиден - магазин расширений Microsoft для VSCode — не единственное место, где их можно получить, и вы можете получить расширения откуда угодно, например, из Open VSX . Cursor будет работоспособным. Но нельзя быть на 100% уверенным в том, что нас ждет в будущем.
Medium
Microsoft Quietly Blocked Cursor from Using Its VSCode Extension — Here’s the Line of Code That Did It
Users of Cursor just hit a wall. A single line buried in a 485-line JSON file of one of Microsoft’s language service extensions for VSCode…
👍7
Зачем ML-системам распознавать салон вашего автомобиля?
Расскажет Виктор Кочеганов — кандидат физико-математических наук, руководитель ML-направления в ГК "Фрактал".
В эфире:
🟣 Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣 Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣 Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣 Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?
⏰ Запускаем трансляцию 11 апреля в 14:00.
Подключайтесь и задавайте вопросы Виктору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Расскажет Виктор Кочеганов — кандидат физико-математических наук, руководитель ML-направления в ГК "Фрактал".
В эфире:
⏰ Запускаем трансляцию 11 апреля в 14:00.
Подключайтесь и задавайте вопросы Виктору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
Вышла Firebase Studio — новая IDE от Google
Но нас она не впечатлила, и вот почему:
1. Firebase — это не новинка. Раньше это был набор сервисов для мобильной разработки: база данных, авторизация, хостинг. Теперь к этому добавили облачную среду разработки с AI.
2. Внутри — форк VS Code с расширением Gemini. По промту генерируется шаблон проекта (React, Next и т.п.), создаётся пустое приложение, и уже на нем AI пытается реализовать ваш запрос. Визуальных билдеров компонентов нет — весь no-code сводится к генерации по описанию.
3. На практике всё пока довольно сыровато. Генерация кода ограничена и поверхностна — на глаз 250–500 строк. Только модели от Google, режим работы не “thinking”, как у Cursor с Claude или Gemini 2.5. Поддержки A2A пока нет, MCP тоже. Как IDE — пока уступает альтернативам.
Попробовать можно бесплатно, но на наш взгляд это не “Google Cursor на максималках”, а скорее Firebase с AI-пристройкой, которую еще рано рассматривать всерьёз
Но нас она не впечатлила, и вот почему:
1. Firebase — это не новинка. Раньше это был набор сервисов для мобильной разработки: база данных, авторизация, хостинг. Теперь к этому добавили облачную среду разработки с AI.
2. Внутри — форк VS Code с расширением Gemini. По промту генерируется шаблон проекта (React, Next и т.п.), создаётся пустое приложение, и уже на нем AI пытается реализовать ваш запрос. Визуальных билдеров компонентов нет — весь no-code сводится к генерации по описанию.
3. На практике всё пока довольно сыровато. Генерация кода ограничена и поверхностна — на глаз 250–500 строк. Только модели от Google, режим работы не “thinking”, как у Cursor с Claude или Gemini 2.5. Поддержки A2A пока нет, MCP тоже. Как IDE — пока уступает альтернативам.
Попробовать можно бесплатно, но на наш взгляд это не “Google Cursor на максималках”, а скорее Firebase с AI-пристройкой, которую еще рано рассматривать всерьёз
👍2🤷♂1❤1🫡1
Поскольку новостей по теме AI-программирования становится все больше, решили попробовать формат еженедельного дайджеста «Vibe Coding News». Сегодня собрали в него такие новости:
OpenCodeReasoning Dataset от Nvidia — в открытом доступе. Крупнейший на сегодняшний день (735К примеров на python охватывающие 28К задач) синтетический датасет, ориентированный на задачи, требующие рассуждений при программировании. Датасет предназначен для обучения моделей с учителем (supervised fine-tuning).
Codeium переименовались в Windsurf —т.к. Виндсерф теперь их главное направление деятельности, а их AI-агент теперь доступен в JetBrains IDE.
В Aider (агент-программист) в роли редактора используется DeepSeek R1 в паре с Gemini 2.5 Pro в роли архитектора, чтобы минимизировать проблемы с оркестрацией изменений в коде. Gemini 2.5 Pro — способна создавать рабочие фрагменты кода по сложным запросам и применяется в Aider для редактирования и генерации до 15 файлов в контексте 300K токенов. При этом в Aider выявлены проблемы с /architect-режимом: изменения прерываются при добавлении новых файлов. Пользователи отключают авто-коммиты, чтобы избежать коммита непроверенного кода.
Microsoft представила новый подход к синтезу кода, разбивая задачи “программирования по примеру” (programming by example - PBE) на подзадачи, чтобы устранить ошибки LLM. Статья: https://arxiv.org/pdf/2503.15540
Optimus Alpha — новая модель оптимизированная для программирования опубликована в OpenRouter. Что скрывается за этим именем пока не понятно, но несмотря на 1M токенов в контексте, пользователи жалуются на частые галлюцинации в коде.
Вышла Firebase Studio — об это писали сегодня выше.
DeepCoder 14B — новая модель кодирования от UC Berkeley, полностью открытая модель генерации кода на 14B параметров сопоставима с OpenAI o3-mini и o1, с открытым исходным кодом. Обучена с применением RL на Deepseek-R1-Distilled-Qwen-14B, используя 32 H100 в течение 2,5 недель. Стоимость обучения около $26,880. Доступны исходный код модели, датасет, тренировочный скрипт и подробный блог. MIT-лицензия, совместима с vLLM, TGI и Transformers. Обеспечивает 60.6% на LiveCodeBench и 1936 на CodeForces.
OpenCodeReasoning Dataset от Nvidia — в открытом доступе. Крупнейший на сегодняшний день (735К примеров на python охватывающие 28К задач) синтетический датасет, ориентированный на задачи, требующие рассуждений при программировании. Датасет предназначен для обучения моделей с учителем (supervised fine-tuning).
Codeium переименовались в Windsurf —т.к. Виндсерф теперь их главное направление деятельности, а их AI-агент теперь доступен в JetBrains IDE.
В Aider (агент-программист) в роли редактора используется DeepSeek R1 в паре с Gemini 2.5 Pro в роли архитектора, чтобы минимизировать проблемы с оркестрацией изменений в коде. Gemini 2.5 Pro — способна создавать рабочие фрагменты кода по сложным запросам и применяется в Aider для редактирования и генерации до 15 файлов в контексте 300K токенов. При этом в Aider выявлены проблемы с /architect-режимом: изменения прерываются при добавлении новых файлов. Пользователи отключают авто-коммиты, чтобы избежать коммита непроверенного кода.
Microsoft представила новый подход к синтезу кода, разбивая задачи “программирования по примеру” (programming by example - PBE) на подзадачи, чтобы устранить ошибки LLM. Статья: https://arxiv.org/pdf/2503.15540
Optimus Alpha — новая модель оптимизированная для программирования опубликована в OpenRouter. Что скрывается за этим именем пока не понятно, но несмотря на 1M токенов в контексте, пользователи жалуются на частые галлюцинации в коде.
Вышла Firebase Studio — об это писали сегодня выше.
DeepCoder 14B — новая модель кодирования от UC Berkeley, полностью открытая модель генерации кода на 14B параметров сопоставима с OpenAI o3-mini и o1, с открытым исходным кодом. Обучена с применением RL на Deepseek-R1-Distilled-Qwen-14B, используя 32 H100 в течение 2,5 недель. Стоимость обучения около $26,880. Доступны исходный код модели, датасет, тренировочный скрипт и подробный блог. MIT-лицензия, совместима с vLLM, TGI и Transformers. Обеспечивает 60.6% на LiveCodeBench и 1936 на CodeForces.
🔥18👍5
Нашли интересную ветку про вайбкодинг в канале @partially_unsupervised и собрали для вас все самое интересное из поста и комментариев, опыт после использования 100 млн токенов в Claude Code:
Вайбкодинг (генерация кода с помощью AI) — мощный инструмент для разработчиков, который ускоряет работу, но только если применять его правильно.
✅ Где применять вайбкодинг:
• Задачи формата «сделай аналогично существующему коду».
• Простые задачи в незнакомых доменах (например, быстро набросать фронтенд).
• Типовой IO-layer, API-хендлеры, роутеры.
• Сценарии, где сложность заключается в знании большого количества команд и опций (например, AWS CLI).
• Быстрая визуализация с помощью библиотек (bokeh, plotly, seaborn и пр.).
❌ Где лучше не применять:
• Сложный алгоритмический код (поломка в корнер-кейсе гарантирована).
• Метапрограммирование, проектирование фреймворков, дизайн API.
• Работа с новыми библиотеками (даже с документацией на выходе чаще всего плохо).
• Security-sensitive задачи.
🔄 Особенности процесса:
• Если после нескольких попыток диалог с моделью уходит не туда — лучше начать с нуля или переключить модель.
• Не забывайте регулярно останавливаться и рефакторить. Вайбкодинг ведёт к появлению лишних сущностей и неаккуратной структуре.
• Важна аккуратная статическая проверка и тщательное версионирование. Используйте mypy, линтеры и SonarQube.
⚙️ Для эффективной работы нужно дописывать правила в CLAUDE.md (.cursorrules и т.п.), подключать релевантные MCP и регулярно анализировать ошибки AI. Например, вот кусок моего глобал конфига:
🤖 Главный бонус — активный агентский режим. Используйте AI не только для написания кода, но и для отладки, анализа логов и разбора ошибок в CI/CD.
🚨Предупреждение:
• Не доверяйте AI слепо. Сеньор должен понимать и нести ответственность за каждый коммит, даже если код был сгенерирован AI.
💡Дополнительные советы из практики:
• Для сложных запросов начинайте с описания и обсуждения задачи с AI, прежде чем просить генерировать код.
• Используйте разные AI-модели для разных задач и не бойтесь переключаться между ними.
• Прописывайте часто используемые решения и подходы в отдельный файл и загружайте его в контекст для ускорения типовых операций (например, SQL-запросы).
• Голосовой ввод (например, с помощью whisper или VoiceInk) значительно ускоряет постановку задач.
• Создание собственных CLI-инструментов для частых задач заметно экономит время и повышает удобство работы.
Звучит разумно? Делитесь своими светлыми идеями провейп вайбкодинг в коментах. Ну, или темными!
Вайбкодинг (генерация кода с помощью AI) — мощный инструмент для разработчиков, который ускоряет работу, но только если применять его правильно.
✅ Где применять вайбкодинг:
• Задачи формата «сделай аналогично существующему коду».
• Простые задачи в незнакомых доменах (например, быстро набросать фронтенд).
• Типовой IO-layer, API-хендлеры, роутеры.
• Сценарии, где сложность заключается в знании большого количества команд и опций (например, AWS CLI).
• Быстрая визуализация с помощью библиотек (bokeh, plotly, seaborn и пр.).
❌ Где лучше не применять:
• Сложный алгоритмический код (поломка в корнер-кейсе гарантирована).
• Метапрограммирование, проектирование фреймворков, дизайн API.
• Работа с новыми библиотеками (даже с документацией на выходе чаще всего плохо).
• Security-sensitive задачи.
🔄 Особенности процесса:
• Если после нескольких попыток диалог с моделью уходит не туда — лучше начать с нуля или переключить модель.
• Не забывайте регулярно останавливаться и рефакторить. Вайбкодинг ведёт к появлению лишних сущностей и неаккуратной структуре.
• Важна аккуратная статическая проверка и тщательное версионирование. Используйте mypy, линтеры и SonarQube.
⚙️ Для эффективной работы нужно дописывать правила в CLAUDE.md (.cursorrules и т.п.), подключать релевантные MCP и регулярно анализировать ошибки AI. Например, вот кусок моего глобал конфига:
Python style guide:
1) when catching exceptions, use logger.exception("message"), not logger.error(str(e)).
2) do not use mocks unless explicitly asked!
3) ensure types are correct, e.g. def hello(name: str = None) is WRONG, def hello(name: str | None = None) is correct.
4) use logger = logging.getLogger(__name__) when declaring a logger
5) prefer match + case over if + elif + else
6) using hasattr is typically a sign of bad design!
🤖 Главный бонус — активный агентский режим. Используйте AI не только для написания кода, но и для отладки, анализа логов и разбора ошибок в CI/CD.
🚨Предупреждение:
• Не доверяйте AI слепо. Сеньор должен понимать и нести ответственность за каждый коммит, даже если код был сгенерирован AI.
💡Дополнительные советы из практики:
• Для сложных запросов начинайте с описания и обсуждения задачи с AI, прежде чем просить генерировать код.
• Используйте разные AI-модели для разных задач и не бойтесь переключаться между ними.
• Прописывайте часто используемые решения и подходы в отдельный файл и загружайте его в контекст для ускорения типовых операций (например, SQL-запросы).
• Голосовой ввод (например, с помощью whisper или VoiceInk) значительно ускоряет постановку задач.
• Создание собственных CLI-инструментов для частых задач заметно экономит время и повышает удобство работы.
Звучит разумно? Делитесь своими светлыми идеями про
👍17🔥7
Media is too big
VIEW IN TELEGRAM
Зачем ML-системам распознавать салон вашего автомобиля? Об этом рассказал Виктор Кочеганов — кандидат физико-математических наук и руководитель ML-направления в ГК "Фрактал".
В эфире рассмотрели:
🟣 Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣 Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣 Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣 Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?
Запись лекции доступна здесь и на других площадках:
➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
В эфире рассмотрели:
Запись лекции доступна здесь и на других площадках:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1
Vibe Coding News за прошедшую неделю:
• В API доступна новая линейка моделей GPT-4.1: GPT-4.1, GPT-4.1 mini и GPT-4.1 nano. Улучшена генерация кода, следование инструкциям и увеличено контекстное окно до 1 миллиона токенов. GPT-4.1 показывает 54% на SWE-bench (версия без reasoning), это на 21% лучше 4o.
• OpenAI выпустила Codex CLI — open-source агент вызываемый из командной строки. «Читает, изменяет, запускает код прямо на вашей локальной машине, т.е. ваши исходники не покидают ваше окружение» - написано на сайте OpenAI, не понятно кого пытались обмануть, т.к. ниже честно признаются, что промт и контекст конечно отправляются удаленным моделям. Хорошая новость - агент мультимодальный, т.е. на вход принимается текст, скриншоты, диаграммы. По умолчанию работает с o4-mini, может и o3.
• Aider теперь поддерживает o3/o4-mini, Grok-3, Optimus и GPT-4.1. При этом у пользователей есть вопросы к частым перезапросам контекста при добавлении файлов.
Не забыли чего-нибудь важного?
• В API доступна новая линейка моделей GPT-4.1: GPT-4.1, GPT-4.1 mini и GPT-4.1 nano. Улучшена генерация кода, следование инструкциям и увеличено контекстное окно до 1 миллиона токенов. GPT-4.1 показывает 54% на SWE-bench (версия без reasoning), это на 21% лучше 4o.
• OpenAI выпустила Codex CLI — open-source агент вызываемый из командной строки. «Читает, изменяет, запускает код прямо на вашей локальной машине, т.е. ваши исходники не покидают ваше окружение» - написано на сайте OpenAI, не понятно кого пытались обмануть, т.к. ниже честно признаются, что промт и контекст конечно отправляются удаленным моделям. Хорошая новость - агент мультимодальный, т.е. на вход принимается текст, скриншоты, диаграммы. По умолчанию работает с o4-mini, может и o3.
• Aider теперь поддерживает o3/o4-mini, Grok-3, Optimus и GPT-4.1. При этом у пользователей есть вопросы к частым перезапросам контекста при добавлении файлов.
Не забыли чего-нибудь важного?
👍9❤2🤓1
Рекомендуем к прочтению: "Claude Code: лучшие практики программирования с агентами" — статья от 18 апреля на сайте Anthropic. Много любопытных советов — от настройки среды до запуска параллельных сессий. Некоторые из них кажутся универсальными и применимы и за пределами Claude Code.
Например, на этапе поиска решения полезно просить ИИ составить план, а в формулировке такого запроса использовать слово "think" - оно запускает расширенный режим рассуждений. При этом можно так же использовать варианты think -> think hard -> think harder -> ultrathink — они задают разный уровень «бюджета на размышления», влияя на глубину анализа.
Думаем, не перевести ли всю статью? Поставьте 🔥или напишите в комментариях, если интересно.
UPD
Уже есть на Хабре перевод:
https://habr.com/ru/articles/902422/
Например, на этапе поиска решения полезно просить ИИ составить план, а в формулировке такого запроса использовать слово "think" - оно запускает расширенный режим рассуждений. При этом можно так же использовать варианты think -> think hard -> think harder -> ultrathink — они задают разный уровень «бюджета на размышления», влияя на глубину анализа.
Думаем, не перевести ли всю статью? Поставьте 🔥или напишите в комментариях, если интересно.
UPD
Уже есть на Хабре перевод:
https://habr.com/ru/articles/902422/
Anthropic
Claude Code Best Practices
A blog post covering tips and tricks that have proven effective for using Claude Code across various codebases, languages, and environments.
🔥43❤2👍1
DEV Community опубликовало план как максимально использовать возможности ИИ агентов при разработке полномасштабных проектов и переносить vibe coding в текущие процессы. Рекомендую https://dev.to/wasp/a-structured-workflow-for-vibe-coding-full-stack-apps-352l
DEV Community
A Structured Workflow for "Vibe Coding" Full-Stack Apps
There's a lot of hype surrounding "vibe coding". You've probably seen the AI influencers making...
👍9❤1
В эту пятницу, 25 апреля, в 12:00 Анна Авдюшина расскажет об архитектуре современных AI-агентов, использующих большие языковые модели. В основе — систематический обзор, в котором выделены 18 архитектурных паттернов для построения таких агентов.
Анна Авдюшина преподаёт на факультете «Программная инженерия и компьютерная техника» и работает инженером в центре «Сильный ИИ в промышленности» университета ИТМО.
Вместе разберём:
🔵 как агенты интерпретируют расплывчатые цели пользователей и превращают их в планы действий;
🔵 каким образом они могут рефлексировать, запрашивать помощь у других агентов или человека и принимать коллективные решения;
🔵 какие подходы позволяют повысить надёжность, объяснимость и гибкость работы агентов.
Подключайтесь! Узнаете, как проектировать надёжных и объяснимых агентов на базе LLM.
Анна Авдюшина преподаёт на факультете «Программная инженерия и компьютерная техника» и работает инженером в центре «Сильный ИИ в промышленности» университета ИТМО.
Вместе разберём:
Подключайтесь! Узнаете, как проектировать надёжных и объяснимых агентов на базе LLM.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤3
Интересная ветка на Reddit: Разработчик с 15+ лет опыта восхищается преимуществами работы над кодом с LLM. Любопытно, что автор отмечает, что не использует Copilot (который он ласково называет «модный платный отстой»), а написал своего агента, который помогает ему и с архитектурой, и с запуском проектов на незнакомых/забытых языках за 10 минут, вместо привычных 10 дней. Не очень понятно почему он ни слова не говорит о Cursor, но…
Дальше 270 комментариев, в которых, пожалуй, самое любопытное то, что разработчики готвы писать своих кастомных ассистентов, чтобы иметь полный контроль над контекстом и лучше управлять комплексными задачами. Важные мысли из обсуждения:
• Опытные разработчики получают наибольшую пользу от ИИ, превращая его в мультипликатор продуктивности (в 10–100 раз быстрее).
• Ключ — не просто использовать ИИ, а правильно его инструктировать, разбивать задачи, строить архитектуру, оптимизировать промпты и контекст.
• Плохой "vibe coding" ведёт к техническому долгу, но грамотное использование ИИ как помощника, особенно по модульной разработке, даёт отличные результаты.
• ИИ не заменяет опыт — он лишь усиливает тех, кто уже умеет проектировать, понимать архитектуру, отлаживать и мыслить системно.
• Написать своего кастомного ассистента может быть хорошей идеей, если Copilot и подобные решения не справляются с комплексными задачами и не дают вам необходимого контроля над контекстом.
Дальше 270 комментариев, в которых, пожалуй, самое любопытное то, что разработчики готвы писать своих кастомных ассистентов, чтобы иметь полный контроль над контекстом и лучше управлять комплексными задачами. Важные мысли из обсуждения:
• Опытные разработчики получают наибольшую пользу от ИИ, превращая его в мультипликатор продуктивности (в 10–100 раз быстрее).
• Ключ — не просто использовать ИИ, а правильно его инструктировать, разбивать задачи, строить архитектуру, оптимизировать промпты и контекст.
• Плохой "vibe coding" ведёт к техническому долгу, но грамотное использование ИИ как помощника, особенно по модульной разработке, даёт отличные результаты.
• ИИ не заменяет опыт — он лишь усиливает тех, кто уже умеет проектировать, понимать архитектуру, отлаживать и мыслить системно.
• Написать своего кастомного ассистента может быть хорошей идеей, если Copilot и подобные решения не справляются с комплексными задачами и не дают вам необходимого контроля над контекстом.
Reddit
From the ChatGPTCoding community on Reddit: I am in software engineering for more than 15 years. And I am addicted to the AI coding.
Posted by dozdeu - 1,549 votes and 521 comments
👍13❤4🤔1
Vibe Coding News этой недели:
xAI Илонa Маска обновила Grok, добавив память и Studio — интерфейс для совместной работы над кодом и документами, аналогичный ChatGPT Canvas.
Локальная модель GLM-4-32B превосходит конкурентов (Gemini, Qwen) в генерации кода и UI-компонентов, выдавая большие куски кода без плейсхолдеров
Gemini 2.5 Flash (небольшая модель, со стоимостью меньше чем у DeepSeek) демонстрирует динамическое мышление и повышенную эффективность - показывает 47,1% на Aider Polyglot, (что превышает показатели Gemini 2.0 Pro и GPT4o).
Andrew Ng и Hugging Face запустили курс по созданию код-агентов на базе smolagents (framework от Hugging Face). Эти агенты используют LLM для генерации одного блока кода, выполняющего всю цепочку действий для решения поставленной задачи, что (по версии авторов) эффективнее по сравнению с многократными function-calling подходами.
Вышла новая IDE Rowboat с открытым исходным кодом для создания мультиагентных систем, использующая OpenAI Agents SDK и поддерживающая подключение к MCP-серверам. Обещают, что это как Cursor только для создания мультиагентных workflow
Uber применяет LangGraph для генерации юнит-тестов
Компания LlamaIndex опубликовала в блоге статью об архитектуре Agentic Document Workflows (ADW), включающую извлечение, поиск, рассуждение и выполнение действий с документами для энтерпрайза. ADW масштабируется и интегрируется в существующие системы обходя ограничения RAG. Конечно, рекламируют свои инструменты, но концепция может быть любопытной.
xAI Илонa Маска обновила Grok, добавив память и Studio — интерфейс для совместной работы над кодом и документами, аналогичный ChatGPT Canvas.
Локальная модель GLM-4-32B превосходит конкурентов (Gemini, Qwen) в генерации кода и UI-компонентов, выдавая большие куски кода без плейсхолдеров
Gemini 2.5 Flash (небольшая модель, со стоимостью меньше чем у DeepSeek) демонстрирует динамическое мышление и повышенную эффективность - показывает 47,1% на Aider Polyglot, (что превышает показатели Gemini 2.0 Pro и GPT4o).
Andrew Ng и Hugging Face запустили курс по созданию код-агентов на базе smolagents (framework от Hugging Face). Эти агенты используют LLM для генерации одного блока кода, выполняющего всю цепочку действий для решения поставленной задачи, что (по версии авторов) эффективнее по сравнению с многократными function-calling подходами.
Вышла новая IDE Rowboat с открытым исходным кодом для создания мультиагентных систем, использующая OpenAI Agents SDK и поддерживающая подключение к MCP-серверам. Обещают, что это как Cursor только для создания мультиагентных workflow
Uber применяет LangGraph для генерации юнит-тестов
Компания LlamaIndex опубликовала в блоге статью об архитектуре Agentic Document Workflows (ADW), включающую извлечение, поиск, рассуждение и выполнение действий с документами для энтерпрайза. ADW масштабируется и интегрируется в существующие системы обходя ограничения RAG. Конечно, рекламируют свои инструменты, но концепция может быть любопытной.
X (formerly Twitter)
elvis (@omarsar0) on X
Here is a new open-source IDE to help you build multi-agent systems.
It's like Cursor but specifically for building multi-agent workflows.
It's powered by OpenAI Agents SDK, connects MCP servers, and can integrate into your apps using HTTP or the SDK.
It's like Cursor but specifically for building multi-agent workflows.
It's powered by OpenAI Agents SDK, connects MCP servers, and can integrate into your apps using HTTP or the SDK.
👍13❤1
Пост от Andrej Karpathy про подход к профессиональной коммерческой разработке с применением AI. Как создавать код, за который надо будет потом отвечать.
Замечаю, что при серьезной работе с AI над кодом у меня выработался ритм. И он сильно отличается от «Vibe Coding». Кратко по шагам:
1. Собираю весь контекст. Если проект небольшой — всё подряд в промпт:
На больших — тщательно выбираю нужные файлы. Чем полнее контекст, тем меньше шансов на бред в ответах.
2. Описываю маленькую конкретную задачу. Не просить сразу код, а попросить несколько вариантов реализации с их плюсами и минусами. Почти всегда есть несколько способов сделать что-то, и LLM не всегда выбирает оптимальный способ.
3. Выбраю один подход, прошу первый вариант кода.
4. Проверка и обучение. Открываю всю документацию по API функций, которые я раньше не вызывал или с которыми я менее знаком. Прошу объяснений, уточнений, изменений, порой можно вернуться и попробовать другой подход.
6. Тестирую
7. Git commit.
Затем спрашиваю: "что можно улучшить дальше?". Повторяю.
Вот такой цикл разработки с ИИ. Акцент делается на том, чтобы держать на очень коротком поводке этого нового чрезмерно рьяного младшего разработчика с энциклопедией в голове и нулевым чувством вкуса к хорошему коду. Он блефует, ошибается, не отличает красивое решение от костыля. И акцент на том, чтобы быть медленным, осторожным, параноидально все проверять и контролировать, сталкиваясь с чем-то незнакомым обучаться на ходу самому, а не делегировать.
Эти шаги приходится выполнять вручную. Это неудобно, не автоматизировано, не поддерживается в современных инструментах. Мы все еще на начальной стадии развития и в области UI/UX для программирования с применением AI еще предстоит многое сделать.
PS.
Возможно, вы заметили, что здесь нет пункта 5 - это потому, что его нет и в оригинальном посте Karpathy. Думаем, что в пункте 5 ответ на главный вопрос вайбкодинга, жизни, вселенной и всего такого, но к сожалению он только для посвященных.
Замечаю, что при серьезной работе с AI над кодом у меня выработался ритм. И он сильно отличается от «Vibe Coding». Кратко по шагам:
1. Собираю весь контекст. Если проект небольшой — всё подряд в промпт:
files-to-prompt . -e ts -e tsx -e css -e md --cxml --ignore node_modules -o prompt.xml
На больших — тщательно выбираю нужные файлы. Чем полнее контекст, тем меньше шансов на бред в ответах.
2. Описываю маленькую конкретную задачу. Не просить сразу код, а попросить несколько вариантов реализации с их плюсами и минусами. Почти всегда есть несколько способов сделать что-то, и LLM не всегда выбирает оптимальный способ.
3. Выбраю один подход, прошу первый вариант кода.
4. Проверка и обучение. Открываю всю документацию по API функций, которые я раньше не вызывал или с которыми я менее знаком. Прошу объяснений, уточнений, изменений, порой можно вернуться и попробовать другой подход.
6. Тестирую
7. Git commit.
Затем спрашиваю: "что можно улучшить дальше?". Повторяю.
Вот такой цикл разработки с ИИ. Акцент делается на том, чтобы держать на очень коротком поводке этого нового чрезмерно рьяного младшего разработчика с энциклопедией в голове и нулевым чувством вкуса к хорошему коду. Он блефует, ошибается, не отличает красивое решение от костыля. И акцент на том, чтобы быть медленным, осторожным, параноидально все проверять и контролировать, сталкиваясь с чем-то незнакомым обучаться на ходу самому, а не делегировать.
Эти шаги приходится выполнять вручную. Это неудобно, не автоматизировано, не поддерживается в современных инструментах. Мы все еще на начальной стадии развития и в области UI/UX для программирования с применением AI еще предстоит многое сделать.
PS.
Возможно, вы заметили, что здесь нет пункта 5 - это потому, что его нет и в оригинальном посте Karpathy. Думаем, что в пункте 5 ответ на главный вопрос вайбкодинга, жизни, вселенной и всего такого, но к сожалению он только для посвященных.
X (formerly Twitter)
Andrej Karpathy (@karpathy) on X
Noticing myself adopting a certain rhythm in AI-assisted coding (i.e. code I actually and professionally care about, contrast to vibe code).
1. Stuff everything relevant into context (this can take a while in big projects. If the project is small enough…
1. Stuff everything relevant into context (this can take a while in big projects. If the project is small enough…
👍24❤2
Завтра в 14:30 проведем прямой эфир с Антоном Мальцевым (ML Lead в Artisight, фаундер RemBrain, автор YouTube- и Telegram-каналов) о технической стороне современных нейросетей.
Мы поговорим:
🔵 об аппаратных компонентах, критичных для эффективной работы с ИИ;
🔵 о том, как оптимизировать код под разные аппаратные архитектуры;
🔵 об особенностях инфраструктуры для обучения и инференса;
🔵 о практических решениях проблемы дефицита GPU.
Антон поделится техническими деталями и ответит на ваши вопросы в прямом эфире. Присоединяйтесь, чтобы узнать о «железной» стороне AI-разработки — это особенно актуально в условиях растущей стоимости вычислительных ресурсов.
📅 Подключайтесь!
#ML_инфраструктура #оптимизация_моделей #разработка_ИИ #прямой_эфир
Мы поговорим:
Антон поделится техническими деталями и ответит на ваши вопросы в прямом эфире. Присоединяйтесь, чтобы узнать о «железной» стороне AI-разработки — это особенно актуально в условиях растущей стоимости вычислительных ресурсов.
📅 Подключайтесь!
#ML_инфраструктура #оптимизация_моделей #разработка_ИИ #прямой_эфир
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9