AI4Dev — AI for Development
3.75K subscribers
107 photos
24 videos
5 files
212 links
Что надо знать, чтобы остаться востребованным ИТ специалистом в мире с LLM?

• Обзоры продуктов, фреймворков и способы взаимодействия с LLM для разработки софта

• Реальные кейсы, pet и бизнес проекты с LLM

• Публичные лекции

В будущее берут не всех!
Download Telegram
Сейчас есть множество разных AI-платформ для разработки, но какую выбрать для своих задач или для проектной команды? Разберемся вместе с Александром Медведевым — fullstack-разработчиком компании Just AI.

В эфире:
🟣сравним ключевые AI-платформы;
🟣посмотрим на сценарии их использования;
🟣обсудим преимущества использования AI-платформ по сравнению с прямым обращением к LLM;
🟣поговорим о трендах развития инструментов на базе AI в разработке.

Запускаем трансляцию в полдень 14 марта (пятница).

Подключайтесь и задавайте вопросы Александру! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84
Live stream started
Live stream finished (1 hour)
Сообщения о совершенствовании архитектур базовых моделей ИИ публикуются довольно часто и мы нередко задаемся вопросом об их перспективности. Ведь авторы и обозреватели нередко заявляют о радикальных преимуществах новых алгоритмов функционирования и скором вытеснении старых добрых трансформеров. Но несмотря на реальные преимущества тех или иных решений, они в целом пока не дают видимого экономического преимущества, добавляя единицы процентов к производительности моделей. Большинство новаторских моделей с трудом продвигаются в индустрию из академических исследований. Но вот недавняя публикация компании Inception сразу задела меня, заинтересовала многих с кем я говорил, и в надежде, что свершившееся заинтересует и многих читателей канала, публикую заметку по материалам упомянутой и последовавших за этим публикаций. Более того на нашем канале запланирована моя следующая лекция, посвященная детальному анализу предложенной авторами технологии и релизу готовых моделей на ее основе. Для начала о команде. Она впечатляет : "Нас основали профессора из Стэнфорда, Калифорнийского университета в Лос-Анджелесе и Корнелла — пионеры в области диффузионного моделирования и краеугольных технологий ИИ, включая Flash Attention, Decision Transformers и Direct Preference Optimization. В нашу инженерную команду входят ветераны из Google DeepMind, Microsoft, Meta, OpenAI и NVIDIA." Так в чем корень технологии? На настоящий момент известно два основных подхода к базовому принципу генеративного ИИ - это авторегрессионная модель и диффузионная модель. Позволю себе провести аналогию с двумя техниками работы скульптора, "генерирующего" свое произведение. Есть техника лепки, когда кусочек за кусочком добавляются к уже вылепленному, а есть техника высечения, когда из бесформенного в начале куска материала путем отделения кусок за куском формируется "генерируется" произведение. Так вот первая техника - это прямая аналогия работы авторегрессионных моделей GPT, а вторая техника - аналогия работы диффузионной модели. И что же сделали в Inception? Они соединили эти две технологии и сделали Diffusion LLM. теперь текст генерируется не токен за токеном, а фильтруется как из хаоса слов по группам токенов. Эффект в скорости составляет десятки раз! Наилучшие результаты по качеству получаются при генерации программного кода, поэтому свои первые модели разработчики ориентировали на работу с кодом. Так что встречайте и пробуйте (уже есть Playground) Mercury Coder Small и Mercury Coder Mini. https://www.inceptionlabs.ai/news
👍5
Поднявшаяся с легкой руки Андрея Карпаты волна обсуждений vibe coding размывает многие догмы сегодняшнего понимания разработки программ. Но вот появляются и такие сообщения, на первый взгляд курьезные. В самый раз на выходные.

Сообщается, что известный помощник по программированию Cursor сказал пользователю под ником «janswist», что тот должен написать код самостоятельно, а не полагаться на то, что Cursor сделает это за него.
«Я не могу генерировать код для вас, так как это будет означать завершение вашей работы... вы должны разработать логику самостоятельно. Это гарантирует, что вы поймете систему и сможете ее правильно поддерживать», — сказал ему Курсор после того, как он провел час, «настраивая» код с помощью инструмента.
Итак, janswist подал отчет об ошибке на форуме продукта компании: «Cursor сказал мне, что мне следует изучить кодирование, а не просить его генерировать его», и приложил снимок экрана. Отчет об ошибке вскоре стал вирусным на Hacker News и был освещен Ars Technica.
Предполагается, что Cursor обучался на сайте Stack Overflow и он мог усвоить не только советы по кодированию, но и человеческий сарказм.
👍12😁113🌚3
Как разработчики используют LLM: дайджест исследования

Прочитали за вас 40-страничное исследование от Университета Северной Каролины о влиянии языковых моделей на разработку ПО. Ключевые выводы:

-LLM повышают продуктивность за счёт сокращения рутины, упрощения поиска решений и создания шаблонного кода
-Лучше всего разбивать задачи на мелкие компоненты и итеративно уточнять промпты
-Для оценки кода эффективно использовать комбинацию ручной проверки и автоматизированного тестирования
-LLM особенно хороши в написании тестов и рефакторинге

Для организаций важно:

• Создавать библиотеки шаблонов промптов для сотрудников
• Обучать команды промпт-инжинирингу
• Использовать RAG для включения проектной документации в генерацию

Полный дайджест с инсайтами на Хабре.
👍9
Наткнулся на интересный пост:
Каждый день меня спрашивают: "А правда ли ИИ помогает инженерам с большими/сложными/legacy кодовыми базами?"
И знаете что? Однозначно да, если всё делать правильно!
Студенты курсов AI  для разработчиков поделились со мной своим опытом, как они это делают на практике:

Инженер 1:
Первым делом — разберитесь, как устроена кодовая база, спрашивая об этом ИИ. При этом ИИ заодно тоже её изучает.
Например, в Cursor вы можете @ Codebase (или @ какую-то часть кода) и попросить:
• "Сделай Mermaid-диаграммы последовательности и потоков для понимания связей между всеми важными файлами проекта"
• "Результат можно загрузить в  https://mermaid.live/ для просмотра"
• "Дай мне команды для терминала — как запускать, тестировать и останавливать приложение локально и в проде"
• "Расскажи, как ещё можно использовать это приложение, и где найти документацию"
• "Напиши документацию, чтобы я мог начать работать с этой кодовой базой. Сделай это рекурсивно — по директориям, поддиректориям, и пусть всё связывается между собой"
Дальше используйте обычный процесс разработки, но с помощью ИИ:
• Тикет в Jira → ИИ читает, ищет важную информацию, делает выжимку
• Изучение кода → ИИ читает код и пишет саммари на важные части
• Создаем branch → ИИ анализирует код и предлагает исправления
• Тесты → Дайте ИИ взглянуть на существующую инфраструктуру тестов и попросите создать новые тесты для вашей фичи
• Запустите тесты  → ИИ помогает исправить несостыковки
• Сделайте PR, при необходимости воспользуйтесь услугами ИИ
• И так далее
 
Сам пост тут, там еще от 4 инженеров есть советы  по использованию AI.

PS: Думаю на английском промты будут лучше работать
👍9🦄1
Media is too big
VIEW IN TELEGRAM
Зачем искусственный интеллект науке? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции, предложив авторскую интерпретацию внутренних причин появления ИИ как результата научной деятельности человека.

В эфире рассмотрели:
🟠акселерацию процессов проникновения методов ИИ в науку;
🟠возможности управления контролируемыми галлюцинациями, которые лежат в основе познания мира;
🟠новые ИИ-инструменты исследований и их влияние на работу научных сотрудников и на современные формализации структуры науки.

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Микроскоп ИИ выявил сложные возможности планирования и рассуждения Клода. При генерации поэзии модель планирует несколько слов вперед, сначала выбирая соответствующие рифмующиеся слова, а затем конструируя каждую строку, чтобы вести к этим целям . Для многошаговых задач рассуждения, таких как определение столицы штата, где находится Даллас, Клод последовательно активирует представления, сначала связывая «Даллас находится в Техасе», а затем «столица Техаса — Остин» . Решение математических задач демонстрирует параллельную обработку с одним путем для приближения и другим для точного расчета . Эти результаты бросают вызов предположению, что LLM просто предсказывают от токена к токену, демонстрируя более сложный внутренний процесс.
👍14
Слышали про релиз диффузионных LLM компанией Inception Labs? В этот четверг, 3 апреля, в 12:00 доктор технических наук Владимир Крылов расскажет, как диффузионные LLM повлияют на сферу AI.

В эфире рассмотрим:
🟠Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?

Подключайтесь и задавайте вопросы лектору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
Live stream started
Live stream finished (24 minutes)
Media is too big
VIEW IN TELEGRAM
Как диффузионные LLM повлияют на сферу AI? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции.

В эфире рассмотрели:
🟠Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4
Сегодня Cursor стал, наверное, самым распространенным ИИ инструментом, применяемым программистами. И вот вдруг у многих он перестал работать. Пользователи Cursor только что уперлись в стену. Одна строка, зарытая в 485-строчном JSON-файле одного из расширений языковой службы Microsoft для VSCode, нарушила его совместимость с Cursor. Сообщество теперь вспоминает фразу из темной истории Microsoft: принять, расширить, погасить . Но так ли все плохо на самом деле? Прочитайте https://tomaszs2.medium.com/microsoft-quietly-blocked-cursor-from-using-its-vscode-extension-heres-the-line-of-code-that-8d664caf0de5 Вот эта строка : "license_terms": "The C/C++ extension may be used only with Microsoft Visual Studio, Visual Studio for Mac, Visual Studio Code, Azure DevOps, Team Foundation Server, and successor Microsoft products and services to develop and test your applications." в файле vscode-pptools/Extension /src /nativeStrings.json в файле на github. Выход из ситуации очевиден - магазин расширений Microsoft для VSCode — не единственное место, где их можно получить, и вы можете получить расширения откуда угодно, например, из Open VSX . Cursor будет работоспособным. Но нельзя быть на 100% уверенным в том, что нас ждет в будущем.
👍7
Зачем ML-системам распознавать салон вашего автомобиля?
Расскажет Виктор Кочеганов — кандидат физико-математических наук, руководитель ML-направления в ГК "Фрактал".

В эфире:
🟣Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?

Запускаем трансляцию 11 апреля в 14:00.

Подключайтесь и задавайте вопросы Виктору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
Вышла Firebase Studio — новая IDE от Google
Но нас она не впечатлила, и вот почему:
1. Firebase — это не новинка. Раньше это был набор сервисов для мобильной разработки: база данных, авторизация, хостинг. Теперь к этому добавили облачную среду разработки с AI.

2. Внутри — форк VS Code с расширением Gemini. По промту генерируется шаблон проекта (React, Next и т.п.), создаётся пустое приложение, и уже на нем AI пытается реализовать ваш запрос. Визуальных билдеров компонентов нет — весь no-code сводится к генерации по описанию.

3. На практике всё пока довольно сыровато. Генерация кода ограничена и поверхностна — на глаз 250–500 строк. Только модели от Google, режим работы не “thinking”, как у Cursor с Claude или Gemini 2.5. Поддержки A2A пока нет, MCP тоже. Как IDE — пока уступает альтернативам.

Попробовать можно бесплатно, но на наш взгляд это не “Google Cursor на максималках”, а скорее Firebase с AI-пристройкой, которую еще рано рассматривать всерьёз
👍2🤷‍♂11🫡1
Live stream started
Live stream finished (1 hour)
Поскольку новостей по теме AI-программирования становится все больше, решили попробовать формат еженедельного дайджеста «Vibe Coding News». Сегодня собрали в него такие новости:

OpenCodeReasoning Dataset от Nvidia — в открытом доступе. Крупнейший на сегодняшний день (735К примеров на python охватывающие 28К задач) синтетический датасет, ориентированный на задачи, требующие рассуждений при программировании. Датасет предназначен для обучения моделей с учителем (supervised fine-tuning).

Codeium переименовались в Windsurf —т.к. Виндсерф теперь их главное направление деятельности, а их AI-агент теперь доступен в JetBrains IDE.

В Aider (агент-программист) в роли редактора используется DeepSeek R1 в паре с Gemini 2.5 Pro в роли архитектора, чтобы минимизировать проблемы с оркестрацией изменений в коде. Gemini 2.5 Pro — способна создавать рабочие фрагменты кода по сложным запросам и применяется в Aider для редактирования и генерации до 15 файлов в контексте 300K токенов. При этом в Aider выявлены проблемы с /architect-режимом: изменения прерываются при добавлении новых файлов. Пользователи отключают авто-коммиты, чтобы избежать коммита непроверенного кода.

Microsoft представила новый подход к синтезу кода, разбивая задачи “программирования по примеру” (programming by example - PBE) на подзадачи, чтобы устранить ошибки LLM. Статья: https://arxiv.org/pdf/2503.15540

Optimus Alpha — новая модель оптимизированная для программирования опубликована в OpenRouter. Что скрывается за этим именем пока не понятно, но несмотря на 1M токенов в контексте, пользователи жалуются на частые галлюцинации в коде.

Вышла Firebase Studio — об это писали сегодня выше.

DeepCoder 14B — новая модель кодирования от UC Berkeley, полностью открытая модель генерации кода на 14B параметров сопоставима с OpenAI o3-mini и o1, с открытым исходным кодом. Обучена с применением RL на Deepseek-R1-Distilled-Qwen-14B, используя 32 H100 в течение 2,5 недель. Стоимость обучения около $26,880. Доступны исходный код модели, датасет, тренировочный скрипт и подробный блог. MIT-лицензия, совместима с vLLM, TGI и Transformers. Обеспечивает 60.6% на LiveCodeBench и 1936 на CodeForces.
🔥18👍5