Вспомнили старую практику «Парное программирование» и попробовали ее на новый лад с LLM. Раз моделям от OpenAI и Google теперь можно подавать на вход потоковое видео и демонстрировать экран, пусть ломают глаза вместе с нами! «Парное программирование» - это когда два разработчика пишут код вместе смотря на один экран, в идеале сидя рядом перед одним монитором (да-да, что-то доковидное, когда люди ходили в офисы, точнее даже из 20го века). Итак, в этом видео берем задачку с LeetCode, шерим экран и решаем вместе Gemini 2.0 обсуждая голосом. Да, так можно было!
Мои выводы по итогам теста:
1. Прикольно, работает! Можно реально обсуждать свой код и задачу голосом в реальном времени и получить советы и идеи от LLM
2. Задавать вопросы можно на русском, но отвечает Gemini 2.0 только по-английски. После обрыва связи вообще стала отвечать на каком-то сатанинском незнакомом языке, впрочем это я думаю быстро исправят
3. Немного подслеповата, с конкретными ошибками быстрее и надежнее в текстовом режиме закинуть код и ошибку в чат, чем 5 минут что-то уточнять голосом
4. Бесит как модель произносит спец символы «квадратная скобка открывается, кавычка, имя переменной, кавычка, скобка закрывается». Gemini, мы теряем время!
Мои выводы по итогам теста:
1. Прикольно, работает! Можно реально обсуждать свой код и задачу голосом в реальном времени и получить советы и идеи от LLM
2. Задавать вопросы можно на русском, но отвечает Gemini 2.0 только по-английски. После обрыва связи вообще стала отвечать на
3. Немного подслеповата, с конкретными ошибками быстрее и надежнее в текстовом режиме закинуть код и ошибку в чат, чем 5 минут что-то уточнять голосом
4. Бесит как модель произносит спец символы «квадратная скобка открывается, кавычка, имя переменной, кавычка, скобка закрывается». Gemini, мы теряем время!
YouTube
🔥 Pair Programming с Gemini 2.0: Как использовать голосовые подсказки LLM при написании кода
В этом видео покажем, как использовать новые возможности Gemini 2.0 для повышения продуктивности при программировании. Вы узнаете:
Как настроить голосовые подсказки в реальном времени при написании кода
Практические примеры парного программирования с искусственным…
Как настроить голосовые подсказки в реальном времени при написании кода
Практические примеры парного программирования с искусственным…
🔥4😁3🌚2👍1
GitHub запустил бесплатный Copilot Free!
Теперь все разработчики могут пользоваться им прямо в VS Code:
• До 2000 автодополнений кода и 50 сообщений в чате в месяц
• Выбор между Claude 3.5 Sonnet и GPT-4o
Чат доступен прямо с дашборда GitHub, а бесплатный доступ для студентов и open-source контрибьюторов остаётся в силе.
Хороший апгрейд для комьюнити в 150+ миллионов разработчиков!
Новость в официальном блоге
Теперь все разработчики могут пользоваться им прямо в VS Code:
• До 2000 автодополнений кода и 50 сообщений в чате в месяц
• Выбор между Claude 3.5 Sonnet и GPT-4o
Чат доступен прямо с дашборда GitHub, а бесплатный доступ для студентов и open-source контрибьюторов остаётся в силе.
Хороший апгрейд для комьюнити в 150+ миллионов разработчиков!
Новость в официальном блоге
The GitHub Blog
Announcing 150M developers and a new free tier for GitHub Copilot in VS Code
Come and join 150M developers on GitHub that can now code with Copilot for free in VS Code.
👍4❤1
"Нейропсихология больших языковых моделей" — новая лекция доктора технических наук Владимира Крылова на нашем YouTube-канале. Есть в виде подкаста.
В лекции сравниваем одну из новых теорий человеческого разума с последними исследованиями в области LLM и обсуждаем, как экспериментально изучают LLM в качестве объектов, проявляющих сознание. Вы узнаете об ахиллесовой пяте больших языковых моделей и их удивительных поведенческих реакциях.
Появились вопросы — задавайте в комментариях!
В лекции сравниваем одну из новых теорий человеческого разума с последними исследованиями в области LLM и обсуждаем, как экспериментально изучают LLM в качестве объектов, проявляющих сознание. Вы узнаете об ахиллесовой пяте больших языковых моделей и их удивительных поведенческих реакциях.
Появились вопросы — задавайте в комментариях!
👍10
📢 Уважаемые разработчики, приглашаем вас на трансляцию челленджа "Битва кода: Программист против ИИ! Кто победит?". Присоединяйтесь к просмотру на YouTube (как сейчас, так и можно будет посмотреть видео после трансляции) по этой ссылке https://www.youtube.com/watch?v=IX6D1EynoRw
Есть еще трансляция + останется запись на ВК https://vkvideo.ru/video-39755794_456239374
Есть еще трансляция + останется запись на ВК https://vkvideo.ru/video-39755794_456239374
YouTube
Битва кода: Программист против ИИ! Кто победит?
Готовы увидеть, как программист с 15-летним стажем бросает вызов искусственному интеллекту? В прямом эфире Евсеев Евгений Владимирович, технический директор PelidTeam, покажет, где человеческий ум превосходит машины.
📌 В программе:
Реальный кейс, выбранный…
📌 В программе:
Реальный кейс, выбранный…
👍8
Влияние ИИ на разработку ПО — итоги нового отчета DORA 2024
Перевели для Habr самые интересные моменты из нового отчета DORA (DevOps Research and Assessment) от Google Cloud за 2024ый год. Один из самых неожиданных, (хотя если хорошо подумать предсказуемых) выводов: ИИ однозначно помогает разработке, но мешает Delivery.
Основные цифры:
- Производительность доставки (throughput) снижается на 1,5% за каждые 25% роста внедрения ИИ.
- Стабильность доставки (stability) падает еще сильнее — на 7,2% при тех же показателях.
Не спрашивайте, как именно рассчитывается "рост на 25% внедрения ИИ", — воспринимаем это как индикатор общего тренда: при более широком использовании ИИ процессы доставки ПО начинают пробуксовывать. Т.е. на данном этапе производительность мешает стабильности.
Почему так?
Хотя ИИ ускоряет процессы разработки (качество кода, документации и ревью), это приводит к увеличению объема изменений, а значит растут риски из-за больших изменений.
Выводы для команд:
- Скорость ≠ стабильность. Важно сохранять баланс между качеством и ритмом изменений.
- ИИ требует осознанного подхода к управлению процессами.
Больше картинок и статистики по ссылке.
Перевели для Habr самые интересные моменты из нового отчета DORA (DevOps Research and Assessment) от Google Cloud за 2024ый год. Один из самых неожиданных, (хотя если хорошо подумать предсказуемых) выводов: ИИ однозначно помогает разработке, но мешает Delivery.
Основные цифры:
- Производительность доставки (throughput) снижается на 1,5% за каждые 25% роста внедрения ИИ.
- Стабильность доставки (stability) падает еще сильнее — на 7,2% при тех же показателях.
Не спрашивайте, как именно рассчитывается "рост на 25% внедрения ИИ", — воспринимаем это как индикатор общего тренда: при более широком использовании ИИ процессы доставки ПО начинают пробуксовывать. Т.е. на данном этапе производительность мешает стабильности.
Почему так?
Хотя ИИ ускоряет процессы разработки (качество кода, документации и ревью), это приводит к увеличению объема изменений, а значит растут риски из-за больших изменений.
Выводы для команд:
- Скорость ≠ стабильность. Важно сохранять баланс между качеством и ритмом изменений.
- ИИ требует осознанного подхода к управлению процессами.
Больше картинок и статистики по ссылке.
👍10❤1
Media is too big
VIEW IN TELEGRAM
Принято считать, что язык программирования Python — главный инструмент машинного обучения и анализа данных. Но так ли это на самом деле? Почему именно он занял такое доминирующее положение в Data Science? И можно ли реализовывать системы ИИ на другом стеке технологий?
⚡️ На эти вопросы ответил заведующий кафедрой ИИ в Финансовом университете Михаил Коротеев в своей новой лекции "Пайтоном ли единым? Технологический ландшафт ИИ".
Запись лекции доступна здесь и на других площадках:
➡️ YouTube
➡️ RuTube
➡️ ЯндексМузыка
Запись лекции доступна здесь и на других площадках:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤1
Media is too big
VIEW IN TELEGRAM
Как ИИ меняет подход к созданию литературных произведений? Какое место займет "нейросетевая" литература? Может, вы уже читаете тексты, которых человек даже не касался?
⚡️ Обсудили это с Ксенией Сидоркиной — литературным продюсером, редактором, создателем онлайн-библиотеки СоКратко и сооснователем медиаагентства Publicity Buro.
Запись интервью доступна здесь и на других площадках:
➡️ YouTube
➡️ RuTube
➡️ ЯндексМузыка
Запись интервью доступна здесь и на других площадках:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤🔥1🔥1
Чем завершается этот год с точки зрения разработки софта и AI? В 2024ом мы знакомились, учились, научились, а кто-то даже уже и привык программировать с copilotами. Под конец года мы увидели очередной прогресс в развитии технологий модель o3, с другой стороны отчет Dora о том, что delivery пока не догоняет разработку. Кажется в 2025 мы будем учиться работать слаженно в новых условиях все более умного AI. Быстрее согласовывать фичи, работать вместе с AI-агентами, быстрее тестировать и быстрее выдавать результат потребителям.
С Новым годом!🎄 🕊💻
С Новым годом!
Please open Telegram to view this post
VIEW IN TELEGRAM
🎄10👍4
🎯 Прямой эфир уже начался!
📺 "Человек vs ИИ в разработке ПО: Практический мастер-класс"
Присоединяйтесь к эфиру, где Руслан Титов, технический архитектор ГЭНДАЛЬФ.Проекты, покажет:
▫️ Как ИИ и человек решают одни и те же задачи в разработке
▫️ Где ИИ действительно ускоряет работу программиста
▫️ Какие подводные камни ждут при работе с ИИ-ассистентами
💡 Будет много практики и живой код!
🔗 Смотрите прямо сейчас на канале Ai4dev:
https://www.youtube.com/watch?v=C4Bcxz4a6Iw
или на нашем телеграмм-канале.
📺 "Человек vs ИИ в разработке ПО: Практический мастер-класс"
Присоединяйтесь к эфиру, где Руслан Титов, технический архитектор ГЭНДАЛЬФ.Проекты, покажет:
▫️ Как ИИ и человек решают одни и те же задачи в разработке
▫️ Где ИИ действительно ускоряет работу программиста
▫️ Какие подводные камни ждут при работе с ИИ-ассистентами
💡 Будет много практики и живой код!
🔗 Смотрите прямо сейчас на канале Ai4dev:
https://www.youtube.com/watch?v=C4Bcxz4a6Iw
или на нашем телеграмм-канале.
YouTube
Человек vs ИИ в разработке ПО: Практический мастер-класс
Технический архитектор ГЭНДАЛЬФ.Проекты Руслан Титов проведет уникальный мастер-класс по применению искусственного интеллекта в разработке программного обеспечения. В прямом эфире вы увидите:
Реальное сравнение подходов человека и ИИ к решению одной задачи…
Реальное сравнение подходов человека и ИИ к решению одной задачи…
2025ый год только начался, а за последние три дня произошло два очень существенных события в индустрии LLM, которые собираются в одну картинку.
1. Вышла модель китайской компании DeepSeek R1. Если еще в июне 24го мы писали, что модель от DeepSeek в узких областях (например кодинг по некоторым бенчмаркам) приближается к ведущим производителям типа Mistral, то сегодня DeepSeek (судя по анонсированным бенчмаркам) уже не уступает общей ведущей модели o1 от OpenAI, при этом стоит в разы меньше и даже выложена в открытый доступ! Тут можно попробовать (нажимайте на кнопку Deep Think).
2. Словно ответ на DeepSeek сегодня Трамп объявил о создании в в США Stargate – инвестиционного проекта в 500 миллиардов долларов по созданию инфраструктуры для искусственного интеллекта. Партнером от мира ИИ в Stargate является Open AI.
Что это значит для разработки? Гонка не только не останавливается, но наоборот ускоряется, впереди нас ждут все более умные модели, которые смогут еще больше. Определенно пора учиться использовать ИИ в работе, если вы еще не начинали.
Китайские модели начали показывать очень достойные результаты, при этом они Open Source и есть уменьшенные (distilled) версии, которые можно запустить на разумном объеме железа. Проектировать закрытые решения для бизнеса на базе QWEN и DeepSeek видимо было хорошей идеей - их качество стремительно улучшается, а модели пока продолжают выкладывать в открытый доступ.
Мы снова видим, как меняются лидеры в отрасли, но в этот раз похоже уже наметились претенденты на топ-позиции. Вопрос вычислительных мощностей является ключевым и его не компенсировать даже гениальными алгоритмами или идеями. То что Google и Anthropic не позвали в Stargate – кажется тревожный для них звоночек (не говоря уже о европейских Mistral и других производителях). Например, российским решениям вроде GigaChat и YandexGPT вряд ли удастся побороться за лидерство: $500 млрд — это сравнимо со стоимостью всего Сбербанка или 50 «Яндексов». Впрочем остаются нишевые задачи: дообучение компактных моделей для специализированных целей — кажется все еще трендомом, где найдётся место многим игрокам.
PS
Пока писал этот пост вышла новость, что на этой неделе OpenAI выпустят Operator - ИИ приложение агента, которое может выполнять за вас работу за компьютером, двигать мышкой, открывать окна, вбивать информацию в формы и т.д. при этом самостоятельно выполняя заранее заданную цель. Где-то занервничали создатели RPA-платформ.
1. Вышла модель китайской компании DeepSeek R1. Если еще в июне 24го мы писали, что модель от DeepSeek в узких областях (например кодинг по некоторым бенчмаркам) приближается к ведущим производителям типа Mistral, то сегодня DeepSeek (судя по анонсированным бенчмаркам) уже не уступает общей ведущей модели o1 от OpenAI, при этом стоит в разы меньше и даже выложена в открытый доступ! Тут можно попробовать (нажимайте на кнопку Deep Think).
2. Словно ответ на DeepSeek сегодня Трамп объявил о создании в в США Stargate – инвестиционного проекта в 500 миллиардов долларов по созданию инфраструктуры для искусственного интеллекта. Партнером от мира ИИ в Stargate является Open AI.
Что это значит для разработки? Гонка не только не останавливается, но наоборот ускоряется, впереди нас ждут все более умные модели, которые смогут еще больше. Определенно пора учиться использовать ИИ в работе, если вы еще не начинали.
Китайские модели начали показывать очень достойные результаты, при этом они Open Source и есть уменьшенные (distilled) версии, которые можно запустить на разумном объеме железа. Проектировать закрытые решения для бизнеса на базе QWEN и DeepSeek видимо было хорошей идеей - их качество стремительно улучшается, а модели пока продолжают выкладывать в открытый доступ.
Мы снова видим, как меняются лидеры в отрасли, но в этот раз похоже уже наметились претенденты на топ-позиции. Вопрос вычислительных мощностей является ключевым и его не компенсировать даже гениальными алгоритмами или идеями. То что Google и Anthropic не позвали в Stargate – кажется тревожный для них звоночек (не говоря уже о европейских Mistral и других производителях). Например, российским решениям вроде GigaChat и YandexGPT вряд ли удастся побороться за лидерство: $500 млрд — это сравнимо со стоимостью всего Сбербанка или 50 «Яндексов». Впрочем остаются нишевые задачи: дообучение компактных моделей для специализированных целей — кажется все еще трендомом, где найдётся место многим игрокам.
PS
Пока писал этот пост вышла новость, что на этой неделе OpenAI выпустят Operator - ИИ приложение агента, которое может выполнять за вас работу за компьютером, двигать мышкой, открывать окна, вбивать информацию в формы и т.д. при этом самостоятельно выполняя заранее заданную цель. Где-то занервничали создатели RPA-платформ.
👍5🔥5🌚1
Только что Open AI представили Operator — агента, работающего в облаке, где он управляет браузером для выполнения задач: от ввода капчи до покупок, с возможностью перехвата управления пользователем. На демо Operator заказывал столик в ресторане, еду по списку, пицу c доставкой, билеты на концерт, бронировали теннисный корт. Оптимизирован для популярных сайтов но может со всем. Пока доступен в США но вскоре для всех подписчиков Plus и других регионов. API для разработчиков обещают через две недели.
По моим ощущениям RPA-компаниям (Robotic Process Automation - софт для автоматизации рутинных офисных задач) можно начинать нервничать, т.к. качество оператора уже на уровне и явно будет расти с выпуском новых моделей. Полное демо на youtube. Есть у нас подписчики из RPA, выглядит как кардинальная смена технологии?
По моим ощущениям RPA-компаниям (Robotic Process Automation - софт для автоматизации рутинных офисных задач) можно начинать нервничать, т.к. качество оператора уже на уровне и явно будет расти с выпуском новых моделей. Полное демо на youtube. Есть у нас подписчики из RPA, выглядит как кардинальная смена технологии?
YouTube
Introduction to Operator & Agents
Begins at 10am PT
Join Sam Altman, Yash Kumar, Casey Chu, and Reiichiro Nakano as they introduce and demo Operator.
Join Sam Altman, Yash Kumar, Casey Chu, and Reiichiro Nakano as they introduce and demo Operator.
🔥9👍2🍌1🏆1
В этот четверг, 30 января, в 12:00 доктор технических наук Владимир Крылов расскажет о моделях рассуждений (таких как DeepSeek R1, o1, o3), основанных на больших языковых моделях.
На лекции обсудим:
🟠 На что способны модели рассуждений?
🟠 Как правильно сконструировать промпт для них?
🟠 В чем состоят проблемы использования таких моделей?
🟠 Как модель рассуждений думает без слов и как все это связано с системами сознания Канемана?
Хотите узнать, как появление говорящих и рассуждающих моделей вписывается в концепцию перехода Земли от эпохи Антропоцена в эпоху Новацена? Подключайтесь!
На лекции обсудим:
Хотите узнать, как появление говорящих и рассуждающих моделей вписывается в концепцию перехода Земли от эпохи Антропоцена в эпоху Новацена? Подключайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6👀1
Помните, мы все удивились новой китайской модели DeepSeek R1, которая сравнима с o1, но открытая? Ах, да, конечно помните, это же было неделю назад. Она основана на модели DeepSeek V3 (не рассуждающей). А теперь встречайте Tulu3-405B — американскую открытую модель, которая превосходит DeepSeek V3 по большинству бенчмарков (по крайней мере из тех, которые авторы указали в пресс-релизе).
Разработчик: некоммерческий институт AI2 (Сиэтл)
Параметры: 405B, обучение — 256 GPU
По HumanEval (популярный бенчмарк на программирование с проверкой заданий юнит тестами) превосходит DeepSeek, есть дистиллированные маленькие модели - кандидаты на локальную модель для программирования, по отзывам скорости на бытовом железе скромные.
На бенчмарках PopQA (вопросы по Википедии) и GSM8K (математика), обгоняя не только DeepSeek V3, но и GPT-4o с Llama 3.1.
Код доступен на GitHub, Hugging Face, протестировать можно в чат-боте AI2.
Рассуждать, правда, придётся самостоятельно — Tulu3 пока не умеет.
Более подробный обзор: TechCrunch
Разработчик: некоммерческий институт AI2 (Сиэтл)
Параметры: 405B, обучение — 256 GPU
По HumanEval (популярный бенчмарк на программирование с проверкой заданий юнит тестами) превосходит DeepSeek, есть дистиллированные маленькие модели - кандидаты на локальную модель для программирования, по отзывам скорости на бытовом железе скромные.
На бенчмарках PopQA (вопросы по Википедии) и GSM8K (математика), обгоняя не только DeepSeek V3, но и GPT-4o с Llama 3.1.
Код доступен на GitHub, Hugging Face, протестировать можно в чат-боте AI2.
Рассуждать, правда, придётся самостоятельно — Tulu3 пока не умеет.
Более подробный обзор: TechCrunch
👍6
А что, если совместить DeepSeek R1 и Claude?
Компания Asterisk (AI Security) выпустила open source интерфейс DeepClaude, который объединяет рассуждения R1 и креативность Claude. R1 используется как архитектор - сначала запрос попадает к этой модели, а Claude как редактор кода – финальная реализация в виде кода того, что придумала R1.
На бенчмарке Aider Polyglot такой подход показал интересные результаты:
1. Первое место, лучше чем DeepSeek R1, Claude и o1
2. В 14 раз дешевле, чем o1
На гитхабе:
https://github.com/getasterisk/deepclaude
https://deepclaude.com/ - на сайте есть deepclaude чат, но у меня он не работает. ☹️
Компания Asterisk (AI Security) выпустила open source интерфейс DeepClaude, который объединяет рассуждения R1 и креативность Claude. R1 используется как архитектор - сначала запрос попадает к этой модели, а Claude как редактор кода – финальная реализация в виде кода того, что придумала R1.
На бенчмарке Aider Polyglot такой подход показал интересные результаты:
1. Первое место, лучше чем DeepSeek R1, Claude и o1
2. В 14 раз дешевле, чем o1
На гитхабе:
https://github.com/getasterisk/deepclaude
https://deepclaude.com/ - на сайте есть deepclaude чат, но у меня он не работает. ☹️
👍8❤1