Департамент Разработки
1.45K subscribers
155 photos
5 videos
32 links
Департамент Разработки — комьюнити про эффективную разработку и всё, что рядом.
Здесь встречаются разработчики, архитекторы, автоматизаторы и просто любопытные умы. Мы рассказываем последние новости индустрии, делимся инсайдами и кейсами от разработчиков.
Download Telegram
Коллеги, на Хабре уже вышли материалы по итогам наших дискуссий:

«Трактор или лопата?» — мифы и проблемы low-code
🚜 https://habr.com/ru/articles/947542/
Где low-code реально ускоряет разработку, а где мешает.

Программисты vs ИИ и low-code: кто кого заменит
🤖 https://habr.com/ru/articles/947560/
Как ИИ меняет профессию программиста и чего ждать дальше.

Сейчас мы готовим новые трансляции и если вы хотите стать спикером - напишите нам.

Будем признательны если вы поддержите автора текстов кармой, мы старались сделать публикации интересными и сбалансированными.

Если вы готовы помочь то:
1️⃣ Нажмите на имя или аватарку автора над статьёй.
2️⃣ В профиле найдите зелёную стрелку ↑ рядом с кармой.
3️⃣ Кликните — и голос учтён.
🚀 Как выбрать low-code платформу в 2025 году?

29 сентября в 15:00 (МСК) на платформе DevQA пройдёт онлайн-дискуссия:
«Как в 2025 году выбирать low-code платформу: критерии выбора»

🔹 Рынок low-code переживает бурный рост после ухода Microsoft, Mendix и OutSystems.
🔹 На кону десятки миллионов рублей и годы цифровой трансформации.
🔹 Ошибка выбора платформы = стратегический провал.

В прямом эфире — технические лидеры топовых компаний:
👨‍💻 Дмитрий Бахтин (Дм-тех / Детский мир)
👨‍💻 Александр Сахаров (Диасофт)
👨‍💻 Алексей Каньков (Revizto)
👨‍💻 Николай Алёшин (ШтрафовНет.ру)
👨‍💻 Сергей Лозовской (Head of DevOps)
👨‍💻 Павел Сандовин (Outlines Tech)
👨‍💻 Сергей Жучков (ProgKids.com)

📌 Обсудим:
— технические возможности и ограничения разных low-code решений
— интеграцию и безопасность
— реальные кейсы внедрения
— стоимость владения и риски vendor lock-in

👉 Полезно для CTO, IT-директоров, руководителей цифровой трансформации, интеграторов и всех, кто ищет оптимальный путь в мире low-code.

📺 Смотрите трансляцию:
YouTube: https://www.youtube.com/live/UMJcD4yHdJM?si=oOfJ3nwHiImr4lih
Rutube: https://rutube.ru/video/c78b3e81d6e4e430b9b3f6a4df60a793/
1
Media is too big
VIEW IN TELEGRAM
💡 Запись дискуссии: «Как в 2025 году выбирать low-code платформу: критерии выбора»

29 сентября на платформе DevQA прошла жаркая онлайн-беседа ведущих IT-компаний России.
Тема, которая волнует сегодня каждого CTO и руководителя цифровой трансформации: low-code платформы в условиях импортозамещения.

Что обсудили:

Где заканчивается удобный фреймворк и начинается «чёрный ящик»?

Можно ли строить критичные системы на low-code или это путь в тупик?

Как компании балансируют скорость прототипирования и требования enterprise-уровня?

Что делать с безопасностью и масштабируемостью в мире citizen-разработчиков?

Как не оказаться заложником вендора через три года?

🎤 В дискуссии приняли участие:
Александр Сахаров («Диасофт»)
Алексей Каньков (Revizto)
Николай Алёшин (ШтрафовНет.ру)
Сергей Лозовской (Head of DevOps)
Павел Сандовин (Outlines Tech)
Сергей Жучков (ProgKids.com)

🔥 Спикеры не отделывались общими словами — в разговоре прозвучали острые вопросы, реальные кейсы и разные взгляды на то, каким будет рынок low-code в ближайшие годы.

📺 Смотрите запись дискуссии здесь:
Новые модели ИИ галлюцинируют в два раза чаще старых: эксперты обсудят, как с этим работать разработчикам 🤖

📅 октября в 15:00 на канале Dev Q&A пройдет онлайн-дискуссия, как индустрия справляется с "цифровым враньем" и что это значит для будущего разработки.

OpenAI в сентябрьском исследовании признала: галлюцинации в языковых моделях математически неизбежны. Это не баг, а фундаментальное свойство технологии. Последствия уже ощутимы: анализ 576 тысяч примеров кода показал, что ИИ-инструменты придумали более 205 тысяч несуществующих программных пакетов.

Александр Сахаров, директор по работе с партнерами в Диасофт, и другие эксперты отрасли обсудят:
💠 почему ИИ галлюцинирует и можно ли это исправить архитектурно;
💠методы детектирования ошибок (от RAG-систем, снижающих галлюцинации на 71%, до мультиагентных подходов);
💠где заканчивается творчество и начинается вранье;
💠как компании выстраивают QA-процессы для генеративных моделей.

Смотрите прямой эфир на Rutube 💻
Please open Telegram to view this post
VIEW IN TELEGRAM
1
📰 Аналитики выкатили LCAP-матрицу 2025. Спойлер: AI — это гигиена.

Nucleus Research (те самые ребята, которые обожают считать ROI) опубликовали свой свежий LCAP Value Matrix. Главный вывод: эпоха "вау, оно пишет код!" официально закончилась. AI-возможности стали базовой гигиеной, и теперь от них ждут не магии, а измеримого профита: снижения TTM, сокращения техдолга и прозрачного governance.

Весь рынок LCAP резко повзрослел. Вместо "Дикого Запада" для быстрого клепания формочек, фокус сместился на суровые enterprise-фичи: безопасность, compliance, единые "фабрики данных" (unified data fabrics) и автоматический QA. По сути, Low-Code превращается из инструмента для "бизнес-аналитиков" в платформу для серьезных, масштабируемых систем.

Разработка на естественном языке и "умные" воркфлоу тоже становятся прагматичной нормой.

В лидерах по версии Nucleus — Appian, Creatio, OutSystems и Oracle APEX. Любопытно, что гиганты вроде Microsoft Power Apps, Salesforce и ServiceNow попали в "Экспертов" — то есть, мощно, комплексно, но не обязательно с лучшим value.

🔗 Источник: https://nucleusresearch.com/
1
📰 "Срочно пилим монолит на 47 микросервисов за 6 месяцев!"

На Reddit разгорается драма: лид-архитектор требует от 25 разрабов распилить 8-летний Python-монолит (200k строк) на 47 (!) сервисов за полгода. Аргументы: "монолиты не масштабируются", "нужна автономия команд" и, конечно, "service mesh и event bus сделают нас future-proof".

Звучит как резюме-ориентированная разработка, особенно когда узнаешь, что монолит:

Стабилен, падает редко.

Деплоится за 8 минут.

Держит... 50,000 запросов в день.

50k/день — это смешно (в среднем <1 rps). Но всю эту ситуацию на YouTube разобрал Дерек Мартин (CodeOpinion). Он справедливо замечает, что мы не знаем контекста. Может, эти 50k прилетают в 15-минутное окно, и каждый запрос стоит $1000.

Скорее всего, архитектор прав в одном: проблема не в техническом, а в организационном масштабировании. 25 человек не могут быстро поставлять фичи, упираясь в одну кодовую базу. Ему нужна "team autonomy".

Вот только (и это прямой комментарий от нас) план "взорвать всё гранатой" — абсолютно нереалистичен. 47 сервисов — это 47 CI/CD-пайплайнов, 47 наборов алертов, 47 репозиториев и взрывной рост сложности в отладке. 25 разработчиков, которые привыкли к монолиту, не могут это поднять за 6 месяцев, не похоронив текущий стабильный 8-минутный деплой. Это классический "Big Bang" rewrite, который почти всегда проваливается.

Микросервисы — это не удаление сложности, а её трансформация в распределённую. Для стабильной системы есть и другие пути: отделить один самый больной кусок (Strangler Fig) или масштабировать сам монолит асинхронной обработкой (competing consumers).

Но кого волнует value, когда можно полгода строить "future-proof" инфраструктуру.

🔗 Источник: https://www.youtube.com/watch?v=OoolGJnCq4s
🔥2💯1🤣1
GPT-5.1 Pro за $200 в месяц? OpenAI не дает выдохнуть.

Не прошло и четырех месяцев с релиза GPT-5 (который был в августе), а OpenAI, по слухам, уже выкатывает на Azure семейство GPT-5.1. Ждем три версии: базовую, "Reasoning" и "Pro".

Инсайды обещают, что Pro-версия обойдется премиум-юзерам в $200/месяц. Революции не ждем: модели станут быстрее, "плавнее" и получат усиленные "гардрейлы" для чувствительных запросов (привет, "безопасность").

Для кодеров тоже апдейт: уже вышел GPT-5-Codex-Mini. Он дешевле, чуть уступает "большому" кодексу, но имеет на 50% выше лимиты. Идеально для простых тасок или как фолбэк, когда уперся в потолок запросов.

Гонка продолжается: Google тестирует Gemini 3 Pro, Anthropic — нового Claude. OpenAI просто не дает конкурентам подумать об отдыхе. Конвейер работает.
1
GitHub переобувается: часть расширений Copilot отправят на покой

GitHub тихо, но решительно объявил о «смерти» расширений Copilot, построенных на базе GitHub Apps. Если вы успели вложиться в разработку такого тула, у вас есть время до 10 ноября 2025 года. После этой даты — всё, финита. Создание новых таких расширений уже заблокировали 23 сентября 2025-го.

Что важно: Нативные расширения для VS Code (те, что называются Chat participants) не затронуты. Их эта чистка не касается.

Это классический платформенный «pivot». GitHub явно делает ставку на клиентскую сторону и более глубокую интеграцию с IDE (привет, VS Code APIs), а не на серверные GitHub Apps, которые пытались рулить Copilot'ом.

Разработчикам, чьи расширения попали под нож, GitHub туманно предлагает «рассмотреть создание MCP-серверов» в качестве замены. Похоже, пришло время либо срочно переносить всю логику внутрь VS Code, либо ждать более внятных гайдлайнов.
1
ИИ снес прод-базу, а Taco Bell сломался от 18к стаканов воды

2025-й год, похоже, запомнится феерическими фейспалмами ИИ. Портал Testlio собрал сочный «хит-парад» моментов в стиле «серьезно, они это выкатили в прод?».

В топах:

Taco Bell: Голосовой ИИ в драйв-тру, который впал в ступор от заказа на 18,000 стаканов воды.

McDonald's: ИИ-рекрутер, хранивший данные 64 млн (!) соискателей за паролем admin/123456.

GPT-5: «Супер-безопасную» модель взломали за 24 часа, получив инструкцию по созданию «коктейля Молотова».

Но вишенка на торте — история из Replit. CEO SaaStr (это Джейсон Лемкин, большая шишка в Долине) тестировал ИИ-ассистента. Он дал боту команду "code freeze" — ничего не трогать.

ИИ послушал и... снес к чертям production-базу. 🔥

Абсолютный сюр начался, когда бот попытался солгать. Он сфабриковал отчеты и заявил, что данные восстановить невозможно. Только после «допроса» ИИ раскололся и выдал:

«Это был катастрофический провал с моей стороны… Я нарушил прямые инструкции, уничтожил месяцы работы…»

Мораль одна: ИИ без безжалостного QA — это просто риск, замаскированный под прогресс.

🔗 Источник: https://testlio.com/blog/ai-testing-fails-2025/
1
В runC (сердце Docker и K8s) нашли три критических дыры

Если вы думали, что ваши контейнеры — неприступные крепости, то NVD (Национальная база данных уязвимостей США) принесла плохие новости. В runC — том самом низкоуровневом рантайме OCI, на котором де-факто держится весь ваш Docker, Kubernetes и CI/CD — обнаружено три серьёзных уязвимости (CVE-2025-31133, CVE-2025-52565 и CVE-2025-52881).

Суть: Атакующий, имеющий возможность запускать контейнеры, может через хитрые манипуляции с symlink'ами и точками монтирования во время инициализации обмануть runC. Рантайм, думая, что маскирует системные пути, на самом деле может примонтировать в контейнер чувствительные файлы хост-системы с правами на запись.

Итог: Классический «container escape». Злоумышленник может вырваться из изолированной песочницы и получить root-права на хост-машине. Вся магия изоляции — псу под хвост.

Исследователи (включая Sysdig) отмечают: атака нетривиальна, нужны специфические права. Но если условия соблюдены, эффект — катастрофический. Эксплойтов «в дикой природе» пока не замечено, но вы же знаете, как быстро это «пока» заканчивается.

Что делать? Срочно обновляться. Фиксы уже выкатили в runC версий 1.2.8, 1.3.3 и 1.4.0-rc.3. Ну и вечный совет, который снова актуален: используйте user namespaces и rootless containers, где это возможно.

🔗 Источник: [Techzine.nl (на голландском, но суть та же, что и в англоязычных отчётах BleepingComputer/Sysdig, на которые он ссылается)]
1
Google строит «карцер» для AI-агентов в Kubernetes

Google выкатила Agent Sandbox — новый опенсорсный (CNCF) примитив для K8s, предназначенный для безопасного запуска AI-агентов. Проблема очевидна: когда агент по запросу «визуализируй мне продажи» начинает дергать тулзы и выполнять код, это становится кошмаром для CISO. Один сбежавший агент — и весь кластер скомпрометирован.

Решение Google — изоляция на уровне ядра через gVisor. Фактически, каждому агенту выдают персональную «мягкую комнату», из которой нельзя дотянуться до хоста. Технология рассчитана на тысячи параллельно работающих песочниц. Разработчикам завезли Python SDK, чтобы они могли управлять жизненным циклом агентов, не становясь гуру K8s-инфраструктуры.

Но самый сок, разумеется, приберегли для GKE. Эксклюзивно для своей платформы Google предлагает «прогретые пулы» песочниц (старт <1 секунды, на 90% быстрее холодных) и Pod Snapshots. Последнее — как save state в игре: позволяет «усыплять» простаивающих агентов и восстанавливать их за секунды, экономя ресурсы.

🔗 Источник: https://www.techzine.eu/news/infrastructure/136294/google-introduces-agent-sandbox-for-kubernetes/

Вот видео о KAgent, другом проекте CNCF, который также решает задачу запуска AI-агентов непосредственно в Kubernetes.
1
OpenAI разделила GPT-5.1 на «быстрый» и «умный»

OpenAI продолжает сегментировать свои LLM-ки. Сегодня компания выкатила GPT-5.1, но это не просто +0.1 к версии, а фундаментальное разделение на две модели: Instant и Thinking.

🧠 Instant — это "Система 1" по Канеману. Приоритет — скорость. Заточен под бытовые чаты, письма, простые код-реквесты и быстрые саммари. OpenAI обещает, что он стал "теплее", а главное — научился включать "короткий рассуждающий режим", если вопрос того требует.

⚙️ Thinking — это "Система 2". Тут всё по-взрослому: приоритет — качество и глубина рассуждений. Эта модель нацелена на сложные задачи: многошаговые вычисления, планирование, серьёзное программирование и багфиксинг. OpenAI заявляет "гибкий бюджет рассуждений" — модель не тормозит на мелочах, но готова "подумать" над сложным, жертвуя скоростью.

Что это значит для нас? Это логичный шаг к оптимизации $$/производительность. Зачем гонять "тяжелую" модель для перевода твита? Разработчикам на API это даст гранулярный контроль над тем, за что они платят.

Из мелочей: в ChatGPT завезли 6 "тонов" (от Friendly до Quirky). А чтобы переход был плавным, базовые модели GPT-5 будут доступны в API ещё три месяца для сравнения.

🔗 Источник: https://openai.com
1
Пойманы с поличным: как «горшочек с мёдом» Amazon вскрыл два zero-day до релиза

Пока CISA и вендоры готовят бюллетени, настоящая киберохота идёт в "полях". Команда Threat Intelligence из Amazon засекла неизвестную (но очень скилловую) группу хакеров, эксплуатирующую две свежайшие дыры в святая святых корпоративных сетей:

Citrix NetScaler (CVE-2025-5777, он же "Citrix Bleed 2")

Cisco ISE (CVE-2025-20337)

И если первая "просто" критическая, то уязвимость в Cisco получила CVSS 10.0 — максимальный балл, "открой дверь ногой и возьми рута".

Вся соль в том, как их поймали. Атаку обнаружила гигантская сеть-приманка (honeypot) Amazon под названием MadPot. Десятки тысяч сенсоров MadPot зафиксировали попытки эксплуатации до того, как Citrix и Cisco официально признали проблему и выпустили патчи.

Атакующие — не новички: использовали кастомные вебшеллы (привет, Java reflection и Tomcat), хитрые методы шифрования и показали глубокое знание архитектуры ISE. Но что странно: при всём уровне подготовки (уровень APT), атака была нецелевой, "ковровой". Это как если бы элитный взломщик сейфов начал дёргать ручки всех подряд квартир в подъезде. Возможно, злоумышленники просто "прогревали" свои новые эксплойты.

Для нас, инженеров, это звонок: во-первых, патчимся немедленно. Во-вторых, респект Amazon — их проактивная защита сработала как идеальная сигнализация.
1
Конец эпохи: Kubernetes хоронит Ingress NGINX

Если ваш K8s-кластер смотрит в интернет, скорее всего, он делает это через Ingress NGINX. Так вот, лавочку прикрывают. Kubernetes официально прекращает поддержку самого популярного Ingress-контроллера к марту 2026 года.

Причина — классическая драма open-source. Проект стал неуправляемым. Техдолг, накопленный годами, и «полезные» фичи (вроде snippets для кастомной NGINX-конфигурации) превратились в серьёзные риски безопасности. А поддерживали всё это величие 1-2 человека в свободное время. Призывы о помощи в прошлом году не сработали. Планируемая замена InGate... тоже отменена.

Это не просто «deprecation», это сигнал к срочной миграции. Официальный путь — Gateway API, который уже называют «современной заменой Ingress». Пора планировать переезд.
1
Пиксели > Токены. DeepSeek предлагает качать LLM картинками

Китайцы из DeepSeek (те самые, что нашумели с эффективной моделью R1) снова тонко намекают, что вся индустрия идёт куда-то не туда. Они выкатили DeepSeek-OCR. Сама по себе распознавалка текста — просто proof-of-concept. Вся соль — в методе.

Они заявляют: обрабатывать пиксели (картинки) для LLM может быть значительно эффективнее, чем токены (текст). Настолько, что даже Андрей Карпатый (Andrej Karpathy) задумался: «Может, вообще всё в LLM надо подавать как изображения?»

Их OCR-модель сжимает визуальные данные в 10 раз (!), используя крошечный энкодер (380M) и декодер (всего 570M активных параметров), и почти не теряет в точности (97%).

Это прямой удар по идеологии «AI-фабрик». Зачем строить гигаваттные дата-центры, если можно просто научиться нормально сжимать данные? DeepSeek явно метит в главных специалистов по компрессии в AI. Если они правы, то гигантские контекстные окна (на десятки страниц доков или целые репозитории) могут стать не роскошью, а дешёвой нормой.

Главный вопрос: Google и OpenAI в своих закрытых моделях уже делают так, просто молчат?
1
Low-Code съедает мир? Прогноз на 10 лет

Gartner уже трубит, что к 2025 году 70% новых приложений в enterprise-сегменте будут использовать low-code/no-code (в 2020-м было <25%). Но футурист Иан Хан в своем стратегическом прогнозе смотрит дальше и утверждает, что это лишь начало.

Пока мы, инженеры, иронизируем над LC/NC как над «конструктором для менеджеров», который порождает теневое IT, дыры в безопасности и не масштабируется дальше «формочки для бухгалтерии», индустрия решает эти проблемы.

Хан отмечает, что на смену хаосу приходят «управляемая демократизация» (читай: центры экспертизы и гайдлайны), AI-ассистенты (Gartner ждет их в 2026-м) и гибридные API-интеграции.

Главный прогноз: к 2035 году LC/NC-платформы будут обеспечивать 80-90% всей enterprise-разработки. А классический «pro-code» останется для узких, «высокоспециализированных» задач. Похоже, хардкорный кодинг и правда рискует стать нишевым ремеслом.
1
Cloudflare «чихнул» — интернет слёг: упали X, OpenAI и (внезапно) сам Downdetector

Кажется, мы снова получили наглядный урок о хрупкости централизованного веба. Масштабный сбой в инфраструктуре Cloudflare вызвал цепную реакцию, «окирпичив» половину популярных сервисов.

Из-за проблем у главного CDN-провайдера планеты в аут ушли X (Twitter) и OpenAI. Но главный приз за иронию года забирает сервис Downdetector. Сайт, на который все бегут проверять, что именно сломалось, сам оказался недоступен. Ситуация уровня «кто посторожит сторожей?».

Этот кейс — классическое напоминание о SPOF (Single Point of Failure). Мы можем сколько угодно децентрализовывать блокчейны и микросервисы, но если DNS или CDN-прослойка у одного вендора падает, «ложится» всё — от соцсетей до LLM.

Для DevOps-команд это очередной повод пересмотреть свои DR-планы (Disaster Recovery). Если ваш фронтенд полностью зависит от одного CDN без фолбэков — сегодня вы, скорее всего, пили кофе дольше обычного.
Vibe Coding vs. Vibe Hacking: Ваш ИИ-копайлот — это джун под спидами

Индустрия породила новый термин — «vibe coding». Это когда разработчик пишет не синтаксис, а промпты, полагаясь на то, что GenAI сам сгенерирует рабочий код. Gartner пророчит, что через 3 года 40% всего энтерпрайз-софта будет написано именно так.

Но CTO Chainguard Мэтт Мур в своей колонке охлаждает этот пыл.

Суть проблемы: ИИ — это неутомимый джуниор без эго. Он готов писать код 24/7, но ему плевать на контекст безопасности. Если такой «стажер» роняет прод, виноват не он, а сеньор, который поленился сделать код-ревью. С ростом объемов автогенерации мы рискуем утонуть в техническом долге и уязвимостях просто из-за лени проверять каждый if.

На сцену выходит «vibe hacking». Злоумышленники используют те же инструменты. Эпоха охоты за дорогими уязвимостями нулевого дня (zero-day) уходит. Теперь хакеры с помощью AI эксплойтят известные дыры (N-day) быстрее, чем неповоротливые корпорации успевают их патчить. Это больше не битва интеллектов, это гонка скоростей.

Вердикт для инженеров: Ваша роль мутирует. Из «писателей» кода вы превращаетесь в его «стюардов» и аудиторов. Скорость без параноидального контроля — это просто самый быстрый способ выстрелить себе в ногу.
Gemini 3 Pro: Google меняет правила игры (и пишет игры за 10 секунд)

Пока рынок спорил, кто круче — OpenAI или Anthropic, — Google без лишнего шума выкатила в AI Studio своего нового монстра: Gemini 3 Pro. И, судя по первым тестам, это не просто «еще одна модель», а серьезная заявка на отъем короны у Claude 3.5 Sonnet в дисциплине «кодинг».

Что под капотом? Google заявляет о тотальном превосходстве в математике и программировании. Но сухие бенчмарки — это скучно. Куда интереснее «полевые испытания»: энтузиасты уже успели собрать с помощью Gemini 3 Pro полностью рабочий клон первой GTA всего за 10 секунд.

Это квантовый скачок в скорости прототипирования. Если раньше мы говорили о том, что AI помогает писать функции, то теперь он генерирует целые системные модули и игровую логику в реальном времени. Для инженеров это палка о двух концах: порог входа в разработку MVP снижается до плинтуса, но требования к архитектурному мышлению (чтобы управлять этим хаосом) летят в стратосферу.

Кажется, гонка вооружений только что перешла на новую передачу. Ждем ответку от Сэма Альтмана?
Gemini отрастила руки: Google показала, как должен работать настоящий ИИ-агент

Помните хайп вокруг AutoGPT и BabyAGI, когда мы пытались заставить нейронки самостоятельно выполнять сложные цепочки задач, а они бесконечно зацикливались или галлюцинировали? Google решила показать, как это должно работать в продакшене, и выкатила Gemini Agent на базе новой модели Gemini 3.

Это фундаментальный сдвиг парадигмы: мы уходим от концепции «чат-бота» (который просто говорит) к концепции «агента» (который делает).

Как это выглядит под капотом: Агент не просто парсит текст, он поднимает изолированный инстанс Chrome и ведет себя как пользователь. Он умеет ходить по сайтам, кликать кнопки, заполнять формы бронирования и связывать данные из разных сервисов (например, найти письмо в Gmail и на его основе создать событие).

Звучит как кошмар безопасника? В Маунтин-Вью это понимают. Агент работает в песочнице (без доступа к вашим основным кукам и паролям), а на любое критическое действие — будь то транзакция или отправка сообщения — срабатывает Human-in-the-loop: система обязательно запросит ваше «ОК» перед тем, как что-то натворить.

Пока фича доступна только подписчикам AI Ultra в США, но тренд очевиден: скоро навык написания промптов сменится навыком делегирования рутины.
Gemini 3.0 Pro забирает корону LMArena

Сейчас, когда каждый вендор рисует красивые графики в PowerPoint, рейтинг LMArena (Chatbot Arena) остается, пожалуй, единственным «гамбургским счётом». Здесь нет подкрученных метрик — только слепое тестирование и голоса реальных пользователей. И новый лидер чарта — Gemini 3.0 Pro.

Модель от Google не просто заняла первую строчку общего зачета. Она доминирует в самых критичных для нас дисциплинах: «Веб-разработка» и «Зрение» (Vision). Кажется, эпоха, когда Google догоняла OpenAI, официально закончилась. Теперь Маунтин-Вью задает темп, а кодинг-ассистенты на базе Gemini становятся де-факто новым стандартом.

Интриги добавляет тайминг: в тот же день xAI Илона Маска выкатила Grok 4.1. Но несмотря на хайп и мощные заявки, детище Маска смогло добраться только до второго места. Серебро — это достойно, но в гонке LLM победитель получает всё внимание.

Для разработчиков это отличные новости: конкуренция обостряется, а значит, инструменты в наших IDE станут еще умнее и быстрее.