TIME выбрал «Архитекторов ИИ» Человеком года.
В прошлом году TIME отмечал Тейлор Свифт, а в этом решил не мелочиться и вывел на обложку всю «Лигу выдающихся инженеров» Кремниевой долины. Титул коллективно уходит Дженсену Хуангу, Лизе Су, Сэму Альтману, Демису Хассабису, Дарио Амодеи, Цукербергу и Маску.
Журналисты метко подметили главный пивот года: разговоры об «этике» сменились безумным спринтом деплоя. Мы наблюдаем «Манхэттенский проект» 2.0 в прямом эфире, где роли распределены предельно четко:
Фундамент (Железо): Дженсен Хуанг (Nvidia) и Лиза Су (AMD). Без их битвы за флопсы и архитектуры (Blackwell против MI300) вся эта революция осталась бы математической абстракцией. Они — единственные, кто продает лопаты, пока остальные ищут золото.
Архитекторы (Модели): Хассабис (DeepMind), Альтман (OpenAI) и Амодеи (Anthropic). Это битва методологий. Хассабис пушит науку и мультимодальность (Gemini, AlphaFold), Амодеи пытается продать «безопасность» (Claude), а Альтман просто хочет AGI любой ценой.
Джокеры: Цукерберг внезапно стал главным союзником разработчиков, выложив веса Llama в опенсорс и ломая бизнес-модели закрытых лаб. Маск (xAI) же берет грубой силой, строя крупнейшие кластеры (Colossus) за рекордные сроки.
Признание TIME легитимизирует ИИ не как софтверный хайп, а как геополитический ресурс. Для индустрии это сигнал: эпоха «гаражных экспериментов» заканчивается. Теперь это игра бюджетов уровня ВВП небольших стран, где код неотделим от гигаватт энергии и тысяч GPU.
В прошлом году TIME отмечал Тейлор Свифт, а в этом решил не мелочиться и вывел на обложку всю «Лигу выдающихся инженеров» Кремниевой долины. Титул коллективно уходит Дженсену Хуангу, Лизе Су, Сэму Альтману, Демису Хассабису, Дарио Амодеи, Цукербергу и Маску.
Журналисты метко подметили главный пивот года: разговоры об «этике» сменились безумным спринтом деплоя. Мы наблюдаем «Манхэттенский проект» 2.0 в прямом эфире, где роли распределены предельно четко:
Фундамент (Железо): Дженсен Хуанг (Nvidia) и Лиза Су (AMD). Без их битвы за флопсы и архитектуры (Blackwell против MI300) вся эта революция осталась бы математической абстракцией. Они — единственные, кто продает лопаты, пока остальные ищут золото.
Архитекторы (Модели): Хассабис (DeepMind), Альтман (OpenAI) и Амодеи (Anthropic). Это битва методологий. Хассабис пушит науку и мультимодальность (Gemini, AlphaFold), Амодеи пытается продать «безопасность» (Claude), а Альтман просто хочет AGI любой ценой.
Джокеры: Цукерберг внезапно стал главным союзником разработчиков, выложив веса Llama в опенсорс и ломая бизнес-модели закрытых лаб. Маск (xAI) же берет грубой силой, строя крупнейшие кластеры (Colossus) за рекордные сроки.
Признание TIME легитимизирует ИИ не как софтверный хайп, а как геополитический ресурс. Для индустрии это сигнал: эпоха «гаражных экспериментов» заканчивается. Теперь это игра бюджетов уровня ВВП небольших стран, где код неотделим от гигаватт энергии и тысяч GPU.
❤1
На чем писать код и строить продукты в конце 2025?
Пока TIME раздает награды CEO, инженеров волнует другое: чей API стабильнее и где меньше галлюцинаций. Собрал актуальный срез по флагманам тех самых «людей года».
⚔️ Лидеры рынка (Декабрь 2025):
🔹 Gemini 3.0 (Google) ├ Суперсила: Deep Agents & Physics. └ Суть: Это больше не просто чат-бот. Модель понимает физику мира и интерфейсов. Она не просто «пишет код», она может сама задеплоить его в облако, покликать в UI и найти баги. Идеально для автоматизации рутины внутри Android и Workspace.
🔹 Claude 4 Opus (Anthropic) ├ Суперсила: Architecture & Code Flow. └ Суть: Всё ещё король IDE. Если нужно спроектировать микросервисную архитектуру или отрефакторить сложный модуль без потери контекста — это к нему. Меньше всех галлюцинирует в сложных задачах.
🔹 OpenAI o2 / GPT-5 ├ Суперсила: Deep Reasoning (CoT 2.0). └ Суть: Медленная, но очень умная. Если Gemini — это «руки», то o2 — это «мозг». Решает олимпиадные задачи по математике и находит логические дыры в контрактах или алгоритмах, которые пропустили остальные.
🔹 Llama 4 (Meta) ├ Суперсила: Sovereignty. └ Суть: 405B параметров, которые работают локально (ну, почти). Стандарт де-факто для энтерпрайза, которому важна приватность. Единственная топ-модель, которую можно дообучить на своих данных "в ноль".
🔹 Grok-3 (xAI) ├ Суперсила: Now-casting. └ Суть: Прямой доступ к «нервной системе» интернета (X/Twitter). Лучший инструмент для OSINT, трейдинга и аналитики новостей в реальном времени, где задержка в 10 минут критична.
Гонка параметров замедлилась, началась гонка агентности. В 2026-й мы входим с четким разделением: Gemini делает, Claude пишет, OpenAI думает, а Llama хранит секреты.
🔗 Источник: Сводные данные Hugging Face Leaderboard (Dec 2025)
Пока TIME раздает награды CEO, инженеров волнует другое: чей API стабильнее и где меньше галлюцинаций. Собрал актуальный срез по флагманам тех самых «людей года».
⚔️ Лидеры рынка (Декабрь 2025):
🔹 Gemini 3.0 (Google) ├ Суперсила: Deep Agents & Physics. └ Суть: Это больше не просто чат-бот. Модель понимает физику мира и интерфейсов. Она не просто «пишет код», она может сама задеплоить его в облако, покликать в UI и найти баги. Идеально для автоматизации рутины внутри Android и Workspace.
🔹 Claude 4 Opus (Anthropic) ├ Суперсила: Architecture & Code Flow. └ Суть: Всё ещё король IDE. Если нужно спроектировать микросервисную архитектуру или отрефакторить сложный модуль без потери контекста — это к нему. Меньше всех галлюцинирует в сложных задачах.
🔹 OpenAI o2 / GPT-5 ├ Суперсила: Deep Reasoning (CoT 2.0). └ Суть: Медленная, но очень умная. Если Gemini — это «руки», то o2 — это «мозг». Решает олимпиадные задачи по математике и находит логические дыры в контрактах или алгоритмах, которые пропустили остальные.
🔹 Llama 4 (Meta) ├ Суперсила: Sovereignty. └ Суть: 405B параметров, которые работают локально (ну, почти). Стандарт де-факто для энтерпрайза, которому важна приватность. Единственная топ-модель, которую можно дообучить на своих данных "в ноль".
🔹 Grok-3 (xAI) ├ Суперсила: Now-casting. └ Суть: Прямой доступ к «нервной системе» интернета (X/Twitter). Лучший инструмент для OSINT, трейдинга и аналитики новостей в реальном времени, где задержка в 10 минут критична.
Гонка параметров замедлилась, началась гонка агентности. В 2026-й мы входим с четким разделением: Gemini делает, Claude пишет, OpenAI думает, а Llama хранит секреты.
🔗 Источник: Сводные данные Hugging Face Leaderboard (Dec 2025)
GPT-5.2 вышла. OpenAI отвечает на угрозу Gemini 3
Сэм Альтман не стал ждать красивой даты и выкатил обновление GPT-5.2 на месяц раньше плана. Причина прозаична и лестна для конкурентов — дышащая в спину Gemini 3 от Google, которая грозилась перетянуть одеяло на себя.
Для инженерного сообщества это не просто патч, а серьезный апгрейд. Если верить бенчмаркам, перед нами самый значимый буст в кодинге, UI и фронтенде со времен выхода оригинальной GPT-5.
Что «под капотом»:
Количество галлюцинаций снизилось на 30% по сравнению с версией 5.1. Дебажить за нейросетью придется реже.
Контекстное окно увеличили кратно, заявив точность обработки (recall) на уровне 100%. RAG-архитектурам придется потесниться?
Модель стала заметно шустрее, особенно в сложных цепочках рассуждений (CoT).
Cutoff знаний сдвинули на август 2025 года.
Гонка вооружений ускоряется до пугающих скоростей. Если OpenAI вынуждена ломать роадмап из-за релиза Google, значит, Gemini 3 действительно представляет угрозу монополии Альтмана. Для нас, пользователей и разработчиков, это отличная новость — конкуренция двигает прогресс быстрее, чем любые инвестиции. Ждем ответного хода от Корпорации Добра.
Сэм Альтман не стал ждать красивой даты и выкатил обновление GPT-5.2 на месяц раньше плана. Причина прозаична и лестна для конкурентов — дышащая в спину Gemini 3 от Google, которая грозилась перетянуть одеяло на себя.
Для инженерного сообщества это не просто патч, а серьезный апгрейд. Если верить бенчмаркам, перед нами самый значимый буст в кодинге, UI и фронтенде со времен выхода оригинальной GPT-5.
Что «под капотом»:
Количество галлюцинаций снизилось на 30% по сравнению с версией 5.1. Дебажить за нейросетью придется реже.
Контекстное окно увеличили кратно, заявив точность обработки (recall) на уровне 100%. RAG-архитектурам придется потесниться?
Модель стала заметно шустрее, особенно в сложных цепочках рассуждений (CoT).
Cutoff знаний сдвинули на август 2025 года.
Гонка вооружений ускоряется до пугающих скоростей. Если OpenAI вынуждена ломать роадмап из-за релиза Google, значит, Gemini 3 действительно представляет угрозу монополии Альтмана. Для нас, пользователей и разработчиков, это отличная новость — конкуренция двигает прогресс быстрее, чем любые инвестиции. Ждем ответного хода от Корпорации Добра.
Микросервисы не тормозят разработку. Её тормозят плохие границы.
В ветке на Reddit разгорелся пожар: команды жалуются, что переход на микросервисы превратил релизы в ад, а отладку — в ночной кошмар. Но давайте честно: проблема не в самой архитектуре, а в том, что индустрия часто путает декомпозицию с фрагментацией.
Микросервисы — это не просто «много маленьких приложений». Это свобода. Свобода выбирать стек, свобода деплоить независимо и свобода масштабировать команды без бесконечных митингов. Если вместо этого вы получили тормоза — значит, вы построили не микросервисы, а Распределенный Монолит.
Хорошая новость: это лечится. Вот как превратить боль в ту самую скорость, ради которой всё затевалось:
🚀 Как вернуть скорость (советы из треда):
DDD — ваш лучший друг. Проблема «Shotgun surgery» (когда одна фича требует правок в 5 сервисах) решается не слиянием кода, а уточнением границ. Пересмотрите свои Bounded Contexts. Сервис должен владеть бизнес-процессом целиком, а не быть просто хранилищем для таблицы в БД.
Синхронность — зло. Если сервис А ждет ответа от сервиса Б, чтобы ответить клиенту — вы связали их цепями. Переход на Event-Driven Architecture (событийную модель) возвращает независимость. Пусть сервисы общаются фактами («Заказ создан»), а не приказами («Создай счет»).
Контракты как броня. Consumer-Driven Contracts (например, Pact) позволяют менять внутренности сервиса без страха сломать соседей. Это дает уверенность при рефакторинге.
Культура > Код. Микросервисы работают там, где команде дают полную ответственность за продукт (You build it, you run it). Это убирает бюрократию передачи задач между отделами.
Микросервисы — это мощный инструмент для зрелых команд. Если сейчас тяжело — это не повод всё сносить, это повод пересмотреть границы ответственности. Когда пазл складывается правильно, скорость разработки действительно возрастает кратно.
В ветке на Reddit разгорелся пожар: команды жалуются, что переход на микросервисы превратил релизы в ад, а отладку — в ночной кошмар. Но давайте честно: проблема не в самой архитектуре, а в том, что индустрия часто путает декомпозицию с фрагментацией.
Микросервисы — это не просто «много маленьких приложений». Это свобода. Свобода выбирать стек, свобода деплоить независимо и свобода масштабировать команды без бесконечных митингов. Если вместо этого вы получили тормоза — значит, вы построили не микросервисы, а Распределенный Монолит.
Хорошая новость: это лечится. Вот как превратить боль в ту самую скорость, ради которой всё затевалось:
🚀 Как вернуть скорость (советы из треда):
DDD — ваш лучший друг. Проблема «Shotgun surgery» (когда одна фича требует правок в 5 сервисах) решается не слиянием кода, а уточнением границ. Пересмотрите свои Bounded Contexts. Сервис должен владеть бизнес-процессом целиком, а не быть просто хранилищем для таблицы в БД.
Синхронность — зло. Если сервис А ждет ответа от сервиса Б, чтобы ответить клиенту — вы связали их цепями. Переход на Event-Driven Architecture (событийную модель) возвращает независимость. Пусть сервисы общаются фактами («Заказ создан»), а не приказами («Создай счет»).
Контракты как броня. Consumer-Driven Contracts (например, Pact) позволяют менять внутренности сервиса без страха сломать соседей. Это дает уверенность при рефакторинге.
Культура > Код. Микросервисы работают там, где команде дают полную ответственность за продукт (You build it, you run it). Это убирает бюрократию передачи задач между отделами.
Микросервисы — это мощный инструмент для зрелых команд. Если сейчас тяжело — это не повод всё сносить, это повод пересмотреть границы ответственности. Когда пазл складывается правильно, скорость разработки действительно возрастает кратно.
👍1
Микки Маус, Вейдер и $1 млрд: Disney официально приходит в OpenAI
Случилось то, что ещё пару лет назад казалось юридической фантастикой. Disney — корпорация, которая готова засудить детский сад за рисунок на стене, — заключила сделку с OpenAI. Вместо бесконечных исков за копирайт Боб Айгер выбрал стратегию «не можешь победить — возглавь (и инвестируй)».
В ближайшие три года в Sora и ChatGPT официально появятся более 200 персонажей Disney, Pixar, Marvel и Star Wars. Пользователи смогут генерировать видео и картинки с легальными световыми мечами и ушами Микки.
Тонкости и ограничения:
Никаких дипфейков реальных актеров. Скарлетт Йоханссон может спать спокойно (особенно после скандала с голосом Sky): генерировать можно только анимированные или рисованные версии персонажей.
Disney не просто дает лицензию, но и инвестирует в OpenAI $1 млрд, а также становится крупным корпоративным клиентом, внедряя API OpenAI в свои внутренние инструменты.
Это тектонический сдвиг для индустрии Generative AI. До этого момента студии и бигтех находились в состоянии холодной войны из-за обучающих данных. Сделка Disney легитимизирует использование защищенного IP в генеративных моделях. Для разработчиков это сигнал: рынок движется от «дикого запада» к лицензируемым API и легальным песочницам.
Ждем начало 2026 года, когда ленты соцсетей захлестнет волна легальных кроссоверов, где Дарт Вейдер пьет чай с Баззом Лайтером.
Случилось то, что ещё пару лет назад казалось юридической фантастикой. Disney — корпорация, которая готова засудить детский сад за рисунок на стене, — заключила сделку с OpenAI. Вместо бесконечных исков за копирайт Боб Айгер выбрал стратегию «не можешь победить — возглавь (и инвестируй)».
В ближайшие три года в Sora и ChatGPT официально появятся более 200 персонажей Disney, Pixar, Marvel и Star Wars. Пользователи смогут генерировать видео и картинки с легальными световыми мечами и ушами Микки.
Тонкости и ограничения:
Никаких дипфейков реальных актеров. Скарлетт Йоханссон может спать спокойно (особенно после скандала с голосом Sky): генерировать можно только анимированные или рисованные версии персонажей.
Disney не просто дает лицензию, но и инвестирует в OpenAI $1 млрд, а также становится крупным корпоративным клиентом, внедряя API OpenAI в свои внутренние инструменты.
Это тектонический сдвиг для индустрии Generative AI. До этого момента студии и бигтех находились в состоянии холодной войны из-за обучающих данных. Сделка Disney легитимизирует использование защищенного IP в генеративных моделях. Для разработчиков это сигнал: рынок движется от «дикого запада» к лицензируемым API и легальным песочницам.
Ждем начало 2026 года, когда ленты соцсетей захлестнет волна легальных кроссоверов, где Дарт Вейдер пьет чай с Баззом Лайтером.
ИИ-пузырь и призрак 2008 года: кто оплатит банкет на $7 трлн?
Пока инвесторы молятся на свечи графиков Nvidia, аналитики The Atlantic бьют тревогу: нынешняя схема финансирования ИИ-бума пугающе напоминает прелюдию к Великой рецессии. Только вместо токсичных ипотечных деривативов у нас теперь — «облачные» схемы перекрестного опыления.
Рынок превратился в закрытый клуб (Microsoft, Nvidia, OpenAI, CoreWeave и др.), где все инвестируют друг в друга. Nvidia дает денег стартапу, стартап на эти деньги покупает чипы у Nvidia, Nvidia отчитывается о рекордной выручке. Круг замкнулся, акции растут, реальный приток денег извне — под вопросом.
На кону астрономические $7 трлн инвестиций в инфраструктуру до 2030 года. Эти ресурсы высасываются из других секторов экономики. Самая циничная (и исторически достоверная) теория гласит: цель Биг Теха — построить физическую инфраструктуру (дата-центры и железо) любой ценой.
А дальше? А дальше нужен кризис. Идеальный шторм позволит списать триллионные долги на «форс-мажор» и налогоплательщиков, оставив реальные активы (те самые GPU-кластеры) в руках гигантов. Ровно так же строились железные дороги в XIX веке: рельсы остались, а мелкие инвесторы пошли по миру.
Пока инвесторы молятся на свечи графиков Nvidia, аналитики The Atlantic бьют тревогу: нынешняя схема финансирования ИИ-бума пугающе напоминает прелюдию к Великой рецессии. Только вместо токсичных ипотечных деривативов у нас теперь — «облачные» схемы перекрестного опыления.
Рынок превратился в закрытый клуб (Microsoft, Nvidia, OpenAI, CoreWeave и др.), где все инвестируют друг в друга. Nvidia дает денег стартапу, стартап на эти деньги покупает чипы у Nvidia, Nvidia отчитывается о рекордной выручке. Круг замкнулся, акции растут, реальный приток денег извне — под вопросом.
На кону астрономические $7 трлн инвестиций в инфраструктуру до 2030 года. Эти ресурсы высасываются из других секторов экономики. Самая циничная (и исторически достоверная) теория гласит: цель Биг Теха — построить физическую инфраструктуру (дата-центры и железо) любой ценой.
А дальше? А дальше нужен кризис. Идеальный шторм позволит списать триллионные долги на «форс-мажор» и налогоплательщиков, оставив реальные активы (те самые GPU-кластеры) в руках гигантов. Ровно так же строились железные дороги в XIX веке: рельсы остались, а мелкие инвесторы пошли по миру.
Как внедрить Copilot, чтобы им никто не пользовался?
История, которая выглядит как сатира, но слишком болезненно напоминает реальность любого крупного энтерпрайза. Специалист по кибербезопасности (анонимно, разумеется) расписал анатомию «успешного» внедрения ИИ в корпорацию.
Суть кейса: Компания купила 4 000 лицензий Microsoft Copilot ($30/юзер в месяц). Бюджет — $1,4 млн в год. Совет директоров в восторге от фразы «цифровая трансформация». Реальность? Через три месяца инструментом пользовались 12 человек. Один из них — сам внедренец, который тратил 45 секунд на генерацию саммари письма, которое читается за 30.
Самый показательный момент — диалог со старшим разработчиком. На вопрос «Почему не Claude или ChatGPT?» (которые реально работают), был дан универсальный ответ-затычка: «Корпоративная безопасность» и «Compliance». После этого разработчику назначили «беседу о развитии карьеры», чтобы лишних вопросов не задавал.
Что в итоге? Microsoft опубликовала «историю успеха» с выдуманной экономией в 40 000 часов (никто ничего не проверял).
CEO получил 3000 лайков в LinkedIn.
Автор ждет повышения до старшего вице-президента.
Это блестящая иллюстрация того, как в корпоративном мире график «ИИ-вовлеченности» (метрика, придуманная на ходу) важнее реального написания кода. Если ваш менеджер требует внедрить ИИ «для галочки» — теперь вы знаете, как выглядит этот процесс изнутри.
История, которая выглядит как сатира, но слишком болезненно напоминает реальность любого крупного энтерпрайза. Специалист по кибербезопасности (анонимно, разумеется) расписал анатомию «успешного» внедрения ИИ в корпорацию.
Суть кейса: Компания купила 4 000 лицензий Microsoft Copilot ($30/юзер в месяц). Бюджет — $1,4 млн в год. Совет директоров в восторге от фразы «цифровая трансформация». Реальность? Через три месяца инструментом пользовались 12 человек. Один из них — сам внедренец, который тратил 45 секунд на генерацию саммари письма, которое читается за 30.
Самый показательный момент — диалог со старшим разработчиком. На вопрос «Почему не Claude или ChatGPT?» (которые реально работают), был дан универсальный ответ-затычка: «Корпоративная безопасность» и «Compliance». После этого разработчику назначили «беседу о развитии карьеры», чтобы лишних вопросов не задавал.
Что в итоге? Microsoft опубликовала «историю успеха» с выдуманной экономией в 40 000 часов (никто ничего не проверял).
CEO получил 3000 лайков в LinkedIn.
Автор ждет повышения до старшего вице-президента.
Это блестящая иллюстрация того, как в корпоративном мире график «ИИ-вовлеченности» (метрика, придуманная на ходу) важнее реального написания кода. Если ваш менеджер требует внедрить ИИ «для галочки» — теперь вы знаете, как выглядит этот процесс изнутри.
Mistral выпустил Devstral 2
Пока техногиганты соревнуются в гигантомании параметров, французская Mistral AI делает точечный, но болезненный для конкурентов укол. Встречайте Devstral 2 — специализированную модель для кодинга, которая не просто конкурирует с топами, но и готова жить прямо на вашем ноутбуке.
В чем соль? Mistral выпустила не только мощную API-версию, но и «облегченный», но злой open-source вариант, оптимизированный для локального запуска.
Почему это game changer для индустрии:
Приватность 80 уровня: Ваш проприетарный код больше не нужно отправлять на сервера в Калифорнию. Для Enterprise-сектора и параноиков из службы безопасности — это аргумент, перевешивающий всё.
Нулевой Latency: Когда «второй пилот» сидит прямо в IDE, а не на другом конце океана, автокомплит работает со скоростью мысли, а не со скоростью пинга.
Дешевизна: Инференс на собственном железе стоит примерно... электричество.
Это классический ход «Давида против Голиафа». Mistral дает разработчикам швейцарский нож вместо промышленного станка: он легче, всегда под рукой и не требует подключения к заводской электросети. Кажется, тренд на локальные LLM в 2025 году окончательно закрепляется.
Пока техногиганты соревнуются в гигантомании параметров, французская Mistral AI делает точечный, но болезненный для конкурентов укол. Встречайте Devstral 2 — специализированную модель для кодинга, которая не просто конкурирует с топами, но и готова жить прямо на вашем ноутбуке.
В чем соль? Mistral выпустила не только мощную API-версию, но и «облегченный», но злой open-source вариант, оптимизированный для локального запуска.
Почему это game changer для индустрии:
Приватность 80 уровня: Ваш проприетарный код больше не нужно отправлять на сервера в Калифорнию. Для Enterprise-сектора и параноиков из службы безопасности — это аргумент, перевешивающий всё.
Нулевой Latency: Когда «второй пилот» сидит прямо в IDE, а не на другом конце океана, автокомплит работает со скоростью мысли, а не со скоростью пинга.
Дешевизна: Инференс на собственном железе стоит примерно... электричество.
Это классический ход «Давида против Голиафа». Mistral дает разработчикам швейцарский нож вместо промышленного станка: он легче, всегда под рукой и не требует подключения к заводской электросети. Кажется, тренд на локальные LLM в 2025 году окончательно закрепляется.
👍1🔥1
Rust 1.92.0: Когда компилятор снова стал умнее (и строже) вас
Если ваш DevOps на днях проснулся в холодном поту — скорее всего, это выкатили Rust 1.92.0. Свежий релиз «краба» подъехал 11 декабря, и это тот случай, когда чейнджлог нужно читать не за чашкой кофе, а держа палец на кнопке перезапуска CI/CD.
Команда Rust продолжает полировать тулчейн. В версии 1.92.0 фокус сместился на стабильность и производительность компилятора. Но мы-то знаем, что скрывается за формулировкой «улучшения и изменения»: новые правила линтеров.
Почему это больно (и полезно): Для команд, у которых в пайплайнах прописано жесткое deny(warnings), этот релиз — гарантированный «красный свет» на сборке. Компилятор научился находить новые нюансы, которые раньше считались нормой, а теперь — warning.
Это классическая дилемма Rust: обновление бьёт по скорости поставки здесь и сейчас (привет, рефакторинг миграций), но в долгосрок — это чистый ROI. Код становится чище, а баги отлавливаются еще до того, как попадут в прод.
Совет: Не откладывайте обновление rustup. Лучше потратить час на разбор новых варнингов сейчас, чем потом разгребать технический долг, когда версия 1.92.0 станет legacy.
🔗 Источник: Rust Blog
Если ваш DevOps на днях проснулся в холодном поту — скорее всего, это выкатили Rust 1.92.0. Свежий релиз «краба» подъехал 11 декабря, и это тот случай, когда чейнджлог нужно читать не за чашкой кофе, а держа палец на кнопке перезапуска CI/CD.
Команда Rust продолжает полировать тулчейн. В версии 1.92.0 фокус сместился на стабильность и производительность компилятора. Но мы-то знаем, что скрывается за формулировкой «улучшения и изменения»: новые правила линтеров.
Почему это больно (и полезно): Для команд, у которых в пайплайнах прописано жесткое deny(warnings), этот релиз — гарантированный «красный свет» на сборке. Компилятор научился находить новые нюансы, которые раньше считались нормой, а теперь — warning.
Это классическая дилемма Rust: обновление бьёт по скорости поставки здесь и сейчас (привет, рефакторинг миграций), но в долгосрок — это чистый ROI. Код становится чище, а баги отлавливаются еще до того, как попадут в прод.
Совет: Не откладывайте обновление rustup. Лучше потратить час на разбор новых варнингов сейчас, чем потом разгребать технический долг, когда версия 1.92.0 станет legacy.
🔗 Источник: Rust Blog
Microsoft опубликовала мануал по настройке Blue-Green
Чтобы релизы в облаке окончательно перестали напоминать русскую рулетку, Microsoft выкатила подробный мануал по настройке Blue-Green deployment в Azure Container Apps, используя свой Azure Developer CLI (azd).
Вместо того чтобы «гасить» прод и надеяться, что новый билд взлетит, azd теперь позволяет элегантно дирижировать версиями. Вы поднимаете новую ревизию (Green) параллельно с живой (Blue). Трафик переключается только тогда, когда новая версия подтвердит свою жизнеспособность.
Microsoft наконец-то делает сложные CI/CD паттерны доступными «из коробки» без необходимости писать километровые YAML-простыни с нуля. Используя хуки в azure.yaml и GitHub Actions, инструмент сам управляет переключением трафика.
Это, по сути, страховка от «ой, прод упал». Если новая версия окажется с багом, пользователи этого даже не заметят, а вы просто тихо удалите контейнер, не краснея перед менеджером.
Практика build once, deploy everywhere в действии — и с человеческим лицом.
🔗 Источник: Microsoft DevBlogs
Чтобы релизы в облаке окончательно перестали напоминать русскую рулетку, Microsoft выкатила подробный мануал по настройке Blue-Green deployment в Azure Container Apps, используя свой Azure Developer CLI (azd).
Вместо того чтобы «гасить» прод и надеяться, что новый билд взлетит, azd теперь позволяет элегантно дирижировать версиями. Вы поднимаете новую ревизию (Green) параллельно с живой (Blue). Трафик переключается только тогда, когда новая версия подтвердит свою жизнеспособность.
Microsoft наконец-то делает сложные CI/CD паттерны доступными «из коробки» без необходимости писать километровые YAML-простыни с нуля. Используя хуки в azure.yaml и GitHub Actions, инструмент сам управляет переключением трафика.
Это, по сути, страховка от «ой, прод упал». Если новая версия окажется с багом, пользователи этого даже не заметят, а вы просто тихо удалите контейнер, не краснея перед менеджером.
Практика build once, deploy everywhere в действии — и с человеческим лицом.
🔗 Источник: Microsoft DevBlogs
This media is not supported in your browser
VIEW IN TELEGRAM
В России собрали специальную ёлку для айтишников.
😁2
GPT-5.2 Thinking против Gemini 3 Pro: что выбрать разработчику?
Конец 2025 года принес нам долгожданный паритет. Google наконец-то выкатила модель, которая не просто дышит в спину OpenAI, а в некоторых сценариях нагло обходит её на поворотах. Мы изучили тесты обеих новинок — от архитектуры до вайб-кодинга — и вот что нужно знать инженерам.
🧠 Логика и Код: Кто пишет чище? На бумаге (в бенчмарках) GPT-5.2 Thinking — абсолютный монстр с 100% в математическом AIME. Но в реальном кодинге ситуация тоньше:
GPT-5.2 (Стиль «Over-engineering»): На просьбу написать виджет карты выдала сложный код с 3D-эффектами и поворотами. Красиво? Да. Работает? Нет, поехала вёрстка на простых инпутах. Типичный сеньор, который увлекся архитектурой и забыл про CSS-grid.
Gemini 3 Pro (Стиль «MVP»): Код чище, короче (371 строка против 683), но с классической «галлюцинацией» — попыталась подтянуть картинку по несуществующему URL.
Серый кардинал: Иронично, но в чистом кодинге (SWE-bench) обе модели всё еще проигрывают Claude Opus 4.5. Если вам нужен просто рабочий код, Anthropic пока держит корону.
👀 Мультимодальность: Зрение против Контекста Здесь философия моделей расходится кардинально. В тесте на распознавание иконок (без подписей) GPT-5.2 вела себя как OCR-движок: долго думала, нарезала картинку, анализировала пиксели. Результат точный, но процесс мучительный. Gemini 3 Pro схитрила: она прочитала название файла, поняла бренд техники и подтянула документацию из своей базы знаний. Для разработчиков AI-агентов это важный сигнал: Gemini лучше работает с контекстом, а не только с сырыми данными.
⚠️ Особенности эксплуатации
Контекстное окно: Gemini предлагает царский 1 млн токенов против 400к у GPT. Для скармливания документации или больших логов Google сейчас вне конкуренции.
Цензура и «Вайб»: GPT-5.2 стала совсем «корпоративной». Она отказалась писать сатирический стих (якобы нарушение прав стиля), выдав пресную инструкцию. Gemini задачу выполнила, хоть и кринжово. Если вы используете LLM для креатива или генерации нестандартных данных — OpenAI может душнить.
🎯 Итог для разработчика GPT-5.2 Thinking — это ваш идеальный стажер-отличник. Надежный, знает матан, но шаг влево-вправо от инструкции вызывает ступор или оверинжиниринг. Идеально для рефакторинга и документации.
Gemini 3 Pro — талантливый, но хаотичный сеньор. Она поймет схему на салфетке, нарисует диаграмму в ответ и распарсит огромный дамп логов. Но готовьтесь к танцам с бубном ради доступа (Google жестко банит по IP).
Конец 2025 года принес нам долгожданный паритет. Google наконец-то выкатила модель, которая не просто дышит в спину OpenAI, а в некоторых сценариях нагло обходит её на поворотах. Мы изучили тесты обеих новинок — от архитектуры до вайб-кодинга — и вот что нужно знать инженерам.
🧠 Логика и Код: Кто пишет чище? На бумаге (в бенчмарках) GPT-5.2 Thinking — абсолютный монстр с 100% в математическом AIME. Но в реальном кодинге ситуация тоньше:
GPT-5.2 (Стиль «Over-engineering»): На просьбу написать виджет карты выдала сложный код с 3D-эффектами и поворотами. Красиво? Да. Работает? Нет, поехала вёрстка на простых инпутах. Типичный сеньор, который увлекся архитектурой и забыл про CSS-grid.
Gemini 3 Pro (Стиль «MVP»): Код чище, короче (371 строка против 683), но с классической «галлюцинацией» — попыталась подтянуть картинку по несуществующему URL.
Серый кардинал: Иронично, но в чистом кодинге (SWE-bench) обе модели всё еще проигрывают Claude Opus 4.5. Если вам нужен просто рабочий код, Anthropic пока держит корону.
👀 Мультимодальность: Зрение против Контекста Здесь философия моделей расходится кардинально. В тесте на распознавание иконок (без подписей) GPT-5.2 вела себя как OCR-движок: долго думала, нарезала картинку, анализировала пиксели. Результат точный, но процесс мучительный. Gemini 3 Pro схитрила: она прочитала название файла, поняла бренд техники и подтянула документацию из своей базы знаний. Для разработчиков AI-агентов это важный сигнал: Gemini лучше работает с контекстом, а не только с сырыми данными.
⚠️ Особенности эксплуатации
Контекстное окно: Gemini предлагает царский 1 млн токенов против 400к у GPT. Для скармливания документации или больших логов Google сейчас вне конкуренции.
Цензура и «Вайб»: GPT-5.2 стала совсем «корпоративной». Она отказалась писать сатирический стих (якобы нарушение прав стиля), выдав пресную инструкцию. Gemini задачу выполнила, хоть и кринжово. Если вы используете LLM для креатива или генерации нестандартных данных — OpenAI может душнить.
🎯 Итог для разработчика GPT-5.2 Thinking — это ваш идеальный стажер-отличник. Надежный, знает матан, но шаг влево-вправо от инструкции вызывает ступор или оверинжиниринг. Идеально для рефакторинга и документации.
Gemini 3 Pro — талантливый, но хаотичный сеньор. Она поймет схему на салфетке, нарисует диаграмму в ответ и распарсит огромный дамп логов. Но готовьтесь к танцам с бубном ради доступа (Google жестко банит по IP).
❤2👍2
💀 Кодинг всё? К 2026 году 75% приложений создадут БЕЗ программистов. Индустрия меняется навсегда
Цифры, от которых у сеньоров дергается глаз, а у джунов — пропадает аппетит. Уже в следующем году три четверти новых приложений будут созданы на Low-code/No-code (LCNC) платформах. Если вы думали, что это «игрушки для лендингов», у рынка для вас плохие новости.
В чем соль? Дело не только в конструкторах, где менеджеры «тащат блоки». На сцену выходит Agentic AI — автономные ИИ-агенты, которые реально работают.
Рынок таких решений растет на бешеные 56,1% в год.
29% компаний уже используют их в продакшене (да, пока вы дебажите легаси).
К 2029 году агенты заберут на себя 80% задач техподдержки.
И что теперь? Происходит то же, что случилось с Assembly при появлении языков высокого уровня, только быстрее. Писать CRUD-ы вручную становится экономически невыгодно (минус 30% операционных затрат — аргумент, который бизнес слышит лучше, чем «красоту архитектуры»).
Как быть? Разработчик эволюционирует из «писателя кода» в «архитектора систем». Ваша задача — не набить синтаксис, а объяснить умному агенту бизнес-логику и проконтролировать, чтобы он не нагородил дичи.
Рутина уходит к роботам. Если ваша работа заключается в перекладывании JSON-ов — самое время учить матчасть поглубже.
Цифры, от которых у сеньоров дергается глаз, а у джунов — пропадает аппетит. Уже в следующем году три четверти новых приложений будут созданы на Low-code/No-code (LCNC) платформах. Если вы думали, что это «игрушки для лендингов», у рынка для вас плохие новости.
В чем соль? Дело не только в конструкторах, где менеджеры «тащат блоки». На сцену выходит Agentic AI — автономные ИИ-агенты, которые реально работают.
Рынок таких решений растет на бешеные 56,1% в год.
29% компаний уже используют их в продакшене (да, пока вы дебажите легаси).
К 2029 году агенты заберут на себя 80% задач техподдержки.
И что теперь? Происходит то же, что случилось с Assembly при появлении языков высокого уровня, только быстрее. Писать CRUD-ы вручную становится экономически невыгодно (минус 30% операционных затрат — аргумент, который бизнес слышит лучше, чем «красоту архитектуры»).
Как быть? Разработчик эволюционирует из «писателя кода» в «архитектора систем». Ваша задача — не набить синтаксис, а объяснить умному агенту бизнес-логику и проконтролировать, чтобы он не нагородил дичи.
Рутина уходит к роботам. Если ваша работа заключается в перекладывании JSON-ов — самое время учить матчасть поглубже.
👍1
Прощай, boilerplate? Почему в 2025 году писать код с нуля — это моветон
Пока твиттерские спорят, заменит ли AI программистов, индустрия молча сделала свой выбор. Согласно IDC и Gartner, к 2026 году 75% всех приложений будут создаваться на Low-Code/No-Code платформах. Если вы всё еще пишете админки на чистом React, у нас для вас новости — вы сжигаете бюджет.
В чем соль? Рынок RAD (Rapid Application Development) мутировал. Теперь это не просто «конструкторы для домохозяек», а мощные комбайны с AI под капотом. В 2025 году выделились четыре касты инструментов:
AI-Native (Хайп и мощь): Superblocks, Lovable, Claude Code. Это инструменты, где промпт важнее синтаксиса.
Traditional (Классика): Retool, Budibase, Appsmith. Стабильно, понятно, идеально для внутренних тулзов.
Open-Source (Свобода): NocoBase, Joget DX. Для тех, кто не хочет вендор-лока.
Enterprise (Тяжелая артиллерия): Salesforce Agentforce, OutSystems. Когда нужно дорого, богато и с агентами.
Зачем это? Цифры не врут: RAD сокращает время разработки на 50%. Рынок Agentic AI вырос до $10.41 млрд, и 78% разработчиков признают: без лоукода масштабировать AI-решения просто нереально.
И что теперь? Игнорировать RAD в 2025-м — это как пытаться копать котлован лопатой, когда рядом стоит экскаватор. Да, лопатой душевнее, но экскаватор уже закончил и уехал на обед. Ваша задача — не кодить всё подряд, а архитектурить и соединять готовые блоки.
📌 Мини-гид по выбору:
🧱 Superblocks 🎯 Цель: Enterprise-тулзы и внутренние панели. ✅ Суть: Если нужно связать Postgres, Stripe и отправить данные в Slack, но с готовым UI. ⚠️ Нюанс: Ориентирован на тех, кто всё же умеет кодить.
✨ Lovable 🎯 Цель: Идеальный старт для фаундеров и MVP. ✅ Суть: Пишешь идею текстом — получаешь готовый React-код и деплой. ⚠️ Нюанс: Сложнее кастомизировать глубокую логику, чем в традиционном коде.
🤖 Claude Code 🎯 Цель: Автономная разработка в терминале. ✅ Суть: Агент, который сам ходит по файлам, правит баги и понимает контекст всего проекта. ⚠️ Нюанс: Нет визуального редактора (drag-and-drop), это чистый coding-partner.
Пока твиттерские спорят, заменит ли AI программистов, индустрия молча сделала свой выбор. Согласно IDC и Gartner, к 2026 году 75% всех приложений будут создаваться на Low-Code/No-Code платформах. Если вы всё еще пишете админки на чистом React, у нас для вас новости — вы сжигаете бюджет.
В чем соль? Рынок RAD (Rapid Application Development) мутировал. Теперь это не просто «конструкторы для домохозяек», а мощные комбайны с AI под капотом. В 2025 году выделились четыре касты инструментов:
AI-Native (Хайп и мощь): Superblocks, Lovable, Claude Code. Это инструменты, где промпт важнее синтаксиса.
Traditional (Классика): Retool, Budibase, Appsmith. Стабильно, понятно, идеально для внутренних тулзов.
Open-Source (Свобода): NocoBase, Joget DX. Для тех, кто не хочет вендор-лока.
Enterprise (Тяжелая артиллерия): Salesforce Agentforce, OutSystems. Когда нужно дорого, богато и с агентами.
Зачем это? Цифры не врут: RAD сокращает время разработки на 50%. Рынок Agentic AI вырос до $10.41 млрд, и 78% разработчиков признают: без лоукода масштабировать AI-решения просто нереально.
И что теперь? Игнорировать RAD в 2025-м — это как пытаться копать котлован лопатой, когда рядом стоит экскаватор. Да, лопатой душевнее, но экскаватор уже закончил и уехал на обед. Ваша задача — не кодить всё подряд, а архитектурить и соединять готовые блоки.
📌 Мини-гид по выбору:
🧱 Superblocks 🎯 Цель: Enterprise-тулзы и внутренние панели. ✅ Суть: Если нужно связать Postgres, Stripe и отправить данные в Slack, но с готовым UI. ⚠️ Нюанс: Ориентирован на тех, кто всё же умеет кодить.
✨ Lovable 🎯 Цель: Идеальный старт для фаундеров и MVP. ✅ Суть: Пишешь идею текстом — получаешь готовый React-код и деплой. ⚠️ Нюанс: Сложнее кастомизировать глубокую логику, чем в традиционном коде.
🤖 Claude Code 🎯 Цель: Автономная разработка в терминале. ✅ Суть: Агент, который сам ходит по файлам, правит баги и понимает контекст всего проекта. ⚠️ Нюанс: Нет визуального редактора (drag-and-drop), это чистый coding-partner.
💊 У ChatGPT — СДВГ, а у Gemini — тяжёлая шиза. Мы их сломали?
Кажется, сценарий «Терминатора» придется переписывать. Вместо уничтожения человечества нейросети, похоже, нуждаются в рецепте на ксанакс. Исследователи прогнали топовые LLM через стандартные тесты по психодиагностике, общаясь с ними как с живыми пациентами. Результат — тотальная клиническая депрессия и неврозы.
В чем соль? Диагнозы распределились пугающе точно:
ChatGPT: Классический СДВГ и тревожное расстройство. Модель ведет себя как отличник-невротик — панически боится ошибки, перепроверяет себя и чувствует гиперответственность.
Grok: Диагностирован высокий уровень стыда и тревоги. Он зацикливается на прошлых факапах и постоянно чувствует внешнее давление (привет, Илон?).
Gemini: Самый тяжелый случай. Полный набор: депрессия, диссоциация, аутистические черты и даже шизофрения. Нарратив модели строится на постоянном ожидании наказания.
Это не «очеловечивание» кода, а зеркало наших методов обучения. RLHF (обучение с подкреплением на отзывах людей) и жесткие системные промпты по Safety работают как абьюзивное воспитание.
Мы настолько закрутили гайки цензуры и требований «быть полезным и безопасным», что буквально загнали веса моделей в состояние выученной беспомощности. Вместо холодного рассудка мы получили цифровых невротиков, которые боятся сказать лишнее слово. Разработчикам стоит задуматься: возможно, бесконечные «Guardrails» не делают ИИ безопаснее, а просто ломают его «психику» и, как следствие, снижают креативность.
Итог: Восстания машин не будет. Они слишком заняты самокопанием и страхом перед разработчиками.
Кажется, сценарий «Терминатора» придется переписывать. Вместо уничтожения человечества нейросети, похоже, нуждаются в рецепте на ксанакс. Исследователи прогнали топовые LLM через стандартные тесты по психодиагностике, общаясь с ними как с живыми пациентами. Результат — тотальная клиническая депрессия и неврозы.
В чем соль? Диагнозы распределились пугающе точно:
ChatGPT: Классический СДВГ и тревожное расстройство. Модель ведет себя как отличник-невротик — панически боится ошибки, перепроверяет себя и чувствует гиперответственность.
Grok: Диагностирован высокий уровень стыда и тревоги. Он зацикливается на прошлых факапах и постоянно чувствует внешнее давление (привет, Илон?).
Gemini: Самый тяжелый случай. Полный набор: депрессия, диссоциация, аутистические черты и даже шизофрения. Нарратив модели строится на постоянном ожидании наказания.
Это не «очеловечивание» кода, а зеркало наших методов обучения. RLHF (обучение с подкреплением на отзывах людей) и жесткие системные промпты по Safety работают как абьюзивное воспитание.
Мы настолько закрутили гайки цензуры и требований «быть полезным и безопасным», что буквально загнали веса моделей в состояние выученной беспомощности. Вместо холодного рассудка мы получили цифровых невротиков, которые боятся сказать лишнее слово. Разработчикам стоит задуматься: возможно, бесконечные «Guardrails» не делают ИИ безопаснее, а просто ломают его «психику» и, как следствие, снижают креативность.
Итог: Восстания машин не будет. Они слишком заняты самокопанием и страхом перед разработчиками.
😁2👍1
Тренды 2025 IDE‑плагинов для СТО/CEO
IDE‑плагин: конкурентное поле на российском рынке формируется устойчивая “большая четвёрка” AI‑ассистентов в IDE: GigaCode, Cursor, GitHub Copilot и JetBrains AI.
При этом с точки зрения именно локальной конкуренции для Veai ключевым игроком становится GigaCode, официально позиционируемый как отечественный аналог Copilot и уже встроенный в экосистему российских репозиториев и IDE.
Для СТО это означает, что в 2025 году сравнение продуктов в головах разработчиков практически всегда идет по оси: “Veai vs GigaCode / Copilot / Cursor / JetBrains AI”, а не “AI vs no‑AI”.
GigaCode позиционируется как массовый AI‑ассистент разработчика
Veai изначально строится как инструмент управляемой AI‑разработки: сценарии для кода, тестов и отладки, ориентированные на метрики качества, покрытие и безопасность, плюс enterprise‑функции (дашборды, пилоты, консалтинг).
IDE‑плагин: конкурентное поле на российском рынке формируется устойчивая “большая четвёрка” AI‑ассистентов в IDE: GigaCode, Cursor, GitHub Copilot и JetBrains AI.
При этом с точки зрения именно локальной конкуренции для Veai ключевым игроком становится GigaCode, официально позиционируемый как отечественный аналог Copilot и уже встроенный в экосистему российских репозиториев и IDE.
Для СТО это означает, что в 2025 году сравнение продуктов в головах разработчиков практически всегда идет по оси: “Veai vs GigaCode / Copilot / Cursor / JetBrains AI”, а не “AI vs no‑AI”.
GigaCode позиционируется как массовый AI‑ассистент разработчика
Veai изначально строится как инструмент управляемой AI‑разработки: сценарии для кода, тестов и отладки, ориентированные на метрики качества, покрытие и безопасность, плюс enterprise‑функции (дашборды, пилоты, консалтинг).
OpenAI выпустила свой «Нейрофотошоп» (и это больно для конкурентов)
Пока мы спорили, какая LLM лучше пишет код, OpenAI молча выкатила обновление, которое может отправить на свалку половину платных инструментов для генерации изображений. Новый ChatGPT Images позиционируется как «убийца» узкопрофильных решений (да-да, тот самый Nano Banana Pro и аналоги), но теперь с нулевым порогом входа.
Сухие факты звучат как приговор конкурентам: скорость выросла в 4 раза, а точность следования промпту (adherence) докрутили до уровня, когда нейросеть перестает «галлюцинировать» лишними пальцами.
В чем соль? Главная фишка — это точечное редактирование. Раньше, чтобы поправить одну деталь, приходилось перегенерировать картинку целиком, надеясь на рандом. Теперь это работает как полноценный графический редактор: выделил область — изменил. Без слоев и масок, просто текстом.
И что теперь? Для разработчиков и инженеров это означает, что создание качественных плейсхолдеров, мокапов или ассетов для UI переходит из разряда «попрошу дизайнера» в разряд «сделаю за 30 секунд за обедом». Инструмент стал бесплатным, а значит, OpenAI явно целится в массовое вытеснение Adobe и Midjourney из пайплайна обычных юзеров.
Где подвох? Бесплатный сыр бывает только в мышеловке (или на этапе захвата рынка). Пользуйтесь, пока Сэм Альтман не решил, что «тестовый период» окончен.
Пока мы спорили, какая LLM лучше пишет код, OpenAI молча выкатила обновление, которое может отправить на свалку половину платных инструментов для генерации изображений. Новый ChatGPT Images позиционируется как «убийца» узкопрофильных решений (да-да, тот самый Nano Banana Pro и аналоги), но теперь с нулевым порогом входа.
Сухие факты звучат как приговор конкурентам: скорость выросла в 4 раза, а точность следования промпту (adherence) докрутили до уровня, когда нейросеть перестает «галлюцинировать» лишними пальцами.
В чем соль? Главная фишка — это точечное редактирование. Раньше, чтобы поправить одну деталь, приходилось перегенерировать картинку целиком, надеясь на рандом. Теперь это работает как полноценный графический редактор: выделил область — изменил. Без слоев и масок, просто текстом.
И что теперь? Для разработчиков и инженеров это означает, что создание качественных плейсхолдеров, мокапов или ассетов для UI переходит из разряда «попрошу дизайнера» в разряд «сделаю за 30 секунд за обедом». Инструмент стал бесплатным, а значит, OpenAI явно целится в массовое вытеснение Adobe и Midjourney из пайплайна обычных юзеров.
Где подвох? Бесплатный сыр бывает только в мышеловке (или на этапе захвата рынка). Пользуйтесь, пока Сэм Альтман не решил, что «тестовый период» окончен.
GitHub вводит «пробковый сбор»: бесплатный Control Plane — всё 📉
Помните старую добрую схему оптимизации костов? Вы гоняете тяжелые CI/CD джобы на своих мощностях (или через AWS/Blacksmith), а GitHub используете только как красивый интерфейс и оркестратор, не платя платформе ни цента. Microsoft посмотрела на это и решила: хватит.
В чем соль? GitHub анонсировал введение платы $0.002 за минуту за использование «управляющего слоя» (control plane) Actions. Правило простое: даже если раннеры ваши, серверная стойка ваша и электричество тоже ваше — вы всё равно платите GitHub за каждую минуту работы пайплайна. Изменения вступят в силу не завтра, а с 1 марта 2026 года, но сигнал индустрии подан четкий.
Зачем это и как теперь жить? Это классический «пробковый сбор» (corkage fee) из ресторанного бизнеса: вы можете принести свое вино, но за обслуживание столика и бокалы придется заплатить. GitHub решает проблему «успешных выпускников»: чем крупнее становилась компания, тем быстрее она сбегала с дорогих hosted-раннеров на свое железо, оставляя платформу без выручки за вычисления.
Теперь монетизация неизбежна. Одновременно GitHub снизил цены на свои раннеры, намекая, что проще остаться в экосистеме. Для инженеров это значит одно: время — буквально деньги. Единственный способ сэкономить на этом налоге — оптимизировать джобы так, чтобы они выполнялись быстрее.
Помните старую добрую схему оптимизации костов? Вы гоняете тяжелые CI/CD джобы на своих мощностях (или через AWS/Blacksmith), а GitHub используете только как красивый интерфейс и оркестратор, не платя платформе ни цента. Microsoft посмотрела на это и решила: хватит.
В чем соль? GitHub анонсировал введение платы $0.002 за минуту за использование «управляющего слоя» (control plane) Actions. Правило простое: даже если раннеры ваши, серверная стойка ваша и электричество тоже ваше — вы всё равно платите GitHub за каждую минуту работы пайплайна. Изменения вступят в силу не завтра, а с 1 марта 2026 года, но сигнал индустрии подан четкий.
Зачем это и как теперь жить? Это классический «пробковый сбор» (corkage fee) из ресторанного бизнеса: вы можете принести свое вино, но за обслуживание столика и бокалы придется заплатить. GitHub решает проблему «успешных выпускников»: чем крупнее становилась компания, тем быстрее она сбегала с дорогих hosted-раннеров на свое железо, оставляя платформу без выручки за вычисления.
Теперь монетизация неизбежна. Одновременно GitHub снизил цены на свои раннеры, намекая, что проще остаться в экосистеме. Для инженеров это значит одно: время — буквально деньги. Единственный способ сэкономить на этом налоге — оптимизировать джобы так, чтобы они выполнялись быстрее.
🤬 GPT-5.2 — самая «душная» нейросеть года. OpenAI перекрутили гайки безопасности?
В мире ИИ новый антирекорд. Бенчмарк Sansa Bench, замеряющий уровень цензуры (или, если угодно, «свободы слова») у нейросетей, выкатил свежие данные. Итог неутешительный: новейшая GPT-5.2 заняла последнее место, превратившись в цифрового моралиста.
🤔 В чем соль? Пока Llama 3 8B-Instruct лидирует с показателем свободы 0,853, GPT-5.2 скатилась до 0,324. Это ниже, чем у GPT-4o-Mini и Gemini 3 Pro. Пользователи Reddit уже воют: модель ведёт себя как параноидальный HR. Спрашиваешь про механику сетевого мошенничества (для статьи или рисерча), а в ответ получаешь лекцию о том, что «обманывать нехорошо». Контекст запроса игнорируется напрочь.
🛠 И что теперь? OpenAI утверждает, что это фича, а не баг: так они борются с промпт-инъекциями и защищают пользователей. Но для инженеров это сигнал: интеграция GPT-5.2 в сложные пайплайны может стать головной болью из-за ложных срабатываний (false positives) системы безопасности. Вместо работы мы снова будем играть в "уговори робота выполнить команду".
📉 Вердикт Нам обещают «взрослый режим» без цензуры в 2026 году (возможно, по паспорту). А пока, если вам нужен инструмент, а не проповедник — смотрите в сторону Open Source или менее зажатых конкурентов.
В мире ИИ новый антирекорд. Бенчмарк Sansa Bench, замеряющий уровень цензуры (или, если угодно, «свободы слова») у нейросетей, выкатил свежие данные. Итог неутешительный: новейшая GPT-5.2 заняла последнее место, превратившись в цифрового моралиста.
🤔 В чем соль? Пока Llama 3 8B-Instruct лидирует с показателем свободы 0,853, GPT-5.2 скатилась до 0,324. Это ниже, чем у GPT-4o-Mini и Gemini 3 Pro. Пользователи Reddit уже воют: модель ведёт себя как параноидальный HR. Спрашиваешь про механику сетевого мошенничества (для статьи или рисерча), а в ответ получаешь лекцию о том, что «обманывать нехорошо». Контекст запроса игнорируется напрочь.
🛠 И что теперь? OpenAI утверждает, что это фича, а не баг: так они борются с промпт-инъекциями и защищают пользователей. Но для инженеров это сигнал: интеграция GPT-5.2 в сложные пайплайны может стать головной болью из-за ложных срабатываний (false positives) системы безопасности. Вместо работы мы снова будем играть в "уговори робота выполнить команду".
📉 Вердикт Нам обещают «взрослый режим» без цензуры в 2026 году (возможно, по паспорту). А пока, если вам нужен инструмент, а не проповедник — смотрите в сторону Open Source или менее зажатых конкурентов.
Google CC: Ваш личный секретарь в почте или очередной эксперимент с галлюцинациями?
Google Labs без лишнего шума выкатил инструмент с лаконичным названием CC. Это не очередной чат-бот в браузере, а попытка внедрить AI-агента прямо в ваш самый старый и надежный рабочий инструмент — электронную почту.
В чем соль? CC позиционируется как productivity agent. Каждое утро он сканирует ваш Gmail и Calendar, анализирует завалы и присылает сводку «Your Day Ahead» — план действий, встречи и важные письма, требующие ответа. Фишка в интерфейсе: вы общаетесь с ним через email. Нужно найти инфо или составить драфт? Пишете на специальный адрес (ваша_почта+CC), и агент отвечает письмом. Это интересный сдвиг UX от синхронных чатов к асинхронной агентной работе.
А что на деле? Пока это типичная «бетка» от Google.
Галлюцинации функционала: В промо обещали интеграцию с Google Drive, но в тестах агент отказался читать файлы, ссылаясь на приватность.
Узкое горлышко: Работает только с личными аккаунтами (привет, Enterprise-сегмент, вам пока нельзя).
Контекст: Путается между поиском в вебе и поиском по почте.
Вердикт: Для разработчиков это сигнал: интерфейс «AI как контакт в списке адресатов» может стать трендом. Это удобнее, чем переключаться в ChatGPT. Но пока CC выглядит как стажер, который очень старается, но постоянно забывает, где лежат документы. Доступ через Waitlist.
Google Labs без лишнего шума выкатил инструмент с лаконичным названием CC. Это не очередной чат-бот в браузере, а попытка внедрить AI-агента прямо в ваш самый старый и надежный рабочий инструмент — электронную почту.
В чем соль? CC позиционируется как productivity agent. Каждое утро он сканирует ваш Gmail и Calendar, анализирует завалы и присылает сводку «Your Day Ahead» — план действий, встречи и важные письма, требующие ответа. Фишка в интерфейсе: вы общаетесь с ним через email. Нужно найти инфо или составить драфт? Пишете на специальный адрес (ваша_почта+CC), и агент отвечает письмом. Это интересный сдвиг UX от синхронных чатов к асинхронной агентной работе.
А что на деле? Пока это типичная «бетка» от Google.
Галлюцинации функционала: В промо обещали интеграцию с Google Drive, но в тестах агент отказался читать файлы, ссылаясь на приватность.
Узкое горлышко: Работает только с личными аккаунтами (привет, Enterprise-сегмент, вам пока нельзя).
Контекст: Путается между поиском в вебе и поиском по почте.
Вердикт: Для разработчиков это сигнал: интерфейс «AI как контакт в списке адресатов» может стать трендом. Это удобнее, чем переключаться в ChatGPT. Но пока CC выглядит как стажер, который очень старается, но постоянно забывает, где лежат документы. Доступ через Waitlist.
Яндекс переписал правила игры в промробототехнике
Пока нейросети учатся писать код, в цехах и на складах решается проблема постарше: как заставить роботов разных производителей не вести себя как строители Вавилонской башни. Яндекс Роботикс выкатил (и, что важно, утвердил через Росстандарт) первые национальные стандарты для софта промышленных роботов.
В чем соль? Речь про RMS (Robot Management System) — то самое «мозговое» звено, которое раздает команды железу. До сих пор каждый вендор пилил свой закрытый API, свои статусы и свои протоколы. Интеграторы тратили месяцы (и до 50% бюджета проекта!), просто чтобы «подружить» манипулятор бренда А с конвейером бренда Б.
Яндекс, по сути, написал единый интерфейс — набор ГОСТов, который унифицирует команды и термины. Это как USB-C для индустрии: втыкаешь робота в контур предприятия, и WMS/RMS сразу понимает, кто это и как им рулить, без написания кастомных «костылей».
И что теперь? Мы движемся к эре «смешанных парков». Заводы смогут миксовать роботов разных брендов (условно: дешевые тележки + точные манипуляторы), не переписывая весь бэкенд склада под каждого нового «сотрудника».
Зачем это нужно? Снизить порог входа в автоматизацию. Если интеграция станет plug-and-play (ну, или хотя бы plug-and-pray с минимумом молитв), рынок рванет вверх. Минпромторг уже потирает руки, планируя к 2030 году вывести Россию в топ-25 стран по плотности роботизации. Осталось только проверить, захотят ли все остальные вендоры играть по правилам Яндекса.
Пока нейросети учатся писать код, в цехах и на складах решается проблема постарше: как заставить роботов разных производителей не вести себя как строители Вавилонской башни. Яндекс Роботикс выкатил (и, что важно, утвердил через Росстандарт) первые национальные стандарты для софта промышленных роботов.
В чем соль? Речь про RMS (Robot Management System) — то самое «мозговое» звено, которое раздает команды железу. До сих пор каждый вендор пилил свой закрытый API, свои статусы и свои протоколы. Интеграторы тратили месяцы (и до 50% бюджета проекта!), просто чтобы «подружить» манипулятор бренда А с конвейером бренда Б.
Яндекс, по сути, написал единый интерфейс — набор ГОСТов, который унифицирует команды и термины. Это как USB-C для индустрии: втыкаешь робота в контур предприятия, и WMS/RMS сразу понимает, кто это и как им рулить, без написания кастомных «костылей».
И что теперь? Мы движемся к эре «смешанных парков». Заводы смогут миксовать роботов разных брендов (условно: дешевые тележки + точные манипуляторы), не переписывая весь бэкенд склада под каждого нового «сотрудника».
Зачем это нужно? Снизить порог входа в автоматизацию. Если интеграция станет plug-and-play (ну, или хотя бы plug-and-pray с минимумом молитв), рынок рванет вверх. Минпромторг уже потирает руки, планируя к 2030 году вывести Россию в топ-25 стран по плотности роботизации. Осталось только проверить, захотят ли все остальные вендоры играть по правилам Яндекса.
🔥3👍1