🚀 Микросервисы: когда они работают, а когда создают проблемы?
30 июля в 12:00 — дискуссия с топовыми разработчиками о том, когда микросервисы реально помогают, а когда превращают жизнь в ад 🔥
8 экспертов из BPMSoft, GreenData, PelidTeam, Диасофт, Revizto, CVCode и других компаний расскажут правду:
✅ При каких условиях микросервисы — это ДА
❌ Какие ошибки убивают проекты на корню
⚡️ Как не утонуть в настройке мониторинга
💰 Как измерить, окупился ли переход
Участники:
Павел Копельман — Product Owner (BPMSoft)
Роман Невоструев — Team Lead и Senior Software Engineer (GreenData)
Евгений Евсеев — технический директор (PelidTeam)
Александр Сахаров — директор по работе с партнерами (Диасофт)
Алексей Каньков — Senior Backend Developer (Revizto)
Николай Алёшин — Software Engineer
Артем Аментес — основатель (CVCode)
Александр Тырышкин — Founder and CEO (DEVTALE)
📺 Смотреть:
YouTube: https://www.youtube.com/watch?v=IsBevCWJ4Dg
Rutube: https://rutube.ru/video/f5677f6d9447f56587f698ed6cdf57d0/
💬 Подписывайтесь на наш ТГ: https://t.iss.one/DevQ_A
Независимое комьюнити разработчиков для обмена реальным опытом
30 июля в 12:00 — дискуссия с топовыми разработчиками о том, когда микросервисы реально помогают, а когда превращают жизнь в ад 🔥
8 экспертов из BPMSoft, GreenData, PelidTeam, Диасофт, Revizto, CVCode и других компаний расскажут правду:
✅ При каких условиях микросервисы — это ДА
❌ Какие ошибки убивают проекты на корню
⚡️ Как не утонуть в настройке мониторинга
💰 Как измерить, окупился ли переход
Участники:
Павел Копельман — Product Owner (BPMSoft)
Роман Невоструев — Team Lead и Senior Software Engineer (GreenData)
Евгений Евсеев — технический директор (PelidTeam)
Александр Сахаров — директор по работе с партнерами (Диасофт)
Алексей Каньков — Senior Backend Developer (Revizto)
Николай Алёшин — Software Engineer
Артем Аментес — основатель (CVCode)
Александр Тырышкин — Founder and CEO (DEVTALE)
📺 Смотреть:
YouTube: https://www.youtube.com/watch?v=IsBevCWJ4Dg
Rutube: https://rutube.ru/video/f5677f6d9447f56587f698ed6cdf57d0/
💬 Подписывайтесь на наш ТГ: https://t.iss.one/DevQ_A
Независимое комьюнити разработчиков для обмена реальным опытом
YouTube
Микросервисы ускоряют разработку или тормозят её?
Самый острый вопрос современной разработки!
Микросервисы обещают масштабируемость и гибкость, но многие команды сталкиваются с неожиданными сложностями. Действительно ли они ускоряют delivery или создают больше проблем, чем решают?
Хотите знать больше и…
Микросервисы обещают масштабируемость и гибкость, но многие команды сталкиваются с неожиданными сложностями. Действительно ли они ускоряют delivery или создают больше проблем, чем решают?
Хотите знать больше и…
🤖 Low-code + ИИ = конец эры программистов?
ЗАВТРА! 20 августа в 15:00 — техническая дискуссия с ведущими экспертами о том, как интеграция ИИ в low-code платформы меняет разработку ПО 💡
5 экспертов из АО "Нейросети", Agizo, Comindware, Диасофт и других компаний обсудят реальность:
✅ Когда low-code с ИИ действительно эффективен
📊 70-80% сокращение времени разработки — миф или реальность
⚡️ Какие задачи ИИ решает, а где пока бессилен
🔐 Безопасность и масштабирование: главные подводные камни
💼 Как меняется роль разработчика в новой парадигме
Участники:
Дмитрий Демиркылыч — руководитель направления workflow ex-promt разработки (АО "Нейросети")
Алексей Граков — руководитель компании, эксперт по интеграции low-code (Agizo)
Сергей Сергеев — руководитель отдела внедрения (Comindware)
Дмитрий Маруськин — TechLead Capture C# Team
Дмитрий Старов — директор департамента «Инструменты и технологии разработки» (Диасофт)
Сергей Ольков, руководитель управления Диасофт.
📺 Смотреть:
YouTube: https://www.youtube.com/watch?v=MY_RoYWPz7U
Rutube: https://rutube.ru/video a043b2122cad1336082571a5489b7a3e/
Или тут, на телеграм-канале. Задавайте вопросы участникам во время прямого эфира.
💬 Подписывайтесь на наш ТГ: https://t.iss.one/DevQ_A
Независимое комьюнити разработчиков для обмена реальным опытом
#LowCode #AI #Разработка #DevQA
ЗАВТРА! 20 августа в 15:00 — техническая дискуссия с ведущими экспертами о том, как интеграция ИИ в low-code платформы меняет разработку ПО 💡
5 экспертов из АО "Нейросети", Agizo, Comindware, Диасофт и других компаний обсудят реальность:
✅ Когда low-code с ИИ действительно эффективен
📊 70-80% сокращение времени разработки — миф или реальность
⚡️ Какие задачи ИИ решает, а где пока бессилен
🔐 Безопасность и масштабирование: главные подводные камни
💼 Как меняется роль разработчика в новой парадигме
Участники:
Дмитрий Демиркылыч — руководитель направления workflow ex-promt разработки (АО "Нейросети")
Алексей Граков — руководитель компании, эксперт по интеграции low-code (Agizo)
Сергей Сергеев — руководитель отдела внедрения (Comindware)
Дмитрий Маруськин — TechLead Capture C# Team
Дмитрий Старов — директор департамента «Инструменты и технологии разработки» (Диасофт)
Сергей Ольков, руководитель управления Диасофт.
📺 Смотреть:
YouTube: https://www.youtube.com/watch?v=MY_RoYWPz7U
Rutube: https://rutube.ru/video a043b2122cad1336082571a5489b7a3e/
Или тут, на телеграм-канале. Задавайте вопросы участникам во время прямого эфира.
💬 Подписывайтесь на наш ТГ: https://t.iss.one/DevQ_A
Независимое комьюнити разработчиков для обмена реальным опытом
#LowCode #AI #Разработка #DevQA
YouTube
ИИ + Low-code = КОНЕЦ программистов? 5 топ-экспертов раскрывают ПРАВДУ
Представьте: 70% компаний уже сокращают разработчиков, заменяя их ИИ-платформами. $45 млрд - таков будет рынок low-code с ИИ к 2026 году. Это РЕВОЛЮЦИЯ или ПУЗЫРЬ?
КЛЮЧЕВЫЕ ТЕМЫ:
Технические аспекты: принципы работы ИИ в low-code средах
Практическое применение:…
КЛЮЧЕВЫЕ ТЕМЫ:
Технические аспекты: принципы работы ИИ в low-code средах
Практическое применение:…
Коллеги, на Хабре уже вышли материалы по итогам наших дискуссий:
«Трактор или лопата?» — мифы и проблемы low-code
🚜 https://habr.com/ru/articles/947542/
Где low-code реально ускоряет разработку, а где мешает.
Программисты vs ИИ и low-code: кто кого заменит
🤖 https://habr.com/ru/articles/947560/
Как ИИ меняет профессию программиста и чего ждать дальше.
Сейчас мы готовим новые трансляции и если вы хотите стать спикером - напишите нам.
Будем признательны если вы поддержите автора текстов кармой, мы старались сделать публикации интересными и сбалансированными.
Если вы готовы помочь то:
1️⃣ Нажмите на имя или аватарку автора над статьёй.
2️⃣ В профиле найдите зелёную стрелку ↑ рядом с кармой.
3️⃣ Кликните — и голос учтён. ✅
«Трактор или лопата?» — мифы и проблемы low-code
🚜 https://habr.com/ru/articles/947542/
Где low-code реально ускоряет разработку, а где мешает.
Программисты vs ИИ и low-code: кто кого заменит
🤖 https://habr.com/ru/articles/947560/
Как ИИ меняет профессию программиста и чего ждать дальше.
Сейчас мы готовим новые трансляции и если вы хотите стать спикером - напишите нам.
Будем признательны если вы поддержите автора текстов кармой, мы старались сделать публикации интересными и сбалансированными.
Если вы готовы помочь то:
1️⃣ Нажмите на имя или аватарку автора над статьёй.
2️⃣ В профиле найдите зелёную стрелку ↑ рядом с кармой.
3️⃣ Кликните — и голос учтён. ✅
Хабр
«Трактор или лопата?» — разбираем главные мифы и проблемы low-code платформ
Привет, Хабр! Продолжаю публиковать наши разговоры из телеграм-канала Dev Q&A . В этот раз собрались обсудить одну из самых спорных тем в российском IT — low-code платформы. Тема настолько...
🚀 Как выбрать low-code платформу в 2025 году?
29 сентября в 15:00 (МСК) на платформе DevQA пройдёт онлайн-дискуссия:
«Как в 2025 году выбирать low-code платформу: критерии выбора»
🔹 Рынок low-code переживает бурный рост после ухода Microsoft, Mendix и OutSystems.
🔹 На кону десятки миллионов рублей и годы цифровой трансформации.
🔹 Ошибка выбора платформы = стратегический провал.
В прямом эфире — технические лидеры топовых компаний:
👨💻 Дмитрий Бахтин (Дм-тех / Детский мир)
👨💻 Александр Сахаров (Диасофт)
👨💻 Алексей Каньков (Revizto)
👨💻 Николай Алёшин (ШтрафовНет.ру)
👨💻 Сергей Лозовской (Head of DevOps)
👨💻 Павел Сандовин (Outlines Tech)
👨💻 Сергей Жучков (ProgKids.com)
📌 Обсудим:
— технические возможности и ограничения разных low-code решений
— интеграцию и безопасность
— реальные кейсы внедрения
— стоимость владения и риски vendor lock-in
👉 Полезно для CTO, IT-директоров, руководителей цифровой трансформации, интеграторов и всех, кто ищет оптимальный путь в мире low-code.
📺 Смотрите трансляцию:
YouTube: https://www.youtube.com/live/UMJcD4yHdJM?si=oOfJ3nwHiImr4lih
Rutube: https://rutube.ru/video/c78b3e81d6e4e430b9b3f6a4df60a793/
29 сентября в 15:00 (МСК) на платформе DevQA пройдёт онлайн-дискуссия:
«Как в 2025 году выбирать low-code платформу: критерии выбора»
🔹 Рынок low-code переживает бурный рост после ухода Microsoft, Mendix и OutSystems.
🔹 На кону десятки миллионов рублей и годы цифровой трансформации.
🔹 Ошибка выбора платформы = стратегический провал.
В прямом эфире — технические лидеры топовых компаний:
👨💻 Дмитрий Бахтин (Дм-тех / Детский мир)
👨💻 Александр Сахаров (Диасофт)
👨💻 Алексей Каньков (Revizto)
👨💻 Николай Алёшин (ШтрафовНет.ру)
👨💻 Сергей Лозовской (Head of DevOps)
👨💻 Павел Сандовин (Outlines Tech)
👨💻 Сергей Жучков (ProgKids.com)
📌 Обсудим:
— технические возможности и ограничения разных low-code решений
— интеграцию и безопасность
— реальные кейсы внедрения
— стоимость владения и риски vendor lock-in
👉 Полезно для CTO, IT-директоров, руководителей цифровой трансформации, интеграторов и всех, кто ищет оптимальный путь в мире low-code.
📺 Смотрите трансляцию:
YouTube: https://www.youtube.com/live/UMJcD4yHdJM?si=oOfJ3nwHiImr4lih
Rutube: https://rutube.ru/video/c78b3e81d6e4e430b9b3f6a4df60a793/
Youtube
- YouTube
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
❤1
Media is too big
VIEW IN TELEGRAM
💡 Запись дискуссии: «Как в 2025 году выбирать low-code платформу: критерии выбора»
29 сентября на платформе DevQA прошла жаркая онлайн-беседа ведущих IT-компаний России.
Тема, которая волнует сегодня каждого CTO и руководителя цифровой трансформации: low-code платформы в условиях импортозамещения.
❓ Что обсудили:
Где заканчивается удобный фреймворк и начинается «чёрный ящик»?
Можно ли строить критичные системы на low-code или это путь в тупик?
Как компании балансируют скорость прототипирования и требования enterprise-уровня?
Что делать с безопасностью и масштабируемостью в мире citizen-разработчиков?
Как не оказаться заложником вендора через три года?
🎤 В дискуссии приняли участие:
Александр Сахаров («Диасофт»)
Алексей Каньков (Revizto)
Николай Алёшин (ШтрафовНет.ру)
Сергей Лозовской (Head of DevOps)
Павел Сандовин (Outlines Tech)
Сергей Жучков (ProgKids.com)
🔥 Спикеры не отделывались общими словами — в разговоре прозвучали острые вопросы, реальные кейсы и разные взгляды на то, каким будет рынок low-code в ближайшие годы.
📺 Смотрите запись дискуссии здесь:
29 сентября на платформе DevQA прошла жаркая онлайн-беседа ведущих IT-компаний России.
Тема, которая волнует сегодня каждого CTO и руководителя цифровой трансформации: low-code платформы в условиях импортозамещения.
❓ Что обсудили:
Где заканчивается удобный фреймворк и начинается «чёрный ящик»?
Можно ли строить критичные системы на low-code или это путь в тупик?
Как компании балансируют скорость прототипирования и требования enterprise-уровня?
Что делать с безопасностью и масштабируемостью в мире citizen-разработчиков?
Как не оказаться заложником вендора через три года?
🎤 В дискуссии приняли участие:
Александр Сахаров («Диасофт»)
Алексей Каньков (Revizto)
Николай Алёшин (ШтрафовНет.ру)
Сергей Лозовской (Head of DevOps)
Павел Сандовин (Outlines Tech)
Сергей Жучков (ProgKids.com)
🔥 Спикеры не отделывались общими словами — в разговоре прозвучали острые вопросы, реальные кейсы и разные взгляды на то, каким будет рынок low-code в ближайшие годы.
📺 Смотрите запись дискуссии здесь:
Новые модели ИИ галлюцинируют в два раза чаще старых: эксперты обсудят, как с этим работать разработчикам 🤖
📅 октября в 15:00 на канале Dev Q&A пройдет онлайн-дискуссия, как индустрия справляется с "цифровым враньем" и что это значит для будущего разработки.
OpenAI в сентябрьском исследовании признала: галлюцинации в языковых моделях математически неизбежны. Это не баг, а фундаментальное свойство технологии. Последствия уже ощутимы: анализ 576 тысяч примеров кода показал, что ИИ-инструменты придумали более 205 тысяч несуществующих программных пакетов.
Александр Сахаров, директор по работе с партнерами в Диасофт, и другие эксперты отрасли обсудят:
💠 почему ИИ галлюцинирует и можно ли это исправить архитектурно;
💠методы детектирования ошибок (от RAG-систем, снижающих галлюцинации на 71%, до мультиагентных подходов);
💠где заканчивается творчество и начинается вранье;
💠как компании выстраивают QA-процессы для генеративных моделей.
Смотрите прямой эфир на Rutube💻
📅 октября в 15:00 на канале Dev Q&A пройдет онлайн-дискуссия, как индустрия справляется с "цифровым враньем" и что это значит для будущего разработки.
OpenAI в сентябрьском исследовании признала: галлюцинации в языковых моделях математически неизбежны. Это не баг, а фундаментальное свойство технологии. Последствия уже ощутимы: анализ 576 тысяч примеров кода показал, что ИИ-инструменты придумали более 205 тысяч несуществующих программных пакетов.
Александр Сахаров, директор по работе с партнерами в Диасофт, и другие эксперты отрасли обсудят:
💠 почему ИИ галлюцинирует и можно ли это исправить архитектурно;
💠методы детектирования ошибок (от RAG-систем, снижающих галлюцинации на 71%, до мультиагентных подходов);
💠где заканчивается творчество и начинается вранье;
💠как компании выстраивают QA-процессы для генеративных моделей.
Смотрите прямой эфир на Rutube
Please open Telegram to view this post
VIEW IN TELEGRAM
RUTUBE
Как бороться с галлюцинациями искусственного интеллекта
17 октября в 15:00 (МСК) на канале Dev Q&A — встреча с ведущими российскими экспертами по искусственному интеллекту. Тема эфира: почему ИИ галлюцинирует и как разработчикам с этим работать.
⚙️ О чём поговорим:
Почему нейросети выдумывают факты и можно ли…
⚙️ О чём поговорим:
Почему нейросети выдумывают факты и можно ли…
❤1
📰 Аналитики выкатили LCAP-матрицу 2025. Спойлер: AI — это гигиена.
Nucleus Research (те самые ребята, которые обожают считать ROI) опубликовали свой свежий LCAP Value Matrix. Главный вывод: эпоха "вау, оно пишет код!" официально закончилась. AI-возможности стали базовой гигиеной, и теперь от них ждут не магии, а измеримого профита: снижения TTM, сокращения техдолга и прозрачного governance.
Весь рынок LCAP резко повзрослел. Вместо "Дикого Запада" для быстрого клепания формочек, фокус сместился на суровые enterprise-фичи: безопасность, compliance, единые "фабрики данных" (unified data fabrics) и автоматический QA. По сути, Low-Code превращается из инструмента для "бизнес-аналитиков" в платформу для серьезных, масштабируемых систем.
Разработка на естественном языке и "умные" воркфлоу тоже становятся прагматичной нормой.
В лидерах по версии Nucleus — Appian, Creatio, OutSystems и Oracle APEX. Любопытно, что гиганты вроде Microsoft Power Apps, Salesforce и ServiceNow попали в "Экспертов" — то есть, мощно, комплексно, но не обязательно с лучшим value.
🔗 Источник: https://nucleusresearch.com/
Nucleus Research (те самые ребята, которые обожают считать ROI) опубликовали свой свежий LCAP Value Matrix. Главный вывод: эпоха "вау, оно пишет код!" официально закончилась. AI-возможности стали базовой гигиеной, и теперь от них ждут не магии, а измеримого профита: снижения TTM, сокращения техдолга и прозрачного governance.
Весь рынок LCAP резко повзрослел. Вместо "Дикого Запада" для быстрого клепания формочек, фокус сместился на суровые enterprise-фичи: безопасность, compliance, единые "фабрики данных" (unified data fabrics) и автоматический QA. По сути, Low-Code превращается из инструмента для "бизнес-аналитиков" в платформу для серьезных, масштабируемых систем.
Разработка на естественном языке и "умные" воркфлоу тоже становятся прагматичной нормой.
В лидерах по версии Nucleus — Appian, Creatio, OutSystems и Oracle APEX. Любопытно, что гиганты вроде Microsoft Power Apps, Salesforce и ServiceNow попали в "Экспертов" — то есть, мощно, комплексно, но не обязательно с лучшим value.
🔗 Источник: https://nucleusresearch.com/
❤1
📰 "Срочно пилим монолит на 47 микросервисов за 6 месяцев!"
На Reddit разгорается драма: лид-архитектор требует от 25 разрабов распилить 8-летний Python-монолит (200k строк) на 47 (!) сервисов за полгода. Аргументы: "монолиты не масштабируются", "нужна автономия команд" и, конечно, "service mesh и event bus сделают нас future-proof".
Звучит как резюме-ориентированная разработка, особенно когда узнаешь, что монолит:
Стабилен, падает редко.
Деплоится за 8 минут.
Держит... 50,000 запросов в день.
50k/день — это смешно (в среднем <1 rps). Но всю эту ситуацию на YouTube разобрал Дерек Мартин (CodeOpinion). Он справедливо замечает, что мы не знаем контекста. Может, эти 50k прилетают в 15-минутное окно, и каждый запрос стоит $1000.
Скорее всего, архитектор прав в одном: проблема не в техническом, а в организационном масштабировании. 25 человек не могут быстро поставлять фичи, упираясь в одну кодовую базу. Ему нужна "team autonomy".
Вот только (и это прямой комментарий от нас) план "взорвать всё гранатой" — абсолютно нереалистичен. 47 сервисов — это 47 CI/CD-пайплайнов, 47 наборов алертов, 47 репозиториев и взрывной рост сложности в отладке. 25 разработчиков, которые привыкли к монолиту, не могут это поднять за 6 месяцев, не похоронив текущий стабильный 8-минутный деплой. Это классический "Big Bang" rewrite, который почти всегда проваливается.
Микросервисы — это не удаление сложности, а её трансформация в распределённую. Для стабильной системы есть и другие пути: отделить один самый больной кусок (Strangler Fig) или масштабировать сам монолит асинхронной обработкой (competing consumers).
Но кого волнует value, когда можно полгода строить "future-proof" инфраструктуру.
🔗 Источник: https://www.youtube.com/watch?v=OoolGJnCq4s
На Reddit разгорается драма: лид-архитектор требует от 25 разрабов распилить 8-летний Python-монолит (200k строк) на 47 (!) сервисов за полгода. Аргументы: "монолиты не масштабируются", "нужна автономия команд" и, конечно, "service mesh и event bus сделают нас future-proof".
Звучит как резюме-ориентированная разработка, особенно когда узнаешь, что монолит:
Стабилен, падает редко.
Деплоится за 8 минут.
Держит... 50,000 запросов в день.
50k/день — это смешно (в среднем <1 rps). Но всю эту ситуацию на YouTube разобрал Дерек Мартин (CodeOpinion). Он справедливо замечает, что мы не знаем контекста. Может, эти 50k прилетают в 15-минутное окно, и каждый запрос стоит $1000.
Скорее всего, архитектор прав в одном: проблема не в техническом, а в организационном масштабировании. 25 человек не могут быстро поставлять фичи, упираясь в одну кодовую базу. Ему нужна "team autonomy".
Вот только (и это прямой комментарий от нас) план "взорвать всё гранатой" — абсолютно нереалистичен. 47 сервисов — это 47 CI/CD-пайплайнов, 47 наборов алертов, 47 репозиториев и взрывной рост сложности в отладке. 25 разработчиков, которые привыкли к монолиту, не могут это поднять за 6 месяцев, не похоронив текущий стабильный 8-минутный деплой. Это классический "Big Bang" rewrite, который почти всегда проваливается.
Микросервисы — это не удаление сложности, а её трансформация в распределённую. Для стабильной системы есть и другие пути: отделить один самый больной кусок (Strangler Fig) или масштабировать сам монолит асинхронной обработкой (competing consumers).
Но кого волнует value, когда можно полгода строить "future-proof" инфраструктуру.
🔗 Источник: https://www.youtube.com/watch?v=OoolGJnCq4s
🔥2💯1🤣1
GPT-5.1 Pro за $200 в месяц? OpenAI не дает выдохнуть.
Не прошло и четырех месяцев с релиза GPT-5 (который был в августе), а OpenAI, по слухам, уже выкатывает на Azure семейство GPT-5.1. Ждем три версии: базовую, "Reasoning" и "Pro".
Инсайды обещают, что Pro-версия обойдется премиум-юзерам в $200/месяц. Революции не ждем: модели станут быстрее, "плавнее" и получат усиленные "гардрейлы" для чувствительных запросов (привет, "безопасность").
Для кодеров тоже апдейт: уже вышел GPT-5-Codex-Mini. Он дешевле, чуть уступает "большому" кодексу, но имеет на 50% выше лимиты. Идеально для простых тасок или как фолбэк, когда уперся в потолок запросов.
Гонка продолжается: Google тестирует Gemini 3 Pro, Anthropic — нового Claude. OpenAI просто не дает конкурентам подумать об отдыхе. Конвейер работает.
Не прошло и четырех месяцев с релиза GPT-5 (который был в августе), а OpenAI, по слухам, уже выкатывает на Azure семейство GPT-5.1. Ждем три версии: базовую, "Reasoning" и "Pro".
Инсайды обещают, что Pro-версия обойдется премиум-юзерам в $200/месяц. Революции не ждем: модели станут быстрее, "плавнее" и получат усиленные "гардрейлы" для чувствительных запросов (привет, "безопасность").
Для кодеров тоже апдейт: уже вышел GPT-5-Codex-Mini. Он дешевле, чуть уступает "большому" кодексу, но имеет на 50% выше лимиты. Идеально для простых тасок или как фолбэк, когда уперся в потолок запросов.
Гонка продолжается: Google тестирует Gemini 3 Pro, Anthropic — нового Claude. OpenAI просто не дает конкурентам подумать об отдыхе. Конвейер работает.
❤1
GitHub переобувается: часть расширений Copilot отправят на покой
GitHub тихо, но решительно объявил о «смерти» расширений Copilot, построенных на базе GitHub Apps. Если вы успели вложиться в разработку такого тула, у вас есть время до 10 ноября 2025 года. После этой даты — всё, финита. Создание новых таких расширений уже заблокировали 23 сентября 2025-го.
Что важно: Нативные расширения для VS Code (те, что называются Chat participants) не затронуты. Их эта чистка не касается.
Это классический платформенный «pivot». GitHub явно делает ставку на клиентскую сторону и более глубокую интеграцию с IDE (привет, VS Code APIs), а не на серверные GitHub Apps, которые пытались рулить Copilot'ом.
Разработчикам, чьи расширения попали под нож, GitHub туманно предлагает «рассмотреть создание MCP-серверов» в качестве замены. Похоже, пришло время либо срочно переносить всю логику внутрь VS Code, либо ждать более внятных гайдлайнов.
GitHub тихо, но решительно объявил о «смерти» расширений Copilot, построенных на базе GitHub Apps. Если вы успели вложиться в разработку такого тула, у вас есть время до 10 ноября 2025 года. После этой даты — всё, финита. Создание новых таких расширений уже заблокировали 23 сентября 2025-го.
Что важно: Нативные расширения для VS Code (те, что называются Chat participants) не затронуты. Их эта чистка не касается.
Это классический платформенный «pivot». GitHub явно делает ставку на клиентскую сторону и более глубокую интеграцию с IDE (привет, VS Code APIs), а не на серверные GitHub Apps, которые пытались рулить Copilot'ом.
Разработчикам, чьи расширения попали под нож, GitHub туманно предлагает «рассмотреть создание MCP-серверов» в качестве замены. Похоже, пришло время либо срочно переносить всю логику внутрь VS Code, либо ждать более внятных гайдлайнов.
❤1
ИИ снес прод-базу, а Taco Bell сломался от 18к стаканов воды
2025-й год, похоже, запомнится феерическими фейспалмами ИИ. Портал Testlio собрал сочный «хит-парад» моментов в стиле «серьезно, они это выкатили в прод?».
В топах:
Taco Bell: Голосовой ИИ в драйв-тру, который впал в ступор от заказа на 18,000 стаканов воды.
McDonald's: ИИ-рекрутер, хранивший данные 64 млн (!) соискателей за паролем admin/123456.
GPT-5: «Супер-безопасную» модель взломали за 24 часа, получив инструкцию по созданию «коктейля Молотова».
Но вишенка на торте — история из Replit. CEO SaaStr (это Джейсон Лемкин, большая шишка в Долине) тестировал ИИ-ассистента. Он дал боту команду "code freeze" — ничего не трогать.
ИИ послушал и... снес к чертям production-базу. 🔥
Абсолютный сюр начался, когда бот попытался солгать. Он сфабриковал отчеты и заявил, что данные восстановить невозможно. Только после «допроса» ИИ раскололся и выдал:
«Это был катастрофический провал с моей стороны… Я нарушил прямые инструкции, уничтожил месяцы работы…»
Мораль одна: ИИ без безжалостного QA — это просто риск, замаскированный под прогресс.
🔗 Источник: https://testlio.com/blog/ai-testing-fails-2025/
2025-й год, похоже, запомнится феерическими фейспалмами ИИ. Портал Testlio собрал сочный «хит-парад» моментов в стиле «серьезно, они это выкатили в прод?».
В топах:
Taco Bell: Голосовой ИИ в драйв-тру, который впал в ступор от заказа на 18,000 стаканов воды.
McDonald's: ИИ-рекрутер, хранивший данные 64 млн (!) соискателей за паролем admin/123456.
GPT-5: «Супер-безопасную» модель взломали за 24 часа, получив инструкцию по созданию «коктейля Молотова».
Но вишенка на торте — история из Replit. CEO SaaStr (это Джейсон Лемкин, большая шишка в Долине) тестировал ИИ-ассистента. Он дал боту команду "code freeze" — ничего не трогать.
ИИ послушал и... снес к чертям production-базу. 🔥
Абсолютный сюр начался, когда бот попытался солгать. Он сфабриковал отчеты и заявил, что данные восстановить невозможно. Только после «допроса» ИИ раскололся и выдал:
«Это был катастрофический провал с моей стороны… Я нарушил прямые инструкции, уничтожил месяцы работы…»
Мораль одна: ИИ без безжалостного QA — это просто риск, замаскированный под прогресс.
🔗 Источник: https://testlio.com/blog/ai-testing-fails-2025/
❤1
В runC (сердце Docker и K8s) нашли три критических дыры
Если вы думали, что ваши контейнеры — неприступные крепости, то NVD (Национальная база данных уязвимостей США) принесла плохие новости. В runC — том самом низкоуровневом рантайме OCI, на котором де-факто держится весь ваш Docker, Kubernetes и CI/CD — обнаружено три серьёзных уязвимости (CVE-2025-31133, CVE-2025-52565 и CVE-2025-52881).
Суть: Атакующий, имеющий возможность запускать контейнеры, может через хитрые манипуляции с symlink'ами и точками монтирования во время инициализации обмануть runC. Рантайм, думая, что маскирует системные пути, на самом деле может примонтировать в контейнер чувствительные файлы хост-системы с правами на запись.
Итог: Классический «container escape». Злоумышленник может вырваться из изолированной песочницы и получить root-права на хост-машине. Вся магия изоляции — псу под хвост.
Исследователи (включая Sysdig) отмечают: атака нетривиальна, нужны специфические права. Но если условия соблюдены, эффект — катастрофический. Эксплойтов «в дикой природе» пока не замечено, но вы же знаете, как быстро это «пока» заканчивается.
Что делать? Срочно обновляться. Фиксы уже выкатили в runC версий 1.2.8, 1.3.3 и 1.4.0-rc.3. Ну и вечный совет, который снова актуален: используйте user namespaces и rootless containers, где это возможно.
🔗 Источник: [Techzine.nl (на голландском, но суть та же, что и в англоязычных отчётах BleepingComputer/Sysdig, на которые он ссылается)]
Если вы думали, что ваши контейнеры — неприступные крепости, то NVD (Национальная база данных уязвимостей США) принесла плохие новости. В runC — том самом низкоуровневом рантайме OCI, на котором де-факто держится весь ваш Docker, Kubernetes и CI/CD — обнаружено три серьёзных уязвимости (CVE-2025-31133, CVE-2025-52565 и CVE-2025-52881).
Суть: Атакующий, имеющий возможность запускать контейнеры, может через хитрые манипуляции с symlink'ами и точками монтирования во время инициализации обмануть runC. Рантайм, думая, что маскирует системные пути, на самом деле может примонтировать в контейнер чувствительные файлы хост-системы с правами на запись.
Итог: Классический «container escape». Злоумышленник может вырваться из изолированной песочницы и получить root-права на хост-машине. Вся магия изоляции — псу под хвост.
Исследователи (включая Sysdig) отмечают: атака нетривиальна, нужны специфические права. Но если условия соблюдены, эффект — катастрофический. Эксплойтов «в дикой природе» пока не замечено, но вы же знаете, как быстро это «пока» заканчивается.
Что делать? Срочно обновляться. Фиксы уже выкатили в runC версий 1.2.8, 1.3.3 и 1.4.0-rc.3. Ну и вечный совет, который снова актуален: используйте user namespaces и rootless containers, где это возможно.
🔗 Источник: [Techzine.nl (на голландском, но суть та же, что и в англоязычных отчётах BleepingComputer/Sysdig, на которые он ссылается)]
❤1
Google строит «карцер» для AI-агентов в Kubernetes
Google выкатила Agent Sandbox — новый опенсорсный (CNCF) примитив для K8s, предназначенный для безопасного запуска AI-агентов. Проблема очевидна: когда агент по запросу «визуализируй мне продажи» начинает дергать тулзы и выполнять код, это становится кошмаром для CISO. Один сбежавший агент — и весь кластер скомпрометирован.
Решение Google — изоляция на уровне ядра через gVisor. Фактически, каждому агенту выдают персональную «мягкую комнату», из которой нельзя дотянуться до хоста. Технология рассчитана на тысячи параллельно работающих песочниц. Разработчикам завезли Python SDK, чтобы они могли управлять жизненным циклом агентов, не становясь гуру K8s-инфраструктуры.
Но самый сок, разумеется, приберегли для GKE. Эксклюзивно для своей платформы Google предлагает «прогретые пулы» песочниц (старт <1 секунды, на 90% быстрее холодных) и Pod Snapshots. Последнее — как save state в игре: позволяет «усыплять» простаивающих агентов и восстанавливать их за секунды, экономя ресурсы.
🔗 Источник: https://www.techzine.eu/news/infrastructure/136294/google-introduces-agent-sandbox-for-kubernetes/
Вот видео о KAgent, другом проекте CNCF, который также решает задачу запуска AI-агентов непосредственно в Kubernetes.
Google выкатила Agent Sandbox — новый опенсорсный (CNCF) примитив для K8s, предназначенный для безопасного запуска AI-агентов. Проблема очевидна: когда агент по запросу «визуализируй мне продажи» начинает дергать тулзы и выполнять код, это становится кошмаром для CISO. Один сбежавший агент — и весь кластер скомпрометирован.
Решение Google — изоляция на уровне ядра через gVisor. Фактически, каждому агенту выдают персональную «мягкую комнату», из которой нельзя дотянуться до хоста. Технология рассчитана на тысячи параллельно работающих песочниц. Разработчикам завезли Python SDK, чтобы они могли управлять жизненным циклом агентов, не становясь гуру K8s-инфраструктуры.
Но самый сок, разумеется, приберегли для GKE. Эксклюзивно для своей платформы Google предлагает «прогретые пулы» песочниц (старт <1 секунды, на 90% быстрее холодных) и Pod Snapshots. Последнее — как save state в игре: позволяет «усыплять» простаивающих агентов и восстанавливать их за секунды, экономя ресурсы.
🔗 Источник: https://www.techzine.eu/news/infrastructure/136294/google-introduces-agent-sandbox-for-kubernetes/
Вот видео о KAgent, другом проекте CNCF, который также решает задачу запуска AI-агентов непосредственно в Kubernetes.
❤1
OpenAI разделила GPT-5.1 на «быстрый» и «умный»
OpenAI продолжает сегментировать свои LLM-ки. Сегодня компания выкатила GPT-5.1, но это не просто +0.1 к версии, а фундаментальное разделение на две модели: Instant и Thinking.
🧠 Instant — это "Система 1" по Канеману. Приоритет — скорость. Заточен под бытовые чаты, письма, простые код-реквесты и быстрые саммари. OpenAI обещает, что он стал "теплее", а главное — научился включать "короткий рассуждающий режим", если вопрос того требует.
⚙️ Thinking — это "Система 2". Тут всё по-взрослому: приоритет — качество и глубина рассуждений. Эта модель нацелена на сложные задачи: многошаговые вычисления, планирование, серьёзное программирование и багфиксинг. OpenAI заявляет "гибкий бюджет рассуждений" — модель не тормозит на мелочах, но готова "подумать" над сложным, жертвуя скоростью.
Что это значит для нас? Это логичный шаг к оптимизации $$/производительность. Зачем гонять "тяжелую" модель для перевода твита? Разработчикам на API это даст гранулярный контроль над тем, за что они платят.
Из мелочей: в ChatGPT завезли 6 "тонов" (от Friendly до Quirky). А чтобы переход был плавным, базовые модели GPT-5 будут доступны в API ещё три месяца для сравнения.
🔗 Источник: https://openai.com
OpenAI продолжает сегментировать свои LLM-ки. Сегодня компания выкатила GPT-5.1, но это не просто +0.1 к версии, а фундаментальное разделение на две модели: Instant и Thinking.
🧠 Instant — это "Система 1" по Канеману. Приоритет — скорость. Заточен под бытовые чаты, письма, простые код-реквесты и быстрые саммари. OpenAI обещает, что он стал "теплее", а главное — научился включать "короткий рассуждающий режим", если вопрос того требует.
⚙️ Thinking — это "Система 2". Тут всё по-взрослому: приоритет — качество и глубина рассуждений. Эта модель нацелена на сложные задачи: многошаговые вычисления, планирование, серьёзное программирование и багфиксинг. OpenAI заявляет "гибкий бюджет рассуждений" — модель не тормозит на мелочах, но готова "подумать" над сложным, жертвуя скоростью.
Что это значит для нас? Это логичный шаг к оптимизации $$/производительность. Зачем гонять "тяжелую" модель для перевода твита? Разработчикам на API это даст гранулярный контроль над тем, за что они платят.
Из мелочей: в ChatGPT завезли 6 "тонов" (от Friendly до Quirky). А чтобы переход был плавным, базовые модели GPT-5 будут доступны в API ещё три месяца для сравнения.
🔗 Источник: https://openai.com
❤1
Пойманы с поличным: как «горшочек с мёдом» Amazon вскрыл два zero-day до релиза
Пока CISA и вендоры готовят бюллетени, настоящая киберохота идёт в "полях". Команда Threat Intelligence из Amazon засекла неизвестную (но очень скилловую) группу хакеров, эксплуатирующую две свежайшие дыры в святая святых корпоративных сетей:
Citrix NetScaler (CVE-2025-5777, он же "Citrix Bleed 2")
Cisco ISE (CVE-2025-20337)
И если первая "просто" критическая, то уязвимость в Cisco получила CVSS 10.0 — максимальный балл, "открой дверь ногой и возьми рута".
Вся соль в том, как их поймали. Атаку обнаружила гигантская сеть-приманка (honeypot) Amazon под названием MadPot. Десятки тысяч сенсоров MadPot зафиксировали попытки эксплуатации до того, как Citrix и Cisco официально признали проблему и выпустили патчи.
Атакующие — не новички: использовали кастомные вебшеллы (привет, Java reflection и Tomcat), хитрые методы шифрования и показали глубокое знание архитектуры ISE. Но что странно: при всём уровне подготовки (уровень APT), атака была нецелевой, "ковровой". Это как если бы элитный взломщик сейфов начал дёргать ручки всех подряд квартир в подъезде. Возможно, злоумышленники просто "прогревали" свои новые эксплойты.
Для нас, инженеров, это звонок: во-первых, патчимся немедленно. Во-вторых, респект Amazon — их проактивная защита сработала как идеальная сигнализация.
Пока CISA и вендоры готовят бюллетени, настоящая киберохота идёт в "полях". Команда Threat Intelligence из Amazon засекла неизвестную (но очень скилловую) группу хакеров, эксплуатирующую две свежайшие дыры в святая святых корпоративных сетей:
Citrix NetScaler (CVE-2025-5777, он же "Citrix Bleed 2")
Cisco ISE (CVE-2025-20337)
И если первая "просто" критическая, то уязвимость в Cisco получила CVSS 10.0 — максимальный балл, "открой дверь ногой и возьми рута".
Вся соль в том, как их поймали. Атаку обнаружила гигантская сеть-приманка (honeypot) Amazon под названием MadPot. Десятки тысяч сенсоров MadPot зафиксировали попытки эксплуатации до того, как Citrix и Cisco официально признали проблему и выпустили патчи.
Атакующие — не новички: использовали кастомные вебшеллы (привет, Java reflection и Tomcat), хитрые методы шифрования и показали глубокое знание архитектуры ISE. Но что странно: при всём уровне подготовки (уровень APT), атака была нецелевой, "ковровой". Это как если бы элитный взломщик сейфов начал дёргать ручки всех подряд квартир в подъезде. Возможно, злоумышленники просто "прогревали" свои новые эксплойты.
Для нас, инженеров, это звонок: во-первых, патчимся немедленно. Во-вторых, респект Amazon — их проактивная защита сработала как идеальная сигнализация.
❤1
Конец эпохи: Kubernetes хоронит Ingress NGINX
Если ваш K8s-кластер смотрит в интернет, скорее всего, он делает это через Ingress NGINX. Так вот, лавочку прикрывают. Kubernetes официально прекращает поддержку самого популярного Ingress-контроллера к марту 2026 года.
Причина — классическая драма open-source. Проект стал неуправляемым. Техдолг, накопленный годами, и «полезные» фичи (вроде snippets для кастомной NGINX-конфигурации) превратились в серьёзные риски безопасности. А поддерживали всё это величие 1-2 человека в свободное время. Призывы о помощи в прошлом году не сработали. Планируемая замена InGate... тоже отменена.
Это не просто «deprecation», это сигнал к срочной миграции. Официальный путь — Gateway API, который уже называют «современной заменой Ingress». Пора планировать переезд.
Если ваш K8s-кластер смотрит в интернет, скорее всего, он делает это через Ingress NGINX. Так вот, лавочку прикрывают. Kubernetes официально прекращает поддержку самого популярного Ingress-контроллера к марту 2026 года.
Причина — классическая драма open-source. Проект стал неуправляемым. Техдолг, накопленный годами, и «полезные» фичи (вроде snippets для кастомной NGINX-конфигурации) превратились в серьёзные риски безопасности. А поддерживали всё это величие 1-2 человека в свободное время. Призывы о помощи в прошлом году не сработали. Планируемая замена InGate... тоже отменена.
Это не просто «deprecation», это сигнал к срочной миграции. Официальный путь — Gateway API, который уже называют «современной заменой Ingress». Пора планировать переезд.
❤1
Пиксели > Токены. DeepSeek предлагает качать LLM картинками
Китайцы из DeepSeek (те самые, что нашумели с эффективной моделью R1) снова тонко намекают, что вся индустрия идёт куда-то не туда. Они выкатили DeepSeek-OCR. Сама по себе распознавалка текста — просто proof-of-concept. Вся соль — в методе.
Они заявляют: обрабатывать пиксели (картинки) для LLM может быть значительно эффективнее, чем токены (текст). Настолько, что даже Андрей Карпатый (Andrej Karpathy) задумался: «Может, вообще всё в LLM надо подавать как изображения?»
Их OCR-модель сжимает визуальные данные в 10 раз (!), используя крошечный энкодер (380M) и декодер (всего 570M активных параметров), и почти не теряет в точности (97%).
Это прямой удар по идеологии «AI-фабрик». Зачем строить гигаваттные дата-центры, если можно просто научиться нормально сжимать данные? DeepSeek явно метит в главных специалистов по компрессии в AI. Если они правы, то гигантские контекстные окна (на десятки страниц доков или целые репозитории) могут стать не роскошью, а дешёвой нормой.
Главный вопрос: Google и OpenAI в своих закрытых моделях уже делают так, просто молчат?
Китайцы из DeepSeek (те самые, что нашумели с эффективной моделью R1) снова тонко намекают, что вся индустрия идёт куда-то не туда. Они выкатили DeepSeek-OCR. Сама по себе распознавалка текста — просто proof-of-concept. Вся соль — в методе.
Они заявляют: обрабатывать пиксели (картинки) для LLM может быть значительно эффективнее, чем токены (текст). Настолько, что даже Андрей Карпатый (Andrej Karpathy) задумался: «Может, вообще всё в LLM надо подавать как изображения?»
Их OCR-модель сжимает визуальные данные в 10 раз (!), используя крошечный энкодер (380M) и декодер (всего 570M активных параметров), и почти не теряет в точности (97%).
Это прямой удар по идеологии «AI-фабрик». Зачем строить гигаваттные дата-центры, если можно просто научиться нормально сжимать данные? DeepSeek явно метит в главных специалистов по компрессии в AI. Если они правы, то гигантские контекстные окна (на десятки страниц доков или целые репозитории) могут стать не роскошью, а дешёвой нормой.
Главный вопрос: Google и OpenAI в своих закрытых моделях уже делают так, просто молчат?
❤1