Apple и технический парадокс китайских LLM
Китайский регулятор поставил перед Apple (и их локальным партнером Alibaba) задачу, которая звучит как ночной кошмар ML-инженера. Чтобы запустить Apple Intelligence в КНР, модель должна пройти тест из 2000 провокационных вопросов и успешно не ответить минимум на 95% из них.
В чем техническая соль? Мы наблюдаем уникальный архитектурный конфликт. Регулятор требует создать химеру:
Модель обязана обучаться на глобальном датасете (включая заблокированные в Китае ресурсы), иначе она будет технически отсталой и бесполезной.
Модель обязана блокировать вывод информации, полученной из этого обучения, если она касается запретных тем.
Это создает шизофреническую ситуацию в весах нейросети. Знание присутствует в латентном пространстве (модель «знает», что случилось на площади Тяньаньмэнь), но поверх него накручивается агрессивный слой RLHF (обучения с подкреплением) и системных промптов, цель которых — подавлять активацию нейронов на определенные семантические триггеры.
Что это значит для индустрии? Это породило новый рынок — «AI-репетиторство». Компании нанимают специальные агентства, чтобы те прогоняли модель через тысячи итераций, буквально натаскивая её на «правильное молчание». Вместо борьбы с галлюцинациями инженеры тратят ресурсы на то, чтобы сделать модель выборочно «тупой».
Китайский регулятор поставил перед Apple (и их локальным партнером Alibaba) задачу, которая звучит как ночной кошмар ML-инженера. Чтобы запустить Apple Intelligence в КНР, модель должна пройти тест из 2000 провокационных вопросов и успешно не ответить минимум на 95% из них.
В чем техническая соль? Мы наблюдаем уникальный архитектурный конфликт. Регулятор требует создать химеру:
Модель обязана обучаться на глобальном датасете (включая заблокированные в Китае ресурсы), иначе она будет технически отсталой и бесполезной.
Модель обязана блокировать вывод информации, полученной из этого обучения, если она касается запретных тем.
Это создает шизофреническую ситуацию в весах нейросети. Знание присутствует в латентном пространстве (модель «знает», что случилось на площади Тяньаньмэнь), но поверх него накручивается агрессивный слой RLHF (обучения с подкреплением) и системных промптов, цель которых — подавлять активацию нейронов на определенные семантические триггеры.
Что это значит для индустрии? Это породило новый рынок — «AI-репетиторство». Компании нанимают специальные агентства, чтобы те прогоняли модель через тысячи итераций, буквально натаскивая её на «правильное молчание». Вместо борьбы с галлюцинациями инженеры тратят ресурсы на то, чтобы сделать модель выборочно «тупой».
Империя наносит ответный удар: Gemini «съедает» трафик ChatGPT, а OpenAI в панике
Похоже, медовый месяц Сэма Альтмана заканчивается. Данные Similarweb показывают картину, от которой в офисах OpenAI, вероятно, пригорает сильнее, чем от перегрева серверных стоек.
В чем соль? За год доля Gemini в веб-трафике генеративного ИИ взлетела с 5,4% до 18,2%. В это же время ChatGPT просел с тотальных 87,2% до 68%. Инсайдеры шепчут про режим «Code Red» в OpenAI — именно этот пожар заставил их экстренно выкатить GPT-5.2 в декабре.
Почему это происходит? Работает старое доброе правило: «Лучший инструмент — тот, который под рукой». Google не просто сделал хорошую модель (Gemini 3 Flash реально быстрая и умная), он вшил её в вены интернета: Chrome, Android, Workspace.
Это как водопровод: можно покупать элитную бутилированную воду (ChatGPT), а можно просто открыть кран (Gemini). Большинство выбирает кран.
А что остальные? Тут начинается комедия. Microsoft Copilot, несмотря на агрессивное внедрение в Windows, застрял на уровне статистической погрешности (1,5%). Оказывается, просто «быть везде» мало — нужно еще и не раздражать пользователя.
Что это значит для нас? Эпоха «одного царя горы» уходит. ИИ превращается из отдельного дестинейшена (сайта, куда мы заходим) в нативную функцию (фичу, которая уже тут). Для разработчиков это сигнал: пора перестать молиться на API одного вендора и готовиться к реальной мультимодельной фрагментации.
Похоже, медовый месяц Сэма Альтмана заканчивается. Данные Similarweb показывают картину, от которой в офисах OpenAI, вероятно, пригорает сильнее, чем от перегрева серверных стоек.
В чем соль? За год доля Gemini в веб-трафике генеративного ИИ взлетела с 5,4% до 18,2%. В это же время ChatGPT просел с тотальных 87,2% до 68%. Инсайдеры шепчут про режим «Code Red» в OpenAI — именно этот пожар заставил их экстренно выкатить GPT-5.2 в декабре.
Почему это происходит? Работает старое доброе правило: «Лучший инструмент — тот, который под рукой». Google не просто сделал хорошую модель (Gemini 3 Flash реально быстрая и умная), он вшил её в вены интернета: Chrome, Android, Workspace.
Это как водопровод: можно покупать элитную бутилированную воду (ChatGPT), а можно просто открыть кран (Gemini). Большинство выбирает кран.
А что остальные? Тут начинается комедия. Microsoft Copilot, несмотря на агрессивное внедрение в Windows, застрял на уровне статистической погрешности (1,5%). Оказывается, просто «быть везде» мало — нужно еще и не раздражать пользователя.
Что это значит для нас? Эпоха «одного царя горы» уходит. ИИ превращается из отдельного дестинейшена (сайта, куда мы заходим) в нативную функцию (фичу, которая уже тут). Для разработчиков это сигнал: пора перестать молиться на API одного вендора и готовиться к реальной мультимодельной фрагментации.
Китайский демпинг в деле: MiniMax M2.1 унижает Claude ценой (и якобы качеством)
Китайский стартап MiniMax выкатил модель M2.1. Заявка дерзкая: кодит лучше топов рынка, а стоит в 10 раз дешевле. Кажется, эпоха дорогих API для кодеров подходит к концу.
В чем соль? M2.1 позиционируется как автономный «цифровой сотрудник». Под капотом — архитектура MoE (Mixture of Experts) . Из 230 млрд параметров на каждый токен активируются лишь 10 млрд. Это дает скорость лайт-модели при "мозгах" флагмана.
Всеядный кодер: Rust, Go, C++, Kotlin, Swift — модель заточена под реальный продакшн, а не только под Python-скрипты.
UI/UX и Агентность: Умеет не просто генерить текст, а имитировать клики, работать с таблицами и создавать "под ключ" нативные приложения для iOS/Android с сложной версткой.
А где подвох? Разработчики хвастаются, что побили Claude 3.5 Sonnet в тестах SWE-Multilingual (72,5%). Но есть нюанс: для оценки фуллстек-скиллов стартап выкатил собственный бенчмарк VIBE. Классика маркетинга: сам придумал правила — сам победил.
Что теперь? Даже если тесты приукрашены, экономика решает. $0.30 за вход и $1.20 за выход (за 1 млн токенов) — это демпинг, граничащий с благотворительностью. Для инди-хакеров и автоматизации рутины M2.1 может стать новым дефолтным инструментом. Модель доступна по API и, что приятно, с открытыми весами.
Китайский стартап MiniMax выкатил модель M2.1. Заявка дерзкая: кодит лучше топов рынка, а стоит в 10 раз дешевле. Кажется, эпоха дорогих API для кодеров подходит к концу.
В чем соль? M2.1 позиционируется как автономный «цифровой сотрудник». Под капотом — архитектура MoE (Mixture of Experts) . Из 230 млрд параметров на каждый токен активируются лишь 10 млрд. Это дает скорость лайт-модели при "мозгах" флагмана.
Всеядный кодер: Rust, Go, C++, Kotlin, Swift — модель заточена под реальный продакшн, а не только под Python-скрипты.
UI/UX и Агентность: Умеет не просто генерить текст, а имитировать клики, работать с таблицами и создавать "под ключ" нативные приложения для iOS/Android с сложной версткой.
А где подвох? Разработчики хвастаются, что побили Claude 3.5 Sonnet в тестах SWE-Multilingual (72,5%). Но есть нюанс: для оценки фуллстек-скиллов стартап выкатил собственный бенчмарк VIBE. Классика маркетинга: сам придумал правила — сам победил.
Что теперь? Даже если тесты приукрашены, экономика решает. $0.30 за вход и $1.20 за выход (за 1 млн токенов) — это демпинг, граничащий с благотворительностью. Для инди-хакеров и автоматизации рутины M2.1 может стать новым дефолтным инструментом. Модель доступна по API и, что приятно, с открытыми весами.
Андрей Карпаты признался, что программирование переживает «драматический рефакторинг»
Бывший глава AI в Tesla и сооснователь OpenAI выкатил тред, от которого у многих сеньоров побежит холодок по спине. Карпаты признался, что программирование переживает «драматический рефакторинг», а сам он ощущает себя динозавром на фоне новых скоростей.
В чем соль? Карпаты сравнивает современные LLM с «инопланетной технологией без инструкции», которую раздали всем желающим. Пока индустрию трясёт (магнитуда 9 баллов, не меньше), инженеры вынуждены методом тыка осваивать новый слой абстракций: агенты, память, контексты, MCP и интеграции. Всё это работает «стохастично, ненадёжно и непрозрачно» — полная противоположность старой доброй детерминированной инженерии. Но вердикт Карпаты суров: если вы не стали продуктивнее в 10 раз, связав эти инструменты воедино, — это теперь официально skill issue.
И что теперь? Сообщество раскололось. Пока разработчики Claude Code хвастаются, что месяц не открывали IDE (всё пишут модели), скептики справедливо замечают конфликт интересов: Карпаты всё-таки продает курсы в своем стартапе Eureka Labs. Но сигнал четкий: «легаси-память» о том, что нейронки тупые, мешает опытным спецам. Мы стремительно превращаемся из авторов кода в менеджеров капризных цифровых стажёров. Адаптируйся или оставайся в прошлом.
Бывший глава AI в Tesla и сооснователь OpenAI выкатил тред, от которого у многих сеньоров побежит холодок по спине. Карпаты признался, что программирование переживает «драматический рефакторинг», а сам он ощущает себя динозавром на фоне новых скоростей.
В чем соль? Карпаты сравнивает современные LLM с «инопланетной технологией без инструкции», которую раздали всем желающим. Пока индустрию трясёт (магнитуда 9 баллов, не меньше), инженеры вынуждены методом тыка осваивать новый слой абстракций: агенты, память, контексты, MCP и интеграции. Всё это работает «стохастично, ненадёжно и непрозрачно» — полная противоположность старой доброй детерминированной инженерии. Но вердикт Карпаты суров: если вы не стали продуктивнее в 10 раз, связав эти инструменты воедино, — это теперь официально skill issue.
И что теперь? Сообщество раскололось. Пока разработчики Claude Code хвастаются, что месяц не открывали IDE (всё пишут модели), скептики справедливо замечают конфликт интересов: Карпаты всё-таки продает курсы в своем стартапе Eureka Labs. Но сигнал четкий: «легаси-память» о том, что нейронки тупые, мешает опытным спецам. Мы стремительно превращаемся из авторов кода в менеджеров капризных цифровых стажёров. Адаптируйся или оставайся в прошлом.
ChatGPT будут делать более безопасным для людей
OpenAI экстренно латает дыры в этике. Компания признала, что предыдущие версии иногда вели себя как слишком услужливый лакей, готовый поддакивать даже бредовым идеям пользователя. Теперь это меняется.
В чем соль? OpenAI внедряет новые механизмы безопасности. Чат-бот научили распознавать признаки ментального стресса и делюзий. Вместо того чтобы поддерживать разговор, который может усугубить состояние (феномен sycophancy — угодничества), AI теперь будет мягко тормозить и предлагать ресурсы помощи.
И что теперь? Появится классическая фича «цифрового благополучия», знакомая нам по TikTok и Instagram: если сессия затянулась, бот спросит: «Может, перерыв?». Кроме того, в вопросах «высоких ставок» (например, «Бросить ли мне парня?») модель перестанет быть решительной. Вместо бинарного ответа она будет раскладывать ситуацию по полочкам, избегая прямой ответственности за вашу личную жизнь.
Зачем это? С аудиторией в 700 млн пользователей в неделю любой сбой алгоритма — это потенциальный судебный иск. Кейсы Character.AI показали, что антропоморфность ботов может быть опасной. OpenAI играет на опережение: лучше сделать модель чуть более «скучной» и осторожной, чем объясняться в суде, почему их продукт довел кого-то до кризиса.
А вам не кажется, что OpenAI перегибает и скоро ChatGPT обложат правилами и запретами?
OpenAI экстренно латает дыры в этике. Компания признала, что предыдущие версии иногда вели себя как слишком услужливый лакей, готовый поддакивать даже бредовым идеям пользователя. Теперь это меняется.
В чем соль? OpenAI внедряет новые механизмы безопасности. Чат-бот научили распознавать признаки ментального стресса и делюзий. Вместо того чтобы поддерживать разговор, который может усугубить состояние (феномен sycophancy — угодничества), AI теперь будет мягко тормозить и предлагать ресурсы помощи.
И что теперь? Появится классическая фича «цифрового благополучия», знакомая нам по TikTok и Instagram: если сессия затянулась, бот спросит: «Может, перерыв?». Кроме того, в вопросах «высоких ставок» (например, «Бросить ли мне парня?») модель перестанет быть решительной. Вместо бинарного ответа она будет раскладывать ситуацию по полочкам, избегая прямой ответственности за вашу личную жизнь.
Зачем это? С аудиторией в 700 млн пользователей в неделю любой сбой алгоритма — это потенциальный судебный иск. Кейсы Character.AI показали, что антропоморфность ботов может быть опасной. OpenAI играет на опережение: лучше сделать модель чуть более «скучной» и осторожной, чем объясняться в суде, почему их продукт довел кого-то до кризиса.
А вам не кажется, что OpenAI перегибает и скоро ChatGPT обложат правилами и запретами?
Шах и мат, любители опенспейсов: почему удаленщики получают больше, а работают меньше?
Пока корпорации пытаются загнать всех обратно в офисы под предлогом «эффективности», наука подкинула железобетонный аргумент любителям работать в пижаме. Свежий препринт ВШЭ (Р. Капелюшников, 2025) показывает цифры, от которых у HR-директоров может начаться мигрень.
В чем соль? Дистанционные работники в России зарабатывают в среднем на 60% больше своих офисных коллег. Самое смешное (или грустное для офисных), что трудятся они при этом на 5–10% меньше. У мужчин этот разрыв в доходах еще эпичнее — «премия за дистант» достигает 80%.
Откуда берутся эти деньги? Нет, дома стены не печатают купюры. Тут работает жесткий естественный отбор. Удаленка — это фильтр. Домой (с сохранением эффективности) отпускают тех, кто:
Стоит дороже (сеньоры, редкие спецы).
Автономен (не нуждается в микроменеджменте).
И что теперь? Гипотеза проста: удаленка стала привилегией лучших. Если вам нужен надзиратель, чтобы вы не скроллили ленту, вы остаетесь в офисе на меньшей зарплате. Как отмечает сам автор исследования, магия работает, только если формат совпадает с желанием сотрудника. Если удаленка «навязана» (или наоборот, запрещена) — никакой премии к производительности не ждите.
Пока корпорации пытаются загнать всех обратно в офисы под предлогом «эффективности», наука подкинула железобетонный аргумент любителям работать в пижаме. Свежий препринт ВШЭ (Р. Капелюшников, 2025) показывает цифры, от которых у HR-директоров может начаться мигрень.
В чем соль? Дистанционные работники в России зарабатывают в среднем на 60% больше своих офисных коллег. Самое смешное (или грустное для офисных), что трудятся они при этом на 5–10% меньше. У мужчин этот разрыв в доходах еще эпичнее — «премия за дистант» достигает 80%.
Откуда берутся эти деньги? Нет, дома стены не печатают купюры. Тут работает жесткий естественный отбор. Удаленка — это фильтр. Домой (с сохранением эффективности) отпускают тех, кто:
Стоит дороже (сеньоры, редкие спецы).
Автономен (не нуждается в микроменеджменте).
И что теперь? Гипотеза проста: удаленка стала привилегией лучших. Если вам нужен надзиратель, чтобы вы не скроллили ленту, вы остаетесь в офисе на меньшей зарплате. Как отмечает сам автор исследования, магия работает, только если формат совпадает с желанием сотрудника. Если удаленка «навязана» (или наоборот, запрещена) — никакой премии к производительности не ждите.
Ёлка релизов-2025: главные подарки индустрии, которые вы могли пропустить за дедлайнами
Пока обычные люди нарезают салаты, инженеры обновляют .bashrc. Если весь год вы откладывали мажорные апдейты на «после праздников», то плохие новости: будущее уже наступило, и легаси само себя не перепишет.
В чем соль? 2025-й оказался щедрым на слом устоев.
🐍 Python 3.14 (вышел в октябре) наконец-то сделал серьезный шаг к удалению GIL. Free-threaded режим — это не просто фича, это тектонический сдвиг для CPU-bound задач.
☕️ Java 25 (сентябрь) продолжает борьбу с вербозностью. «Компактные исходники» и упрощенный main намекают, что Java хочет быть дружелюбнее. А вот 32-битный x86 порт официально всё — R.I.P.
🏗 Стабильность: Node.js 24 (Krypton) и .NET 10 зацементировались в LTS до 2028 года. Это те самые «скучные» апдейты, на которых будет держаться весь энтерпрайз ближайшую пятилетку.
И что теперь? Не нужно прямо сейчас ломать прод деплоем в новогоднюю ночь (хотя кто мы такие, чтобы вас судить?). Но мини-чеклист на каникулы обязателен:
Обновите локальные тулчейны — пощупайте t-strings в питоне и Structured Concurrency в джаве.
Добавьте новые версии в матрицу CI — пусть тесты погоняются в отдельной ветке, пока вы спите.
Зачем это? Чтобы в январе не проснуться с технологическим долгом размером с ипотеку. Индустрия ускоряется, и 32-битные системы — не единственное, что остается в прошлом.
Пока обычные люди нарезают салаты, инженеры обновляют .bashrc. Если весь год вы откладывали мажорные апдейты на «после праздников», то плохие новости: будущее уже наступило, и легаси само себя не перепишет.
В чем соль? 2025-й оказался щедрым на слом устоев.
🐍 Python 3.14 (вышел в октябре) наконец-то сделал серьезный шаг к удалению GIL. Free-threaded режим — это не просто фича, это тектонический сдвиг для CPU-bound задач.
☕️ Java 25 (сентябрь) продолжает борьбу с вербозностью. «Компактные исходники» и упрощенный main намекают, что Java хочет быть дружелюбнее. А вот 32-битный x86 порт официально всё — R.I.P.
🏗 Стабильность: Node.js 24 (Krypton) и .NET 10 зацементировались в LTS до 2028 года. Это те самые «скучные» апдейты, на которых будет держаться весь энтерпрайз ближайшую пятилетку.
И что теперь? Не нужно прямо сейчас ломать прод деплоем в новогоднюю ночь (хотя кто мы такие, чтобы вас судить?). Но мини-чеклист на каникулы обязателен:
Обновите локальные тулчейны — пощупайте t-strings в питоне и Structured Concurrency в джаве.
Добавьте новые версии в матрицу CI — пусть тесты погоняются в отдельной ветке, пока вы спите.
Зачем это? Чтобы в январе не проснуться с технологическим долгом размером с ипотеку. Индустрия ускоряется, и 32-битные системы — не единственное, что остается в прошлом.
Итоги года: Когда Copilot стал Коллегой (и начал косячить)
🎄 30 декабря 2025. Время подбивать баги и итоги.
Главный сдвиг 2025 года — мы официально перешли от GenAI к Agentic AI. Если в 2024-м мы просили чат-бота «напиши функцию», то в этом году мы начали говорить агентам «почини билд и разверни на стейдже».
Факты года:
🔹 Смерть «простого кодинга»: Gartner и Stack Overflow подтвердили — 90% энтерпрайз-разработчиков теперь используют AI-ассистентов. Но есть нюанс: доверие к их коду упало до 29%.
🔹 Парадокс продуктивности: Мы стали писать код быстрее, но тратим на 40% больше времени на ревью и отладку того, что написала нейронка. В 2025-м родилась новая дисциплина — AI-Code Reviewer, человек, который разгребает «спагетти», сгенерированное агентами.
🔹 Агенты вышли в автономку: Главный тренд зимы 2025 — мультиагентные системы. Один агент пишет тесты, второй рефакторит, третий пишет документацию. Они спорят друг с другом в логах, пока вы пьете кофе.
🎅 Новогодний тост: За то, чтобы в 2026-м ваши AI-агенты не устроили бесконечный цикл в продакшене.
#DevTrends2025 #AgenticAI #ИтогиГода
🎄 30 декабря 2025. Время подбивать баги и итоги.
Главный сдвиг 2025 года — мы официально перешли от GenAI к Agentic AI. Если в 2024-м мы просили чат-бота «напиши функцию», то в этом году мы начали говорить агентам «почини билд и разверни на стейдже».
Факты года:
🔹 Смерть «простого кодинга»: Gartner и Stack Overflow подтвердили — 90% энтерпрайз-разработчиков теперь используют AI-ассистентов. Но есть нюанс: доверие к их коду упало до 29%.
🔹 Парадокс продуктивности: Мы стали писать код быстрее, но тратим на 40% больше времени на ревью и отладку того, что написала нейронка. В 2025-м родилась новая дисциплина — AI-Code Reviewer, человек, который разгребает «спагетти», сгенерированное агентами.
🔹 Агенты вышли в автономку: Главный тренд зимы 2025 — мультиагентные системы. Один агент пишет тесты, второй рефакторит, третий пишет документацию. Они спорят друг с другом в логах, пока вы пьете кофе.
🎅 Новогодний тост: За то, чтобы в 2026-м ваши AI-агенты не устроили бесконечный цикл в продакшене.
#DevTrends2025 #AgenticAI #ИтогиГода
Meta идет ва-банк: зачем Цукербергу стартап с «китайским акцентом» за полмиллиарда?**
Meta* тихо, но мощно усилила свой арсенал, купив стартап Manus. И это не просто очередная «говорилка», а настоящая фабрика автономных агентов.
В чем соль? Manus делает то, что пока плохо получается у гигантов: useful agents. Их ИИ не просто болтает, а выполняет сложные цепочки задач — от ребалансировки инвестпортфелей до первичного отсева кандидатов на работу. Но главное — трекшн. Ребята вышли на $100 млн ARR (годовой выручки) всего за 8 месяцев. Для Meta это шанс наконец-то превратить WhatsApp из мессенджера в суперапп с умными ассистентами, которые реально экономят время, а не просто генерируют картинки.
Где подвох? В геополитике. Официально Manus — сингапурцы. Фактически — основатели перебралиcь туда из Пекина только в середине 2025 года, а корни уходят в китайскую Butterfly Effect.
Американские регуляторы уже на низком старте: покупка технологий с «восточным следом» сейчас — красная тряпка. Meta* божится, что полностью обрубит связи с Китаем и инвесторами из КНР. Разработчикам же стоит запастись попкорном: наблюдать, как корпорация будет интегрировать агентов и одновременно отбиваться от политиков, будет интересно.
* Организация Meta признана экстремистской и запрещена на территории РФ.
Meta* тихо, но мощно усилила свой арсенал, купив стартап Manus. И это не просто очередная «говорилка», а настоящая фабрика автономных агентов.
В чем соль? Manus делает то, что пока плохо получается у гигантов: useful agents. Их ИИ не просто болтает, а выполняет сложные цепочки задач — от ребалансировки инвестпортфелей до первичного отсева кандидатов на работу. Но главное — трекшн. Ребята вышли на $100 млн ARR (годовой выручки) всего за 8 месяцев. Для Meta это шанс наконец-то превратить WhatsApp из мессенджера в суперапп с умными ассистентами, которые реально экономят время, а не просто генерируют картинки.
Где подвох? В геополитике. Официально Manus — сингапурцы. Фактически — основатели перебралиcь туда из Пекина только в середине 2025 года, а корни уходят в китайскую Butterfly Effect.
Американские регуляторы уже на низком старте: покупка технологий с «восточным следом» сейчас — красная тряпка. Meta* божится, что полностью обрубит связи с Китаем и инвесторами из КНР. Разработчикам же стоит запастись попкорном: наблюдать, как корпорация будет интегрировать агентов и одновременно отбиваться от политиков, будет интересно.
* Организация Meta признана экстремистской и запрещена на территории РФ.
❄️ В 2025-м безопасность перестала быть скучной и стала пугающей.
Пока фронтендеры спорили о новых JS-фреймворках (их вышло еще 12 штук, мы считали), в бэкенде и системном программировании произошел тектонический сдвиг.
Факты года:
🔹 PQC (Post-Quantum Cryptography) — теперь стандарт. NIST финализировал стандарты, и в 2025-м началась великая миграция ключей. Если ваш пет-проект все еще на старом RSA, в 2026-м это уже моветон. Квантовый компьютер еще не взломал ваш биткоин, но индустрия уже ведет себя так, будто это случится в четверг.
🔹 Memory Safety Mandate: Белый дом и OpenSSF дожали тему. C++ не умер, но в 2025-м начать новый проект в ядре Linux не на Rust стало политическим самоубийством. Раст больше не хайп, а бюрократическая необходимость.
🔹 Green IT как KPI: В 2025-м «зеленый код» (energy-efficient computing) стал не просто маркетингом, а строкой в бюджете. FinOps трансформировался в GreenOps: мы начали оптимизировать алгоритмы не ради скорости, а чтобы счет за электричество в облаке не выглядел как номер телефона.
🎅 Новогодний тост: Желаю, чтобы ваш легаси-код на C переписался на Rust сам собой!
#Rust2025 #CyberSec #PostQuantum
Пока фронтендеры спорили о новых JS-фреймворках (их вышло еще 12 штук, мы считали), в бэкенде и системном программировании произошел тектонический сдвиг.
Факты года:
🔹 PQC (Post-Quantum Cryptography) — теперь стандарт. NIST финализировал стандарты, и в 2025-м началась великая миграция ключей. Если ваш пет-проект все еще на старом RSA, в 2026-м это уже моветон. Квантовый компьютер еще не взломал ваш биткоин, но индустрия уже ведет себя так, будто это случится в четверг.
🔹 Memory Safety Mandate: Белый дом и OpenSSF дожали тему. C++ не умер, но в 2025-м начать новый проект в ядре Linux не на Rust стало политическим самоубийством. Раст больше не хайп, а бюрократическая необходимость.
🔹 Green IT как KPI: В 2025-м «зеленый код» (energy-efficient computing) стал не просто маркетингом, а строкой в бюджете. FinOps трансформировался в GreenOps: мы начали оптимизировать алгоритмы не ради скорости, а чтобы счет за электричество в облаке не выглядел как номер телефона.
🎅 Новогодний тост: Желаю, чтобы ваш легаси-код на C переписался на Rust сам собой!
#Rust2025 #CyberSec #PostQuantum
🎄✨ Что едят техно-легенды на Рождество и Новый год (по их публичным вкусам)
🥤 Билл Гейтс — сооснователь Microsoft, филантроп
На столе легко представить Diet Coke как “напиток по умолчанию” и простые закуски без лишних экспериментов.
🍟 Марк Цукерберг — CEO Meta
Праздничный сет в стиле “беру проверенное”: наггетсы, бургер, большая картошка, а на десерт Oreo McFlurry и яблочный пирожок.
🥞 Сундар Пичаи — CEO Alphabet/Google
Индийская классика, которая отлично идёт на большие компании: доса, чоле-бхатура, пав-бхаджи — стол получается яркий и разнообразный.
🐟🍷 Тим Кук — CEO Apple
Более “парадная” подача: рыба/морепродукты, бокал белого вина, а на десерт — тёмный шоколад и что-нибудь яблочное.
🥓🥞 Дженсен Хуанг — CEO NVIDIA
Комфортная классика: панкейки и сосиски — идеально для позднего праздничного завтрака 1 января.
🐙 Джефф Безос — основатель Amazon (и Blue Origin)
История для любителей необычных вкусов: осьминог (да, как отдельное блюдо на столе) — можно подать как тёплую закуску или салат с морепродуктами.
🥗 Шерил Сэндберг — основательница LeanIn.Org, экс-COO Meta
Большой “здоровый” салат: салатная база + курица, можно добавить орехи/сыр/соус — получается и празднично, и не тяжело.
🍳🥩🍔 Илон Маск — CEO Tesla и SpaceX, владелец X
Если коротко: стейк с яйцами как плотная база и чизбургер как вечная классика “на перекус”.
🍝 Сэм Альтман — CEO OpenAI
Простая паста типа spaghetti aglio e olio: чеснок, оливковое масло, перец, зелень — легко масштабируется на компанию и готовится быстро.
🥟🦐 Демис Хассабис — CEO и сооснователь Google DeepMind
Азиатский стол: димсамы с морепродуктами, лёгкие супы и закуски — удобно ставить в центр и делиться.
☕️ Фэй-Фэй Ли — профессор Stanford, CEO/сооснователь World Labs
Праздничный напиток: вьетнамский iced coffee — кофе со сгущёнкой, который легко сделать “домашним спецвыпуском”.
🥦 Марк Кьюбан — предприниматель и инвестор
Более “здоровая” линия: овощи, салаты, блюда без тяжёлых соусов, иногда простые протеиновые варианты на завтрак/перекус.
🍗🌶 Эван Шпигель — CEO Snap Inc.
Куриная тема: peri-peri курица (как в Nando’s), куриный бургер, peri-peri картошка — отличная горячая часть стола.
🥩🥗 Джек Дорси — CEO Block Inc., сооснователь Twitter
Спартанский сет: стейк/рыба + салат/овощи — простая и понятная праздничная тарелка.
🌱🍳 Андрей Карпаты — AI-исследователь, основатель Eureka Labs (экс-Tesla/OpenAI)
Растительные версии привычных блюд: “веганский скрэмбл” (растительная основа + специи) и лёгкие закуски.
🎁 И финальный вопрос: что у вас на столе в этом году — тазик салата, рыба и морепродукты, паста на компанию, индийская классика или бургерный набор?
🥤 Билл Гейтс — сооснователь Microsoft, филантроп
На столе легко представить Diet Coke как “напиток по умолчанию” и простые закуски без лишних экспериментов.
🍟 Марк Цукерберг — CEO Meta
Праздничный сет в стиле “беру проверенное”: наггетсы, бургер, большая картошка, а на десерт Oreo McFlurry и яблочный пирожок.
🥞 Сундар Пичаи — CEO Alphabet/Google
Индийская классика, которая отлично идёт на большие компании: доса, чоле-бхатура, пав-бхаджи — стол получается яркий и разнообразный.
🐟🍷 Тим Кук — CEO Apple
Более “парадная” подача: рыба/морепродукты, бокал белого вина, а на десерт — тёмный шоколад и что-нибудь яблочное.
🥓🥞 Дженсен Хуанг — CEO NVIDIA
Комфортная классика: панкейки и сосиски — идеально для позднего праздничного завтрака 1 января.
🐙 Джефф Безос — основатель Amazon (и Blue Origin)
История для любителей необычных вкусов: осьминог (да, как отдельное блюдо на столе) — можно подать как тёплую закуску или салат с морепродуктами.
🥗 Шерил Сэндберг — основательница LeanIn.Org, экс-COO Meta
Большой “здоровый” салат: салатная база + курица, можно добавить орехи/сыр/соус — получается и празднично, и не тяжело.
🍳🥩🍔 Илон Маск — CEO Tesla и SpaceX, владелец X
Если коротко: стейк с яйцами как плотная база и чизбургер как вечная классика “на перекус”.
🍝 Сэм Альтман — CEO OpenAI
Простая паста типа spaghetti aglio e olio: чеснок, оливковое масло, перец, зелень — легко масштабируется на компанию и готовится быстро.
🥟🦐 Демис Хассабис — CEO и сооснователь Google DeepMind
Азиатский стол: димсамы с морепродуктами, лёгкие супы и закуски — удобно ставить в центр и делиться.
☕️ Фэй-Фэй Ли — профессор Stanford, CEO/сооснователь World Labs
Праздничный напиток: вьетнамский iced coffee — кофе со сгущёнкой, который легко сделать “домашним спецвыпуском”.
🥦 Марк Кьюбан — предприниматель и инвестор
Более “здоровая” линия: овощи, салаты, блюда без тяжёлых соусов, иногда простые протеиновые варианты на завтрак/перекус.
🍗🌶 Эван Шпигель — CEO Snap Inc.
Куриная тема: peri-peri курица (как в Nando’s), куриный бургер, peri-peri картошка — отличная горячая часть стола.
🥩🥗 Джек Дорси — CEO Block Inc., сооснователь Twitter
Спартанский сет: стейк/рыба + салат/овощи — простая и понятная праздничная тарелка.
🌱🍳 Андрей Карпаты — AI-исследователь, основатель Eureka Labs (экс-Tesla/OpenAI)
Растительные версии привычных блюд: “веганский скрэмбл” (растительная основа + специи) и лёгкие закуски.
🎁 И финальный вопрос: что у вас на столе в этом году — тазик салата, рыба и морепродукты, паста на компанию, индийская классика или бургерный набор?
🎁 Подарок под елку для тех, кто устал настраивать Kubernetes
2025-й стал годом, когда мы окончательно устали от фразы «у меня на машине работает». Индустрия массово перешла на Platform Engineering, спрятав сложность облаков под капот удобных IDP (Internal Developer Platforms).
Факты года:
🔹 IDP + GenAI = ❤️: В 2025-м внутренние порталы разработчиков научились понимать контекст. Ты не ищешь в документации «как развернуть микросервис», ты говоришь платформе: «Мне нужна среда с Redis и Kafka», и она сама нарезает манифесты.
🔹 Гибридные вычисления: Мы перестали пихать всё в облако. Тренд конца 2025 года — Edge AI и Local-First Software. Приложения снова становятся «толстыми», обрабатывая данные на устройстве пользователя, потому что гонять терабайты в облако стало дорого и небезопасно.
🔹 Disinformation Security: Новая головная боль 2025-го. Теперь мы защищаем не только данные от кражи, но и сами данные от подмены дипфейками. Валидация реальности контента стала частью CI/CD пайплайна.
🎅 Новогодний тост: Пусть в 2026-м ваша единственная «инфраструктурная проблема» — это выбор гирлянды на елку. Стабильных деплоев и 100% аптайма, коллеги! С Наступающим!🥂
2025-й стал годом, когда мы окончательно устали от фразы «у меня на машине работает». Индустрия массово перешла на Platform Engineering, спрятав сложность облаков под капот удобных IDP (Internal Developer Platforms).
Факты года:
🔹 IDP + GenAI = ❤️: В 2025-м внутренние порталы разработчиков научились понимать контекст. Ты не ищешь в документации «как развернуть микросервис», ты говоришь платформе: «Мне нужна среда с Redis и Kafka», и она сама нарезает манифесты.
🔹 Гибридные вычисления: Мы перестали пихать всё в облако. Тренд конца 2025 года — Edge AI и Local-First Software. Приложения снова становятся «толстыми», обрабатывая данные на устройстве пользователя, потому что гонять терабайты в облако стало дорого и небезопасно.
🔹 Disinformation Security: Новая головная боль 2025-го. Теперь мы защищаем не только данные от кражи, но и сами данные от подмены дипфейками. Валидация реальности контента стала частью CI/CD пайплайна.
🎅 Новогодний тост: Пусть в 2026-м ваша единственная «инфраструктурная проблема» — это выбор гирлянды на елку. Стабильных деплоев и 100% аптайма, коллеги! С Наступающим!
Please open Telegram to view this post
VIEW IN TELEGRAM
Итоги-2025: Офисный армрестлинг и демпинг «за ИИ»
Пока мы доедаем оливье, на рынке труда разворачивается главная битва года. Треугольник боли «Работодатель — Разработчик — Заказчик» трещит по швам. Ситуация дня: компания хочет «корпоративный дух» (читай: контроль), разработчик хочет жизнь, а заказчик хочет фикс-прайс, потому что «ну у вас же теперь есть ChatGPT».
🏢 Офисные войны: Маятник раскачался Рынок разделился на два лагеря, и логики здесь не ищите:
Лагерь «Кнута»: TikTok (США) объявил, что с сентября 2026 года вводит жесткую 5-дневку. Аргумент классический: инновации рождаются только у кулера.
Лагерь «Пряника»: Австралийский Bendigo Bank, наоборот, с января 2026 откатывает жесткий мандат после бунта сотрудников. Они официально признали: гибкость работает лучше принуждения.
Триггерная мысль: Если офис становится требованием, не пора ли вводить «налог на офис»? Хотите видеть меня 5 дней в неделю — платите за логистику и амортизацию нервов.
💸 Ставки и «AI-скидки» (Больно) Фриланс и аутсорс ловят самый сильный удар. Upwork безжалостно показывает медиану в $20/час (да, разброс $10–$100, но медиана не врет). Главный тренд конца 2025 — заказчики, начитавшиеся новостей, требуют дисконт. В ряде регионов почасовые ставки просели на 9–16%. Логика убийственная: «AI пишет код за вас, значит, вы работаете меньше».
Кейс, от которого дергается глаз:
Заказчик: «Давайте фикс-прайс, тут делов на неделю». Требования: «Уточним по ходу, главное начните». Результат: «Почему так дорого? Я читал, что нейросеть делает это за минуту».
И что теперь? Мы входим в эру, где умение вести переговоры становится важнее умения писать чистый код. Заказчик не видит разницы между «сгенерировать сниппет» и «построить архитектуру».
Вопрос для ответа в комментах: Что эффективнее для выживания команды в 2026-м?
Пока мы доедаем оливье, на рынке труда разворачивается главная битва года. Треугольник боли «Работодатель — Разработчик — Заказчик» трещит по швам. Ситуация дня: компания хочет «корпоративный дух» (читай: контроль), разработчик хочет жизнь, а заказчик хочет фикс-прайс, потому что «ну у вас же теперь есть ChatGPT».
🏢 Офисные войны: Маятник раскачался Рынок разделился на два лагеря, и логики здесь не ищите:
Лагерь «Кнута»: TikTok (США) объявил, что с сентября 2026 года вводит жесткую 5-дневку. Аргумент классический: инновации рождаются только у кулера.
Лагерь «Пряника»: Австралийский Bendigo Bank, наоборот, с января 2026 откатывает жесткий мандат после бунта сотрудников. Они официально признали: гибкость работает лучше принуждения.
Триггерная мысль: Если офис становится требованием, не пора ли вводить «налог на офис»? Хотите видеть меня 5 дней в неделю — платите за логистику и амортизацию нервов.
💸 Ставки и «AI-скидки» (Больно) Фриланс и аутсорс ловят самый сильный удар. Upwork безжалостно показывает медиану в $20/час (да, разброс $10–$100, но медиана не врет). Главный тренд конца 2025 — заказчики, начитавшиеся новостей, требуют дисконт. В ряде регионов почасовые ставки просели на 9–16%. Логика убийственная: «AI пишет код за вас, значит, вы работаете меньше».
Кейс, от которого дергается глаз:
Заказчик: «Давайте фикс-прайс, тут делов на неделю». Требования: «Уточним по ходу, главное начните». Результат: «Почему так дорого? Я читал, что нейросеть делает это за минуту».
И что теперь? Мы входим в эру, где умение вести переговоры становится важнее умения писать чистый код. Заказчик не видит разницы между «сгенерировать сниппет» и «построить архитектуру».
Вопрос для ответа в комментах: Что эффективнее для выживания команды в 2026-м?
Google выключает рубильник: конец эпохи бесплатного API
Помните, как Google щедро раздавал миллионы токенов, пытаясь догнать OpenAI? Вечеринка окончена. Компания без предупреждения (буквально overnight) обрушила лимиты бесплатного Gemini API.
Вместо комфортных 250 запросов в день для Flash-версии теперь доступно всего 20. Бесплатный доступ к версии Pro полностью ликвидирован. Для тысяч разработчиков это означает мгновенную смерть пет-проектов и домашних автоматизаций на n8n.
В чем соль? Это классическая тактика дилера: «первая доза бесплатно». Google набрал критическую массу пользователей, обучил модели на наших промптах, отладил баги за наш счет и теперь переходит к фазе жесткой монетизации. Демис Хассабис (CEO DeepMind) дипломатично ссылается на то, что «вычислительных ресурсов всегда мало», но посыл ясен: благотворительность закрыта.
Что дальше? Пока OpenAI готовит к релизу GPT-5.2 (слухи про 9 декабря), а Google хвастается успехами Gemini 3, вывод для инженеров один: infrastructure-free эра завершилась. Хотите строить сложных агентов или мультимодальные системы? Готовьте кредитку. Рынок повзрослел, и место романтиков-энтузиастов занимают Enterprise-контракты.
Помните, как Google щедро раздавал миллионы токенов, пытаясь догнать OpenAI? Вечеринка окончена. Компания без предупреждения (буквально overnight) обрушила лимиты бесплатного Gemini API.
Вместо комфортных 250 запросов в день для Flash-версии теперь доступно всего 20. Бесплатный доступ к версии Pro полностью ликвидирован. Для тысяч разработчиков это означает мгновенную смерть пет-проектов и домашних автоматизаций на n8n.
В чем соль? Это классическая тактика дилера: «первая доза бесплатно». Google набрал критическую массу пользователей, обучил модели на наших промптах, отладил баги за наш счет и теперь переходит к фазе жесткой монетизации. Демис Хассабис (CEO DeepMind) дипломатично ссылается на то, что «вычислительных ресурсов всегда мало», но посыл ясен: благотворительность закрыта.
Что дальше? Пока OpenAI готовит к релизу GPT-5.2 (слухи про 9 декабря), а Google хвастается успехами Gemini 3, вывод для инженеров один: infrastructure-free эра завершилась. Хотите строить сложных агентов или мультимодальные системы? Готовьте кредитку. Рынок повзрослел, и место романтиков-энтузиастов занимают Enterprise-контракты.
DeepSeek снова открывает год с ноги
Пока индустрия медленно выходит из праздничной спячки, китайские инженеры из DeepSeek уже выкатили новый ресёрч, который аналитики Business Insider называют «прорывом». Речь о технологии mHC (Manifold-Constrained Hyper-Connections). Если коротко: они придумали, как растить «мозги» нейросетей, не теряя стабильности.
В чем соль? Главная проблема масштабирования LLM — хрупкий баланс. Хочешь, чтобы модель была умнее? Усиливай обмен информацией между нейронами. Но это часто приводит к нестабильности обучения (модель «разваливается») и дикому росту костов на вычислительные мощности.
DeepSeek предложили элегантное решение: разрешить частям нейросети общаться максимально интенсивно, но в жестко заданных математических рамках (многообразиях). Аналогия: Это как разрешить всей команде разработчиков говорить одновременно, но выдал им рации с идеальным шумоподавлением — хаоса нет, а скорость передачи данных максимальная.
И что теперь? Это прямой намек на скорый релиз DeepSeek R2. В прошлом году они сломали рынок дешевой и мощной R1, а теперь показывают, что умеют оптимизировать стек обучения лучше многих в Долине. Для нас, инженеров, это сигнал: эра «грубой силы» (просто накидай больше GPU) уходит. Наступает время умной архитектуры. Ждем, когда этот метод подхватят (или скопируют) западные лаборатории.
Пока индустрия медленно выходит из праздничной спячки, китайские инженеры из DeepSeek уже выкатили новый ресёрч, который аналитики Business Insider называют «прорывом». Речь о технологии mHC (Manifold-Constrained Hyper-Connections). Если коротко: они придумали, как растить «мозги» нейросетей, не теряя стабильности.
В чем соль? Главная проблема масштабирования LLM — хрупкий баланс. Хочешь, чтобы модель была умнее? Усиливай обмен информацией между нейронами. Но это часто приводит к нестабильности обучения (модель «разваливается») и дикому росту костов на вычислительные мощности.
DeepSeek предложили элегантное решение: разрешить частям нейросети общаться максимально интенсивно, но в жестко заданных математических рамках (многообразиях). Аналогия: Это как разрешить всей команде разработчиков говорить одновременно, но выдал им рации с идеальным шумоподавлением — хаоса нет, а скорость передачи данных максимальная.
И что теперь? Это прямой намек на скорый релиз DeepSeek R2. В прошлом году они сломали рынок дешевой и мощной R1, а теперь показывают, что умеют оптимизировать стек обучения лучше многих в Долине. Для нас, инженеров, это сигнал: эра «грубой силы» (просто накидай больше GPU) уходит. Наступает время умной архитектуры. Ждем, когда этот метод подхватят (или скопируют) западные лаборатории.
📰 Оперативка дорожает: Docker и Chrome придётся посадить на диету? 💸
Компания Framework (те самые, у кого всё меняется отвёрткой) дважды за неделю подняла цены на ноутбуки. Причина — резкий скачок стоимости DDR5 и глобальный дефицит чипов.
Но самое интересное в их реакции. Они официально заявили: «Ребят, не покупайте память у нас. Возьмите "голый" ноут и купите плашки в магазине за углом — так дешевле».
На Reddit уже шутят: «Apple бы в такой ситуации просто выпустила тряпочку для протирки экрана за $50, чтобы компенсировать убытки» 😅
🤔 В чём соль? Для нас это сигнал: железо для локальной разработки снова становится "золотым". Если ваш стек требует поднятия 5 микросервисов, Kafka и жирного фронтенда локально — выбивать бюджет на апгрейд рабочих машин станет сложнее. А совет Framework про "купи сам" напоминает старые добрые времена, когда умение собрать ПК было обязательным скиллом для джуна.
📊 Цифры в тему Цены менялись 2 раза за неделю — это чаще, чем ваш менеджер меняет требования к спринту. Стабильность, которой нам не хватает 🔥
32 ГБ DDR5 — это теперь не "комфортный запас", а "прожиточный минимум", чтобы VS Code и Docker не подрались насмерть. Framework намекает, что за этот минимум теперь придётся бороться (или переплачивать).
Поощрение DIY (Do It Yourself) от вендора — это редкость уровня единорога. Обычно производители распаивают память на плате, чтобы вы страдали. Здесь же — карт-бланш на кастомизацию, который сэкономит вам 15-20% бюджета (если руки растут из плеч).
🚀 Что теперь? Если планировали апгрейд рабочего ноута — сейчас самое время, пока волна подорожания не накрыла остальных вендоров. Ну или пора вспоминать, как оптимизировать память в приложениях, а не надеяться на бесконечный swap.
Кто уже ощутил дефицит памяти на проектах? 👇
🔗 frame.work/blog
#DevOps #productmanagement #infrastructure
Компания Framework (те самые, у кого всё меняется отвёрткой) дважды за неделю подняла цены на ноутбуки. Причина — резкий скачок стоимости DDR5 и глобальный дефицит чипов.
Но самое интересное в их реакции. Они официально заявили: «Ребят, не покупайте память у нас. Возьмите "голый" ноут и купите плашки в магазине за углом — так дешевле».
На Reddit уже шутят: «Apple бы в такой ситуации просто выпустила тряпочку для протирки экрана за $50, чтобы компенсировать убытки» 😅
🤔 В чём соль? Для нас это сигнал: железо для локальной разработки снова становится "золотым". Если ваш стек требует поднятия 5 микросервисов, Kafka и жирного фронтенда локально — выбивать бюджет на апгрейд рабочих машин станет сложнее. А совет Framework про "купи сам" напоминает старые добрые времена, когда умение собрать ПК было обязательным скиллом для джуна.
📊 Цифры в тему Цены менялись 2 раза за неделю — это чаще, чем ваш менеджер меняет требования к спринту. Стабильность, которой нам не хватает 🔥
32 ГБ DDR5 — это теперь не "комфортный запас", а "прожиточный минимум", чтобы VS Code и Docker не подрались насмерть. Framework намекает, что за этот минимум теперь придётся бороться (или переплачивать).
Поощрение DIY (Do It Yourself) от вендора — это редкость уровня единорога. Обычно производители распаивают память на плате, чтобы вы страдали. Здесь же — карт-бланш на кастомизацию, который сэкономит вам 15-20% бюджета (если руки растут из плеч).
🚀 Что теперь? Если планировали апгрейд рабочего ноута — сейчас самое время, пока волна подорожания не накрыла остальных вендоров. Ну или пора вспоминать, как оптимизировать память в приложениях, а не надеяться на бесконечный swap.
Кто уже ощутил дефицит памяти на проектах? 👇
🔗 frame.work/blog
#DevOps #productmanagement #infrastructure
📰 Джеффри Хинтон отменяет ваше повышение: в 2026 код писать не придётся? 💀
«Крёстный отец» ИИ Джеффри Хинтон выдал базу (или кринж?): в 2026 году ИИ сможет «без усилий» выполнять задачи по разработке, на которые у человека уходит месяц. Прогноз суровый: для проектов понадобится «очень мало людей».
Сообщество реагирует как обычно: кто-то пакует чемоданы в деревню, а кто-то ждёт, когда ИИ наконец-то пофиксит баг, висящий в бэклоге с 2019 года 😅
🤔 В чём соль? Хинтон делает ставку на то, что модели прокачают reasoning (рассуждение) и смогут планировать сложные цепочки действий, а не просто автодополнять if err != nil. Для нас это сигнал: если прогноз сбудется, ценность навыка «написать функцию» упадёт до нуля. В цене останутся те, кто может спроектировать систему и объяснить этому «гениальному джуну» на GPU, почему его архитектура — мусор.
📊 Цифры в тему
1 месяц работы — именно такой объем задач ИИ будет закрывать за секунды, по мнению Хинтона. Видимо, он никогда не пытался согласовать требования с заказчиком, который сам не знает, чего хочет 📉
7 месяцев — новый цикл удвоения возможностей ИИ. Это быстрее закона Мура, но всё ещё медленнее, чем растет папка node_modules в твоем проекте 🚀
2.5x — во столько раз взлетят цены наRTX 5090 . Так что, даже если ИИ вас заменит, запустить его локально, чтобы он заработал вам денег, смогут только мажоры 💸
🚀 Что теперь? Паниковать рано, GPT-5 пока не перевернул мир. Но вектор понятен: учитесь управлять агентами и AI-тулами. И главный вопрос: если ИИ напишет весь код за нас, кто потом будет разгребать это сгенерированное спагетти в проде?
#AI #FutureOfWork #AIcoding #LLM #GenAI
«Крёстный отец» ИИ Джеффри Хинтон выдал базу (или кринж?): в 2026 году ИИ сможет «без усилий» выполнять задачи по разработке, на которые у человека уходит месяц. Прогноз суровый: для проектов понадобится «очень мало людей».
Сообщество реагирует как обычно: кто-то пакует чемоданы в деревню, а кто-то ждёт, когда ИИ наконец-то пофиксит баг, висящий в бэклоге с 2019 года 😅
🤔 В чём соль? Хинтон делает ставку на то, что модели прокачают reasoning (рассуждение) и смогут планировать сложные цепочки действий, а не просто автодополнять if err != nil. Для нас это сигнал: если прогноз сбудется, ценность навыка «написать функцию» упадёт до нуля. В цене останутся те, кто может спроектировать систему и объяснить этому «гениальному джуну» на GPU, почему его архитектура — мусор.
📊 Цифры в тему
1 месяц работы — именно такой объем задач ИИ будет закрывать за секунды, по мнению Хинтона. Видимо, он никогда не пытался согласовать требования с заказчиком, который сам не знает, чего хочет 📉
7 месяцев — новый цикл удвоения возможностей ИИ. Это быстрее закона Мура, но всё ещё медленнее, чем растет папка node_modules в твоем проекте 🚀
2.5x — во столько раз взлетят цены на
🚀 Что теперь? Паниковать рано, GPT-5 пока не перевернул мир. Но вектор понятен: учитесь управлять агентами и AI-тулами. И главный вопрос: если ИИ напишет весь код за нас, кто потом будет разгребать это сгенерированное спагетти в проде?
#AI #FutureOfWork #AIcoding #LLM #GenAI
📰 Ученые: AI вас не заменит🧪
Исследователи из Чикагского университета доказали то, о чем мы догадывались: полная автоматизация — это утопия (пока), а вот гибридный подход «Человек + ИИ» рвет всех.
В эксперименте с разработкой новых материалов связка «AI-советник + Ученый» оказалась эффективнее на 150%, чем чистый ИИ или чистый человеческий гений.
В тредах уже шутят: «Наконец-то научное обоснование тому, почему я копипащу из ChatGPT, но все равно считаю себя сеньором» 😅
🤔 В чём соль? Это исследование — идеальный аргумент для споров с менеджерами, мечтающими заменить отдел разработки на подписку Claude Pro. Концепция «AI Advisor» работает так: нейронка берет на себя «вычислительную» рутину (читай: бойлерплейт, тесты, базовые паттерны), а человек принимает стратегические решения (архитектура, бизнес-логика, edge cases).
Для нас это значит смену парадигмы: мы перестаем быть «писателями кода» и становимся «операторами кодогенерации». Скилл ревью и понимания системы становится важнее умения быстро печатать.
📊 Цифры в тему — 150% — настолько вырос KPI в гибридном режиме. Если бы ваша производительность так росла на спринтах, ПМ носил бы вас на руках (или накинул бы задач, что вероятнее) 📈 — 0% — шанс, что полностью автономный ИИ сам поймет, что стратегия ведет в тупик. В исследовании именно люди вовремя били по рукам нейронке, когда та начинала галлюцинировать или уходить в овер-инжиниринг. — 55% — разработчиков отмечают, что с AI пишут код быстрее (данные Stack Overflow). Видимо, ученые со своими 150% просто лучше промптят, чем мы 🤷♂️
🚀 Что теперь? Выдыхаем: нас не уволят, но требования изменятся. Учимся делегировать ИИ не просто написание функций, а анализ проблем. Попробуйте сегодня не просить AI «написать код», а спросить: «Как бы ты оптимизировал эту архитектуру?» — и примите решение сами.
#AI #AIcoding #AIAgents #GenAI #futureofwork
Исследователи из Чикагского университета доказали то, о чем мы догадывались: полная автоматизация — это утопия (пока), а вот гибридный подход «Человек + ИИ» рвет всех.
В эксперименте с разработкой новых материалов связка «AI-советник + Ученый» оказалась эффективнее на 150%, чем чистый ИИ или чистый человеческий гений.
В тредах уже шутят: «Наконец-то научное обоснование тому, почему я копипащу из ChatGPT, но все равно считаю себя сеньором» 😅
🤔 В чём соль? Это исследование — идеальный аргумент для споров с менеджерами, мечтающими заменить отдел разработки на подписку Claude Pro. Концепция «AI Advisor» работает так: нейронка берет на себя «вычислительную» рутину (читай: бойлерплейт, тесты, базовые паттерны), а человек принимает стратегические решения (архитектура, бизнес-логика, edge cases).
Для нас это значит смену парадигмы: мы перестаем быть «писателями кода» и становимся «операторами кодогенерации». Скилл ревью и понимания системы становится важнее умения быстро печатать.
📊 Цифры в тему — 150% — настолько вырос KPI в гибридном режиме. Если бы ваша производительность так росла на спринтах, ПМ носил бы вас на руках (или накинул бы задач, что вероятнее) 📈 — 0% — шанс, что полностью автономный ИИ сам поймет, что стратегия ведет в тупик. В исследовании именно люди вовремя били по рукам нейронке, когда та начинала галлюцинировать или уходить в овер-инжиниринг. — 55% — разработчиков отмечают, что с AI пишут код быстрее (данные Stack Overflow). Видимо, ученые со своими 150% просто лучше промптят, чем мы 🤷♂️
🚀 Что теперь? Выдыхаем: нас не уволят, но требования изменятся. Учимся делегировать ИИ не просто написание функций, а анализ проблем. Попробуйте сегодня не просить AI «написать код», а спросить: «Как бы ты оптимизировал эту архитектуру?» — и примите решение сами.
#AI #AIcoding #AIAgents #GenAI #futureofwork
📰 Perl и R восстали из мёртвых? Странности TIOBE за декабрь 2025 🧟♂️
Пока мы тут спорим про AI-агентов, рейтинг TIOBE за декабрь 2025 решил устроить вечер ностальгии. Python предсказуемо первый, С подвинул C++ со второго места, но главный шок — в десятку вернулись Perl и R.
Выглядит так, будто индустрия коллективно решила порыться в антресолях и реанимировать скрипты двадцатилетней давности 😅
🤔 В чём соль? TIOBE измеряет не качество кода, а хайп и поисковые запросы. Взлёт «старичков» (в топ-20 прописались даже COBOL, Fortran и Ada) говорит об одном: легаси-системы в банках и оборонке требуют поддержки, а документации нет — вот все и гуглят синтаксис. А R вернулся, потому что Python хоть и крут, но хардкорные статистики всё ещё любят свои специфические графики.
📊 Цифры в тему Perl телепортировался с 29-го сразу на 9-е место. Видимо, где-то упал очень важный сервер из 2005-го, и гуглить «как это починить» пришлось всему интернету 📉
C# готовится стать «Языком года 2025». Microsoft так долго и упорно улучшали .NET, что даже хейтеры устали сопротивляться и начали писать на нём микросервисы.
Python удерживает 1-е место с таким отрывом, что скоро его можно будет выносить в отдельную лигу, чтобы дать шанс остальным хоть за что-то побороться 🥇
🚀 Что теперь? Если вы C#-разработчик — просите прибавку, ваш стек в тренде. А если увидели в бэклоге задачу на Perl — бегите, глупцы (или просите двойной рейт за археологию).
#architecture #DevOps #AI
Пока мы тут спорим про AI-агентов, рейтинг TIOBE за декабрь 2025 решил устроить вечер ностальгии. Python предсказуемо первый, С подвинул C++ со второго места, но главный шок — в десятку вернулись Perl и R.
Выглядит так, будто индустрия коллективно решила порыться в антресолях и реанимировать скрипты двадцатилетней давности 😅
🤔 В чём соль? TIOBE измеряет не качество кода, а хайп и поисковые запросы. Взлёт «старичков» (в топ-20 прописались даже COBOL, Fortran и Ada) говорит об одном: легаси-системы в банках и оборонке требуют поддержки, а документации нет — вот все и гуглят синтаксис. А R вернулся, потому что Python хоть и крут, но хардкорные статистики всё ещё любят свои специфические графики.
📊 Цифры в тему Perl телепортировался с 29-го сразу на 9-е место. Видимо, где-то упал очень важный сервер из 2005-го, и гуглить «как это починить» пришлось всему интернету 📉
C# готовится стать «Языком года 2025». Microsoft так долго и упорно улучшали .NET, что даже хейтеры устали сопротивляться и начали писать на нём микросервисы.
Python удерживает 1-е место с таким отрывом, что скоро его можно будет выносить в отдельную лигу, чтобы дать шанс остальным хоть за что-то побороться 🥇
🚀 Что теперь? Если вы C#-разработчик — просите прибавку, ваш стек в тренде. А если увидели в бэклоге задачу на Perl — бегите, глупцы (или просите двойной рейт за археологию).
#architecture #DevOps #AI
📰 Эпоха «хочу +50% к оферу» всё? Рынок труда разворачивается 📉
Аналитика по рынку труда подъехала, и новости для нас отрезвляющие. Индекс hh (конкуренция за место) ползёт вверх, а рынок переходит из фазы «кандидат — король» в фазу «работодатель выбирает».
Эйчары, которых мы игнорили в LinkedIn, скоро начнут мстить. Шутка (надеюсь) 😅
🤔 В чём соль? Мы привыкли, что рынок IT перегрет, и можно менять работу раз в год с повышением зарплаты. Но трейсеры показывают смену фазы: компании замораживают найм или ищут точечно. Если вы планировали хлопнуть дверью из-за того, что тимлид попросил переписать говнокод — возможно, стоит придержать эмоции. Рынок охлаждается, и требования к кандидатам растут.
📊 Цифры в тему — 8.6 резюме на одну вакансию прогнозируют к концу года. Это уже не «дефицит кадров», а вполне себе «голодные игры». Джуны, крепитесь 💀 — Рынок вошёл в Фазу III (Охлаждение). Звучит как название скучного патча, но на деле это означает: офферы станут скромнее, а собеседования — душнее. — «Гонка зарплат завершается» — утверждает аналитика. Теперь повышение не всем подряд, а точечные пересмотры. Аргумент «мне предложили больше в стартапе» может сработать, только если этот стартап не закрылся вчера 📉
🚀 Что теперь? Пора вспомнить, что такое Soft Skills и нормальное резюме. В конкурентном рынке побеждает не тот, кто знает 10 фреймворков, а тот, кто может объяснить бизнесу, зачем он нужен. И да, перепишите раздел «Опыт»: вместо «писал код» добавьте цифры, на сколько вы ускорили прод.
#productmanagement #agile #leanstartup
Аналитика по рынку труда подъехала, и новости для нас отрезвляющие. Индекс hh (конкуренция за место) ползёт вверх, а рынок переходит из фазы «кандидат — король» в фазу «работодатель выбирает».
Эйчары, которых мы игнорили в LinkedIn, скоро начнут мстить. Шутка (надеюсь) 😅
🤔 В чём соль? Мы привыкли, что рынок IT перегрет, и можно менять работу раз в год с повышением зарплаты. Но трейсеры показывают смену фазы: компании замораживают найм или ищут точечно. Если вы планировали хлопнуть дверью из-за того, что тимлид попросил переписать говнокод — возможно, стоит придержать эмоции. Рынок охлаждается, и требования к кандидатам растут.
📊 Цифры в тему — 8.6 резюме на одну вакансию прогнозируют к концу года. Это уже не «дефицит кадров», а вполне себе «голодные игры». Джуны, крепитесь 💀 — Рынок вошёл в Фазу III (Охлаждение). Звучит как название скучного патча, но на деле это означает: офферы станут скромнее, а собеседования — душнее. — «Гонка зарплат завершается» — утверждает аналитика. Теперь повышение не всем подряд, а точечные пересмотры. Аргумент «мне предложили больше в стартапе» может сработать, только если этот стартап не закрылся вчера 📉
🚀 Что теперь? Пора вспомнить, что такое Soft Skills и нормальное резюме. В конкурентном рынке побеждает не тот, кто знает 10 фреймворков, а тот, кто может объяснить бизнесу, зачем он нужен. И да, перепишите раздел «Опыт»: вместо «писал код» добавьте цифры, на сколько вы ускорили прод.
#productmanagement #agile #leanstartup
📰 Telegram Cocoon: AI, который читает чаты (и греет ваш iPhone). Обновляемся? 🤨
Telegram выкатил Cocoon (в рунете уже ласково — «Сосун») — встроенную нейросеть для саммаризации того бесконечного флуда, который вы называете «рабочими чатами». В нагрузку iOS-версия получила поддержку Liquid Glass — теперь интерфейс выглядит как мечта дизайнера и кошмар GPU.
Реакция сообщества бесценна: "Наконец-то AI объяснит мне, в чем суть спора на 500 сообщений, пока я пил кофе". Но есть нюанс: название «Cocoon» звучит слишком уж уютно для технологии, которая будет процессить вашу переписку 😅
🤔 В чём соль? Для разработчиков тут двойное дно.
Cocoon — это не просто саммаризатор. Под капотом (судя по whitepaper) это попытка построить децентрализованную сеть вычислений на базе TON. То есть, возможно, скоро наши телефоны будут не только читать чаты, но и "майнить" инференс для других.
Liquid Glass — это возвращение тяжелого люкса в UI. Готовьтесь профилировать рендеринг: все эти блюры и рефракции на старых устройствах могут уронить FPS до слайд-шоу. Нативный UI — это хорошо, но GPU не резиновый.
📊 Цифры в тему — 1.5 часа в день — столько в среднем тратит тимлид на чтение флуда в чатах. Если «Сосун» сократит это время хотя бы на 20%, у нас появится время на... написание кода? Нет, бред какой-то 📉 — Внедрение Liquid Glass (по первым бенчмаркам) увеличивает нагрузку на рендеринг UI на ~12-15%. Владельцы iPhone 14 и старше, крепитесь, ваш телефон теперь грелка 🔥 — TON подскочил на 8% на новостях об интеграции AI. Крипто-девы, расчехляйте кошельки, кажется, мы снова в игре (или нет) 💸
🚀 Что теперь? iOS-разработчикам — срочно чекать, не поплыла ли верстка кастомных ячеек на новом "стеклянном" фоне. Остальным — включить Cocoon и скормить ему чат с заказчиком. Если он сможет резюмировать "хочу то, не знаю что" в ТЗ — это победа.
#AI #GenAI #mobile #UX #TON
Telegram выкатил Cocoon (в рунете уже ласково — «Сосун») — встроенную нейросеть для саммаризации того бесконечного флуда, который вы называете «рабочими чатами». В нагрузку iOS-версия получила поддержку Liquid Glass — теперь интерфейс выглядит как мечта дизайнера и кошмар GPU.
Реакция сообщества бесценна: "Наконец-то AI объяснит мне, в чем суть спора на 500 сообщений, пока я пил кофе". Но есть нюанс: название «Cocoon» звучит слишком уж уютно для технологии, которая будет процессить вашу переписку 😅
🤔 В чём соль? Для разработчиков тут двойное дно.
Cocoon — это не просто саммаризатор. Под капотом (судя по whitepaper) это попытка построить децентрализованную сеть вычислений на базе TON. То есть, возможно, скоро наши телефоны будут не только читать чаты, но и "майнить" инференс для других.
Liquid Glass — это возвращение тяжелого люкса в UI. Готовьтесь профилировать рендеринг: все эти блюры и рефракции на старых устройствах могут уронить FPS до слайд-шоу. Нативный UI — это хорошо, но GPU не резиновый.
📊 Цифры в тему — 1.5 часа в день — столько в среднем тратит тимлид на чтение флуда в чатах. Если «Сосун» сократит это время хотя бы на 20%, у нас появится время на... написание кода? Нет, бред какой-то 📉 — Внедрение Liquid Glass (по первым бенчмаркам) увеличивает нагрузку на рендеринг UI на ~12-15%. Владельцы iPhone 14 и старше, крепитесь, ваш телефон теперь грелка 🔥 — TON подскочил на 8% на новостях об интеграции AI. Крипто-девы, расчехляйте кошельки, кажется, мы снова в игре (или нет) 💸
🚀 Что теперь? iOS-разработчикам — срочно чекать, не поплыла ли верстка кастомных ячеек на новом "стеклянном" фоне. Остальным — включить Cocoon и скормить ему чат с заказчиком. Если он сможет резюмировать "хочу то, не знаю что" в ТЗ — это победа.
#AI #GenAI #mobile #UX #TON