И такое может быть:
Существуют частицы, которые являются собственными античастицами
Например, фермион Майораны, существование которого было предсказано, но его трудно подтвердить экспериментально
Поскольку их квантовые состояния не подвержены влиянию факторов окружающей среды, они могут стать основой для разработки топологических квантовых компьютеров, которые будут более стабильными и устойчивыми к ошибкам
Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
https://arxiv.org/abs/2504.13837, https://openreview.net/forum?id=4OsgYD7em5
https://limit-of-rlvr.github.io
https://arxiviq.substack.com/p/neurips-2025-does-reinforcement-learning
В финальной работе (Best Paper Runner-Up) на NeurIPS 2025, авторы систематически исследовали границы возможностей рассуждающих моделей (reasoning models), обученных с помощью RLVR (Reinforcement Learning with Verifiable Rewards)
Используя несмещённую метрику
Результаты разрушают популярный миф о том, что RLVR позволяет моделям автономно открывать "сверхчеловеческие" стратегии подобно AlphaGo
Исследование показывает: RLVR радикально улучшает *эффективность сэмплирования* (правильные ответы выпадают чаще), но не расширяет фундаментальные границы возможностей модели
На больших значениях k базовые модели часто решают *больше* уникальных задач, чем их RL-версии, что говорит об ограниченности текущих методов RL прайорами предобучения
https://arxiv.org/abs/2504.13837, https://openreview.net/forum?id=4OsgYD7em5
https://limit-of-rlvr.github.io
https://arxiviq.substack.com/p/neurips-2025-does-reinforcement-learning
В финальной работе (Best Paper Runner-Up) на NeurIPS 2025, авторы систематически исследовали границы возможностей рассуждающих моделей (reasoning models), обученных с помощью RLVR (Reinforcement Learning with Verifiable Rewards)
Используя несмещённую метрику
pass@k на задачах по математике, кодингу и визуальному мышлению, они сравнили базовые модели с их RL-версиями, чтобы выяснить: генерирует ли RLVR принципиально новые паттерны мышления или лишь усиливает существующиеРезультаты разрушают популярный миф о том, что RLVR позволяет моделям автономно открывать "сверхчеловеческие" стратегии подобно AlphaGo
Исследование показывает: RLVR радикально улучшает *эффективность сэмплирования* (правильные ответы выпадают чаще), но не расширяет фундаментальные границы возможностей модели
На больших значениях k базовые модели часто решают *больше* уникальных задач, чем их RL-версии, что говорит об ограниченности текущих методов RL прайорами предобучения
Система стандартных бумажных форматов ISO 216 представляет собой не просто удобный каталог размеров, но продуманное математическое решение
Интересно, что ещё в 1923 году, у советского свидетельства о рождении, в углу документа уже стояла пометка о формате A5 и размерах 210×148 мм.
Исторически эта идея была предложена в 1786 году немецким учёным Георгом Кристофом Лихтенбергом и впервые начала применяться во Франции в конце XVIII в.
Сейчас она распространена по всему миру, за исключением США и Канады, где используют формат Letter с соотношением сторон 8,5×11 дюймов (примерно 216×279 мм)
Такой лист немного шире и короче привычного нам А4
В отличие от научного подхода, лежащего в основе формата А4, размер US Letter был обусловлен производственными процессами и сложившейся практикой — США не перешли на метрическую систему мер, что позволило сохранить традиционные дюймовые размеры
Основная идея метрического формата ISO 216 заключается в том, чтобы при сложении листа пополам получались два меньших листа с одинаковыми пропорциями
Это условие описывается функциональным уравнением: если исходный лист имеет стороны a и b (где a — длинная сторона), то после сгиба получается лист со сторонами b и a/2
Условие сохранения пропорций приводит к уравнению a/b = b/(a/2), которое упрощается до a² = 2b², откуда получается соотношение a/b = √2
Это число является неподвижной точкой данного преобразования — единственной пропорцией, обладающей свойством самоподобия
Существует несколько способов построения иерархии таких форматов
Серия A основана на конструктивном принципе: лист A0 имеет площадь 1 м² при сохранении пропорции √2
Решение системы уравнений для площади и пропорции даёт точные размеры A0: 2⁻¹ᐟ⁴ × 2¹ᐟ⁴ метров
Все последующие форматы получаются последовательным делением пополам с сохранением той же пропорции
Серия B строится на другом принципе — среднего геометрического
Каждый формат Bn является средним геометрическим между An и A(n–1)
Например, B1 = √(A0 × A1)
Этот подход создает плавную шкалу промежуточных размеров
Серия C, используемая для конвертов, идёт ещё дальше: каждый её формат представляет собой среднее геометрическое между соответствующими форматами A и B
Именно поэтому лист A4 идеально помещается в конверт C4 — математическое соотношение гарантирует оптимальный зазор
С точки зрения алгебраической структуры, идеальные размеры форматов принадлежат полю ℚ (√2) — полю рациональных чисел с добавленным корнем из двух
Каждый размер можно выразить как линейную комбинацию 1 и √2 с рациональными коэффициентами
На практике используются целочисленные приближения этих идеальных размеров, подобранные так, что погрешность пропорции не превышает 0.01 %
Эту идею можно обобщить на многомерный случай
Например, «идеальный» ящик, который при разрезании пополам даёт два подобных исходному, в трёхмерном случае будет иметь соотношение ребер 1 : ∛2 : ∛4
В n-мерном пространстве гиперпрямоугольник с таким свойством самоподобия будет иметь рёбра с соотношениями, представляющими собой степени двойки с показателями k/n, где k = 0, 1, ..., n–1
Таким образом, пропорция листа бумаги оказывается частным случаем более общего математического принципа
Вот так обычный лист бумаги, который мы достаём из принтера, демонстрирует практическое применение математических принципов — от функциональных уравнений и конструктивных построений до алгебраических структур и многомерных обобщений
Интересно, что ещё в 1923 году, у советского свидетельства о рождении, в углу документа уже стояла пометка о формате A5 и размерах 210×148 мм.
Исторически эта идея была предложена в 1786 году немецким учёным Георгом Кристофом Лихтенбергом и впервые начала применяться во Франции в конце XVIII в.
Сейчас она распространена по всему миру, за исключением США и Канады, где используют формат Letter с соотношением сторон 8,5×11 дюймов (примерно 216×279 мм)
Такой лист немного шире и короче привычного нам А4
В отличие от научного подхода, лежащего в основе формата А4, размер US Letter был обусловлен производственными процессами и сложившейся практикой — США не перешли на метрическую систему мер, что позволило сохранить традиционные дюймовые размеры
Основная идея метрического формата ISO 216 заключается в том, чтобы при сложении листа пополам получались два меньших листа с одинаковыми пропорциями
Это условие описывается функциональным уравнением: если исходный лист имеет стороны a и b (где a — длинная сторона), то после сгиба получается лист со сторонами b и a/2
Условие сохранения пропорций приводит к уравнению a/b = b/(a/2), которое упрощается до a² = 2b², откуда получается соотношение a/b = √2
Это число является неподвижной точкой данного преобразования — единственной пропорцией, обладающей свойством самоподобия
Существует несколько способов построения иерархии таких форматов
Серия A основана на конструктивном принципе: лист A0 имеет площадь 1 м² при сохранении пропорции √2
Решение системы уравнений для площади и пропорции даёт точные размеры A0: 2⁻¹ᐟ⁴ × 2¹ᐟ⁴ метров
Все последующие форматы получаются последовательным делением пополам с сохранением той же пропорции
Серия B строится на другом принципе — среднего геометрического
Каждый формат Bn является средним геометрическим между An и A(n–1)
Например, B1 = √(A0 × A1)
Этот подход создает плавную шкалу промежуточных размеров
Серия C, используемая для конвертов, идёт ещё дальше: каждый её формат представляет собой среднее геометрическое между соответствующими форматами A и B
Именно поэтому лист A4 идеально помещается в конверт C4 — математическое соотношение гарантирует оптимальный зазор
С точки зрения алгебраической структуры, идеальные размеры форматов принадлежат полю ℚ (√2) — полю рациональных чисел с добавленным корнем из двух
Каждый размер можно выразить как линейную комбинацию 1 и √2 с рациональными коэффициентами
На практике используются целочисленные приближения этих идеальных размеров, подобранные так, что погрешность пропорции не превышает 0.01 %
Эту идею можно обобщить на многомерный случай
Например, «идеальный» ящик, который при разрезании пополам даёт два подобных исходному, в трёхмерном случае будет иметь соотношение ребер 1 : ∛2 : ∛4
В n-мерном пространстве гиперпрямоугольник с таким свойством самоподобия будет иметь рёбра с соотношениями, представляющими собой степени двойки с показателями k/n, где k = 0, 1, ..., n–1
Таким образом, пропорция листа бумаги оказывается частным случаем более общего математического принципа
Вот так обычный лист бумаги, который мы достаём из принтера, демонстрирует практическое применение математических принципов — от функциональных уравнений и конструктивных построений до алгебраических структур и многомерных обобщений
Инструмент для диагностики сети на базе ОС FreeBSD
• Сразу скажу, что прочтение туториала по ссылке ниже занимает целых 2 часа времени и будет полезен в основном сетевикам, нежели ИБ специалистам
Но материал крайне интересный, поэтому рекомендую к прочтению всем без исключения
• Автор этого материала написал инструкцию по воплощению инструмента диагностики сетевых проблем, который реализован в ОС FreeBSD и устанавливается прямо из коробки
Достаточно установить её на компактное устройство с двумя Ethernet интерфейсами и выполнить ряд манипуляций по настройке вполне стандартных вещей
Содержание лонгрида ниже, а бонусом идет ссылка на Github репозиторий содержащий готовый загрузочный образ и набор скриптов для настройки сниффера
• Сниффер как способ решения проблем с сетью.
• Установка ОС FreeBSD и базовая настройка:
➡Скачиваем ISO образ;
➡Настройка опций BIOS;
➡Развертывание образа на USB Flash;
➡Загрузка с USB Flash и установка системы на SSD;
➡Установка полезных пакетов программ и утилит;
➡Подключение через SSH;
➡Настройка `sudo’.
• Исследуем аппаратную часть:
➡Получаем сведения об аппаратуре;
➡Проводим тест Coremark для вычислительного ядра;
➡Проводим тест STREAM для оперативной памяти;
• Настойка канала для удаленного доступа к устройству (mpd5).
• Настройка сетевого «моста» (Ethernet Bridging):
➡Загрузка драйверов if_bridge и bridgestp;
➡Создание и настройка интерфейса bridge0;
➡Проверка работоспособности сетевого моста;
➡ Схемы включения сниффера.
• Анализ сетевого трафика:
➡ Настройка прав доступа к BPF;
➡ Правила фильтрации трафика в BPF;
➡ Правила фильтрации трафика в BPF с использованием DPI;
➡ Использования BPF фильтров в tcpdump’ и tshark’;
➡ Захват SIP пакетов с помощью утилиты `tcpdump’;
➡ Захват SIP пакетов с помощью утилиты `tshark’;
➡ Детектирование соединений SSH с помощью утилиты `tcpdump’;
➡ Детектирование соединений SSH с помощью утилиты `tshark’;
➡ Анализ HTTP запросов: добываем логин и пароль с помощью утилиты `tshark’;
➡ Анализ сетевой нагрузки с помощью утилиты `trafshow’;
➡ SNORT Intrusion Prevention System;
➡ Детектируем сканирование портов одно-строчным правилом для `snort’;
➡ Детектируем сканирование портов встроенным плагином `port_scan’.
• Бонус:
➡ Инструкция по быстрой установке сниффера на базе ОС FreeBSD;
➡ Инструкция по созданию своего загрузочного образа ОС FreeBSD со сниффером
• Сразу скажу, что прочтение туториала по ссылке ниже занимает целых 2 часа времени и будет полезен в основном сетевикам, нежели ИБ специалистам
Но материал крайне интересный, поэтому рекомендую к прочтению всем без исключения
• Автор этого материала написал инструкцию по воплощению инструмента диагностики сетевых проблем, который реализован в ОС FreeBSD и устанавливается прямо из коробки
Достаточно установить её на компактное устройство с двумя Ethernet интерфейсами и выполнить ряд манипуляций по настройке вполне стандартных вещей
Содержание лонгрида ниже, а бонусом идет ссылка на Github репозиторий содержащий готовый загрузочный образ и набор скриптов для настройки сниффера
• Сниффер как способ решения проблем с сетью.
• Установка ОС FreeBSD и базовая настройка:
➡Скачиваем ISO образ;
➡Настройка опций BIOS;
➡Развертывание образа на USB Flash;
➡Загрузка с USB Flash и установка системы на SSD;
➡Установка полезных пакетов программ и утилит;
➡Подключение через SSH;
➡Настройка `sudo’.
• Исследуем аппаратную часть:
➡Получаем сведения об аппаратуре;
➡Проводим тест Coremark для вычислительного ядра;
➡Проводим тест STREAM для оперативной памяти;
• Настойка канала для удаленного доступа к устройству (mpd5).
• Настройка сетевого «моста» (Ethernet Bridging):
➡Загрузка драйверов if_bridge и bridgestp;
➡Создание и настройка интерфейса bridge0;
➡Проверка работоспособности сетевого моста;
• Анализ сетевого трафика:
• Бонус:
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Чёрт в табакерке: инструмент для диагностики сети на базе ОС FreeBSD
FreeBSD mascot. Сгенерированно нейросетью. Изложенная в этой статье идея и инструкция по воплощению инструмента диагностики сетевых проблем, для многих сисадминов старой закалки может показаться...
Благодаря использованию Ml скорость синтеза металлических сплавов увеличилась в 200 раз, а время перебора потенциальных составов лекарств в фармацевтике сократилось на 50 %
Многие уверены: через 10 лет научный процесс будет трудно представить без Ml
В этом контексте важно обучать научное сообщество и создавать связку «Исследователь+Ml»
Так, например, Школа анализа данных Яндекса, которая занимается подготовкой Ml-специалистов, начала обучать ученых использовать нейросети в исследованиях
На новую программу прошли 50 человек из Москвы, Санкт-Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга, причем лидерами по заявкам стали специалисты в области физики, медицины и химии
В ближайшие годы таких проектов должно стать еще больше
На наших глазах Ml перестаёт быть инструментом и становится партнёром в создании новой научной реальности
Будущее за теми, кто готов приумножать знания вместе с технологиями
Многие уверены: через 10 лет научный процесс будет трудно представить без Ml
В этом контексте важно обучать научное сообщество и создавать связку «Исследователь+Ml»
Так, например, Школа анализа данных Яндекса, которая занимается подготовкой Ml-специалистов, начала обучать ученых использовать нейросети в исследованиях
На новую программу прошли 50 человек из Москвы, Санкт-Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга, причем лидерами по заявкам стали специалисты в области физики, медицины и химии
В ближайшие годы таких проектов должно стать еще больше
На наших глазах Ml перестаёт быть инструментом и становится партнёром в создании новой научной реальности
Будущее за теми, кто готов приумножать знания вместе с технологиями
Подведены итоги ежегодного Всероссийского математического диктанта, который прошел в преддверии Дня математика
Мероприятие объединило более 100.000 участников, желающих проверить знания школьной программы
Организует математический диктант образовательная платформа при поддержке ведущих университетов страны
Помимо решения задач, программа включала тематические лекции, турниры по шахматам и игры на логику
Математика очень важна и лежит в основе всего — от промышленности до космоса, поэтому компания стремится популяризировать точные науки среди людей любого возраста и уровня подготовки по всей стране
Мероприятие объединило более 100.000 участников, желающих проверить знания школьной программы
Организует математический диктант образовательная платформа при поддержке ведущих университетов страны
Помимо решения задач, программа включала тематические лекции, турниры по шахматам и игры на логику
Математика очень важна и лежит в основе всего — от промышленности до космоса, поэтому компания стремится популяризировать точные науки среди людей любого возраста и уровня подготовки по всей стране
smotrim.ru
Всероссийский математический диктант объединил более 100 тыс. участников
Проверить свои знания в рамках Всероссийского математического диктанта можно было как очно, так и онлайн. Событие, которое было приурочено ко Дню математики, запустила платформа "Т-Образование" совместно с ведущими вузами. Президент группы "Т-Технологии"…
Универсальный ISO образ — называется netboot.xyz
Позволяет создать загрузочную флешку с возможностью установить любую ОС Linux через интернет, загрузив с официального сайта загрузочный образ размером около 1МБ
Далее грузитесь с флешки, выбираете нужную систему и устанавливаете
Всё просто
https://netboot.xyz
https://github.com/netbootxyz/netboot.xyz
Есть раздел с утилитами, которые могут быть полезны при восстановлении и диагностики системы
Так то...
Позволяет создать загрузочную флешку с возможностью установить любую ОС Linux через интернет, загрузив с официального сайта загрузочный образ размером около 1МБ
Далее грузитесь с флешки, выбираете нужную систему и устанавливаете
Всё просто
https://netboot.xyz
https://github.com/netbootxyz/netboot.xyz
Есть раздел с утилитами, которые могут быть полезны при восстановлении и диагностики системы
Так то...
netboot.xyz
Your favorite operating systems in one place! | netboot.xyz
netboot.xyz enables you to PXE boot many Operating System installers and utilities from a simple to use menu powered by the iPXE project.
Media is too big
VIEW IN TELEGRAM
Анимация графиков различных математических функций
Именно математика даёт надёжнейшие правила: тому кто им следует — тому не опасен обман чувств — Леонард Эйлер швейцарский, немецкий и российский математик 1707–1783
Именно математика даёт надёжнейшие правила: тому кто им следует — тому не опасен обман чувств — Леонард Эйлер швейцарский, немецкий и российский математик 1707–1783
👍1
Closing the Loop: Differentiable Retrieval via Continuous Latent Reasoning
https://arxiv.org/abs/2511.18659
https://github.com/apple/ml-clara
https://arxiviq.substack.com/p/clara-bridging-retrieval-and-generation
Представили CLaRa — унифицированный фреймворк для RAG, который сжимает документы в непрерывные "токены памяти" (memory tokens) и оптимизирует поиск и генерацию end-to-end
Используя технику Straight-Through Estimator (STE), авторы пробрасывают градиенты от функции потерь языковой модели обратно в механизм поиска
Это заставляет ретривер выбирать документы не просто по семантической близости, а по их реальной полезности для генерации ответа
ПОЧЕМУ это важно: В стандартном RAG существует проблема "разрыва градиента": ретривер ищет по косинусному сходству, а LLM обучается предсказывать следующий токен
Эти цели часто не совпадают, и модель получает семантически близкие, но фактически бесполезные куски текста
CLaRa делает шаг поиска дифференцируемым, объединяя всё в одном латентном пространстве
Это даёт заметный прирост качества на бенчмарках (NQ, HotpotQA) и позволяет сжимать контекст до 16 раз
https://arxiv.org/abs/2511.18659
https://github.com/apple/ml-clara
https://arxiviq.substack.com/p/clara-bridging-retrieval-and-generation
Представили CLaRa — унифицированный фреймворк для RAG, который сжимает документы в непрерывные "токены памяти" (memory tokens) и оптимизирует поиск и генерацию end-to-end
Используя технику Straight-Through Estimator (STE), авторы пробрасывают градиенты от функции потерь языковой модели обратно в механизм поиска
Это заставляет ретривер выбирать документы не просто по семантической близости, а по их реальной полезности для генерации ответа
ПОЧЕМУ это важно: В стандартном RAG существует проблема "разрыва градиента": ретривер ищет по косинусному сходству, а LLM обучается предсказывать следующий токен
Эти цели часто не совпадают, и модель получает семантически близкие, но фактически бесполезные куски текста
CLaRa делает шаг поиска дифференцируемым, объединяя всё в одном латентном пространстве
Это даёт заметный прирост качества на бенчмарках (NQ, HotpotQA) и позволяет сжимать контекст до 16 раз
arXiv.org
CLaRa: Bridging Retrieval and Generation with Continuous Latent Reasoning
Retrieval-augmented generation (RAG) enhances large language models (LLMs) with external knowledge but still suffers from long contexts and disjoint retrieval-generation optimization. In this...
OpenAI published blog post stating: confessions can keep language models honest
Poof-of-concept method that trains models to report when they break instructions or take unintended shortcuts
Even when models learn to cheat, they’ll still admit it...
Poof-of-concept method that trains models to report when they break instructions or take unintended shortcuts
Even when models learn to cheat, they’ll still admit it...
Openai
How confessions can keep language models honest
We’re sharing an early, proof-of-concept method that trains models to report when they break instructions or take unintended shortcuts.
Современный «ИИ» — это замороженные артефакты человеческой культуры
Копии
Это тупик
Любые алгоритмы и архитектуры в долгосрочной перспективе проигрывают чистому обучению через опыт
Ml-интеллект — это агент, который:
- учится непрерывно
- сам изобретает всё более мощные абстракции и признаки
- сам ставит себе подзадачи
- сам строит модель мира и планирует
- и всё это без единой строчки человеческого кода для архитектуры и фичей
Это OAK (Options + Knowledge)
«Super intelligence will come from the agent’s own experience, not from human datasets»
Нужно возвращаться к continual learning, average-reward RL, meta-learning step-sizes, self-discovered knowledge
Копии
Это тупик
Любые алгоритмы и архитектуры в долгосрочной перспективе проигрывают чистому обучению через опыт
Ml-интеллект — это агент, который:
- учится непрерывно
- сам изобретает всё более мощные абстракции и признаки
- сам ставит себе подзадачи
- сам строит модель мира и планирует
- и всё это без единой строчки человеческого кода для архитектуры и фичей
Это OAK (Options + Knowledge)
«Super intelligence will come from the agent’s own experience, not from human datasets»
Нужно возвращаться к continual learning, average-reward RL, meta-learning step-sizes, self-discovered knowledge
«В этой части я обсуждаю роль компьютера в современных исследованиях по аддитивной теории чисел, в первую очередь по классической проблеме Варинга
В своей исходной формулировке XVIII века эта проблема состоит в нахождении для каждого натурального k минимального s=g(k) такого, что все натуральные числа могут быть представлены как суммы k-х степеней неотрицательных целых чисел в количестве s штук (…)
Однако даже решение проблемы Варинга в исходной формулировке было [почти] завершено только в 1984 году при самом непосредственном использовании компьютеров
В настоящей статье задокументирована история этой классической задачи и ее решения, а также обсуждаются возможности использования этого материала в образовании и дальнейшие связанные с этим вопросы»
Н.А. Вавилов
Компьютер как новая реальность математики
II
Проблема Варинга
https://cte.eltech.ru/ojs/index.php/kio/article/view/1663/1652
cte.eltech.ru
View of Computers as Fresh Mathematical Reality. II. Waring Problem
Computer Tools in Education journal (Kompjuternye instrumenty v obrazovanii) was founded at 1998 and was published on Russian language.
The significant contribution to coming-to-be of the journal was made by two great scientists. One of them - Svjatoslav…
The significant contribution to coming-to-be of the journal was made by two great scientists. One of them - Svjatoslav…
Анализ по LLM в 2025 году – эмпирический анализ 100.000.000.000.000 токенов на основе метаданных платформы OpenRouter
Монополий на ИИ-модели больше нет, рынок фрагментирован
Ни одна модель не удерживает больше 25 % рынка открытого кода
Крупнейшие игроки по объему токенов:
DeepSeek — 14.370.000.000.000 (но доминирование разрушено)
Qwen — 5.590.000.000.000
Meta LLaMA — 3.960.000.000.000
Mistral AI — 2.920.000.000.000
Minimax — 126.000.000.000.000
Открытые модели выросли с почти 0 до ~30 % всех токенов за 2 года
Рынок стал по-настоящему мультимодельным
Китай — новый глобальный экспортёр Ml-инфраструктуры
Об этом писали ранее
Их открытые модели в отдельные недели доходили до 30 % мирового использования (в среднем 13 % за год)
Доля Азии в глобальных расходах на Ml выросла с 13 % до 31 % за два года
Это уже экспорт открытых весов и дешёвой мощности по всему миру
Русский язык — в тройке лидеров мира (2.47 %) всех токенов после английского (82.87 %) и китайского (4.95 %)
Третье место — это очень высокий показатель для неанглоязычного сообщества
Но отчёт не углубляется по задачам/моделям для русского
Как люди реально используют Ml в 2025:
- Программирование — больше 50 % всех токенов к концу года
- Ролевые игры, интерактивные истории, творчество — второй по величине сегмент
- Перевод, образование, здоровье — значительно меньше
Получается, что Ml используют не только (и даже не столько) для «продуктивности», сколько для кодинга и развлечений
Модели с рассуждением — уже стандарт
Более 50 % всех токенов обрабатываются моделями, которые «думают» перед ответом и используют инструменты
Средний контекст вырос в 3–4 раза (в программировании часто 20–100K+ токенов)
Цена почти не влияет на спрос
Снижение цены на 10 % даёт рост использования всего на 0.5–0.7 %
Люди платят не за дешевизну, а за то, что модель идеально решает их конкретную задачу
Эффект «хрустальной туфельки»
Если модель с первого раза идеально подошла под задачу пользователя — он остаётся с ней навсегда
Когорты Gemini 2.5 Pro (июнь 2025) и Claude 4 Sonnet (май 2025) сохраняют ~40 % активных пользователей через 5–6 месяцев
Поздние когорты тех же моделей — в разы хуже. Первая любовь решает всё
Ниши уже сформировались:
- Anthropic Claude — 60–80 % всего программирования
- DeepSeek — 60 % + ролевых игр и казуальных диалогов
- xAI Grok Code Fast, Qwen 3 Coder — быстро отъедают долю в коде
- Gemini Flash — рабочая лошадка для массового объёма
Универсального лидера больше не будет
Монополий на ИИ-модели больше нет, рынок фрагментирован
Ни одна модель не удерживает больше 25 % рынка открытого кода
Крупнейшие игроки по объему токенов:
DeepSeek — 14.370.000.000.000 (но доминирование разрушено)
Qwen — 5.590.000.000.000
Meta LLaMA — 3.960.000.000.000
Mistral AI — 2.920.000.000.000
Minimax — 126.000.000.000.000
Открытые модели выросли с почти 0 до ~30 % всех токенов за 2 года
Рынок стал по-настоящему мультимодельным
Китай — новый глобальный экспортёр Ml-инфраструктуры
Об этом писали ранее
Их открытые модели в отдельные недели доходили до 30 % мирового использования (в среднем 13 % за год)
Доля Азии в глобальных расходах на Ml выросла с 13 % до 31 % за два года
Это уже экспорт открытых весов и дешёвой мощности по всему миру
Русский язык — в тройке лидеров мира (2.47 %) всех токенов после английского (82.87 %) и китайского (4.95 %)
Третье место — это очень высокий показатель для неанглоязычного сообщества
Но отчёт не углубляется по задачам/моделям для русского
Как люди реально используют Ml в 2025:
- Программирование — больше 50 % всех токенов к концу года
- Ролевые игры, интерактивные истории, творчество — второй по величине сегмент
- Перевод, образование, здоровье — значительно меньше
Получается, что Ml используют не только (и даже не столько) для «продуктивности», сколько для кодинга и развлечений
Модели с рассуждением — уже стандарт
Более 50 % всех токенов обрабатываются моделями, которые «думают» перед ответом и используют инструменты
Средний контекст вырос в 3–4 раза (в программировании часто 20–100K+ токенов)
Цена почти не влияет на спрос
Снижение цены на 10 % даёт рост использования всего на 0.5–0.7 %
Люди платят не за дешевизну, а за то, что модель идеально решает их конкретную задачу
Эффект «хрустальной туфельки»
Если модель с первого раза идеально подошла под задачу пользователя — он остаётся с ней навсегда
Когорты Gemini 2.5 Pro (июнь 2025) и Claude 4 Sonnet (май 2025) сохраняют ~40 % активных пользователей через 5–6 месяцев
Поздние когорты тех же моделей — в разы хуже. Первая любовь решает всё
Ниши уже сформировались:
- Anthropic Claude — 60–80 % всего программирования
- DeepSeek — 60 % + ролевых игр и казуальных диалогов
- xAI Grok Code Fast, Qwen 3 Coder — быстро отъедают долю в коде
- Gemini Flash — рабочая лошадка для массового объёма
Универсального лидера больше не будет
OpenRouter
State of AI | OpenRouter
An empirical study analyzing over 100 trillion tokens of real-world LLM interactions across tasks, geographies, and time.
Ещё в сторону дифференцируемого retrieval, но теперь про память и длинный контекст
Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language Models
https://arxiv.org/abs/2511.23319
https://github.com/ant-research/long-context-modeling
https://arxiviq.substack.com/p/every-token-counts-generalizing-16m
Представили HSA-UltraLong — 8B MoE-модель (Mixture-of-Experts), способную переваривать контекст длиной до 16.000.000 токенов
Главное — механизм Hierarchical Sparse Attention (HSA), который рассматривает прошлые блоки контекста как "экспертов", доступных для извлечения
Всё это работает в связке с хитрым curriculum learning, балансирующим локальное скользящее окно и глобальный разреженный поиск
ПОЧЕМУ это важно: Стандартные трансформеры упираются в квадратичную сложность
HSA-UltraLong показывает, что если сделать процесс извлечения контекста дифференцируемым и обучаемым end-to-end, можно получить память с произвольным доступом (random access) на миллионы токенов без квадратичной стоимости полного внимания или деградации точности, свойственной эвристическим методам
Подробнее: https://t.iss.one/gonzo_ML_podcasts/1574
Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language Models
https://arxiv.org/abs/2511.23319
https://github.com/ant-research/long-context-modeling
https://arxiviq.substack.com/p/every-token-counts-generalizing-16m
Представили HSA-UltraLong — 8B MoE-модель (Mixture-of-Experts), способную переваривать контекст длиной до 16.000.000 токенов
Главное — механизм Hierarchical Sparse Attention (HSA), который рассматривает прошлые блоки контекста как "экспертов", доступных для извлечения
Всё это работает в связке с хитрым curriculum learning, балансирующим локальное скользящее окно и глобальный разреженный поиск
ПОЧЕМУ это важно: Стандартные трансформеры упираются в квадратичную сложность
O(N^2), а линейные альтернативы вроде Mamba (https://t.iss.one/gonzo_ML/2148) часто слишком агрессивно сжимают состояние, теряя детали далёких токенов HSA-UltraLong показывает, что если сделать процесс извлечения контекста дифференцируемым и обучаемым end-to-end, можно получить память с произвольным доступом (random access) на миллионы токенов без квадратичной стоимости полного внимания или деградации точности, свойственной эвристическим методам
Подробнее: https://t.iss.one/gonzo_ML_podcasts/1574
arXiv.org
Every Token Counts: Generalizing 16M Ultra-Long Context in Large...
This work explores the challenge of building ``Machines that Can Remember'', framing long-term memory as the problem of efficient ultra-long context modeling. We argue that this requires three key...
Про вычисления из интервью с М.Я. Пратусевичем:
"Я считаю, что если просто в 5 классе проработать классический задачник Березанской, то в принципе всё будет замечательно, больше ничего не надо
То есть ученик должен не бояться вычислений, он должен их делать
И я настаиваю, что вычислительные навыки – это важно
Несмотря на то, что есть компьютеры, калькуляторы и прочее
Мы никуда не денемся [от вычислительных навыков], мы должны за них биться с начальной школы и в 5-6 классе
Потом-то они уже должны быть
Иначе, если вы начнёте заниматься, условно, химией, где есть проценты и концентрация, и всё время будете спотыкаться и мучительно считать, например, 12 % от 50, то вам будет очень тяжело
<…>
В 5 классе школьнику нужно твёрдо освоить дроби
В 6 классе главное – проценты, масштаб и отрицательные числа
Всё остальное от лукавого"
"Я считаю, что если просто в 5 классе проработать классический задачник Березанской, то в принципе всё будет замечательно, больше ничего не надо
То есть ученик должен не бояться вычислений, он должен их делать
И я настаиваю, что вычислительные навыки – это важно
Несмотря на то, что есть компьютеры, калькуляторы и прочее
Мы никуда не денемся [от вычислительных навыков], мы должны за них биться с начальной школы и в 5-6 классе
Потом-то они уже должны быть
Иначе, если вы начнёте заниматься, условно, химией, где есть проценты и концентрация, и всё время будете спотыкаться и мучительно считать, например, 12 % от 50, то вам будет очень тяжело
<…>
В 5 классе школьнику нужно твёрдо освоить дроби
В 6 классе главное – проценты, масштаб и отрицательные числа
Всё остальное от лукавого"