ThreadWeaver: Adaptive Threading for Efficient Parallel Reasoning in Language Models
https://arxiv.org/abs/2512.07843
https://arxiviq.substack.com/p/threadweaver-adaptive-threading-for
Авторы представили ThreadWeaver — фреймворк, позволяющий LLM динамически разбивать последовательную цепочку рассуждений (CoT) на параллельные потоки
Обучив модель выдавать специальные управляющие токены (
Для оптимизации используется модифицированный алгоритм P-GRPO, который балансирует между правильностью ответа и сокращением длины критического пути
Время инференса в сложных задачах на рассуждение (reasoning tasks) обычно растёт линейно с длиной цепочки (
Что важно, это работает на стандартных движках (например, vLLM) без необходимости писать кастомные CUDA-ядра или хитро управлять KV-кэшем
https://arxiv.org/abs/2512.07843
https://arxiviq.substack.com/p/threadweaver-adaptive-threading-for
Авторы представили ThreadWeaver — фреймворк, позволяющий LLM динамически разбивать последовательную цепочку рассуждений (CoT) на параллельные потоки
Обучив модель выдавать специальные управляющие токены (
<Parallel>, <Thread>) и используя trie-based механизм внимания, система реализует паттерн выполнения «fork-join» Для оптимизации используется модифицированный алгоритм P-GRPO, который балансирует между правильностью ответа и сокращением длины критического пути
Время инференса в сложных задачах на рассуждение (reasoning tasks) обычно растёт линейно с длиной цепочки (
O(N)), создавая узкое место для масштабирования System 2 ThreadWeaver показывает, что можно сохранить SOTA-качество (на уровне последовательного Qwen3-8B) и при этом получить значительное ускорение по времени (до 1.53x) Что важно, это работает на стандартных движках (например, vLLM) без необходимости писать кастомные CUDA-ядра или хитро управлять KV-кэшем
arXiv.org
ThreadWeaver: Adaptive Threading for Efficient Parallel Reasoning...
Scaling inference-time computation has enabled Large Language Models (LLMs) to achieve strong reasoning performance, but inherently sequential decoding leads to substantial latency, especially on...
Google выложили в открытый доступ работу, где Ml создал RL-алгоритм, превзошедший разработанные людьми
Это работа команды Дэвида Сильвера (создателя AlphaGo), в которой они разработали подход, где мета-сеть учится генерировать правила обновления для RL-агентов
Тут об этом писали еще в октябре
Вот GitHub
Также можно ознакомиться с другой работой по метаградиентному RL и его онлайн-версией с мета-обученной функцией
Это работа команды Дэвида Сильвера (создателя AlphaGo), в которой они разработали подход, где мета-сеть учится генерировать правила обновления для RL-агентов
Тут об этом писали еще в октябре
Вот GitHub
Также можно ознакомиться с другой работой по метаградиентному RL и его онлайн-версией с мета-обученной функцией
Российский CatBoost попал в топ Ml-инструментов для науки
Американское издание Marktechpost выпустило доклад Ml Global Impact Report 2025 с анализом исследований из более чем 125 стран
Российская технология CatBoost от Яндекса вошла в число самых популярных Ml-инструментов в мировой науке
CatBoost создавался для поискового движка Яндекса
Теперь его используют ученые по всему миру
Каждая 30-я статья с применением машинного обучения содержит упоминание этой технологии
Американское издание Marktechpost выпустило доклад Ml Global Impact Report 2025 с анализом исследований из более чем 125 стран
Российская технология CatBoost от Яндекса вошла в число самых популярных Ml-инструментов в мировой науке
CatBoost создавался для поискового движка Яндекса
Теперь его используют ученые по всему миру
Каждая 30-я статья с применением машинного обучения содержит упоминание этой технологии