LLM «под капотом»: первый шаг к полноценной разработке AI-решений
Приглашаем на открытый вебинар, посвященный фундаменту прикладной разработки на LLM. На практике разберем:
✔️ Архитектуру: как работает генерация текста и почему это важно для понимания ограничений модели.
✔️ Локальное развертывание: первый шаг к LLMOps — запустить мощную модель у себя и работать с ней через API.
✔️ Контекст и агенты: базовый принцип, лежащий в основе RAG-систем и агентных моделей, которые вы будете строить на курсе.
Идеально для Python-разработчиков, DevOps- и Data-инженеров, а также технических проджектов, которые оценивают возможности интеграции LLM в свои сервисы.
Этот вебинар — введение в философию нашего нового курса «LLM Driven Development», где вы с нуля осваиваете полный цикл создания AI-продуктов.
➡️ Регистрация на вебинар:
https://otus.pw/GYFd/?erid=2W5zFJvoqKE
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Приглашаем на открытый вебинар, посвященный фундаменту прикладной разработки на LLM. На практике разберем:
✔️ Архитектуру: как работает генерация текста и почему это важно для понимания ограничений модели.
✔️ Локальное развертывание: первый шаг к LLMOps — запустить мощную модель у себя и работать с ней через API.
✔️ Контекст и агенты: базовый принцип, лежащий в основе RAG-систем и агентных моделей, которые вы будете строить на курсе.
Идеально для Python-разработчиков, DevOps- и Data-инженеров, а также технических проджектов, которые оценивают возможности интеграции LLM в свои сервисы.
Этот вебинар — введение в философию нашего нового курса «LLM Driven Development», где вы с нуля осваиваете полный цикл создания AI-продуктов.
➡️ Регистрация на вебинар:
https://otus.pw/GYFd/?erid=2W5zFJvoqKE
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🤔3🔥2🤣2❤1
MIT + Harvard + Google DeepMind показали, почему обычные трансформеры почти не умеют в многозначное умножение — и как это починить одной идеей
Команда обучила два маленьких Transformer-а считать 4-значное × 4-значное умножение.
Первый - с методом implicit chain-of-thought (ICoT): модель сначала видит все промежуточные шаги вычисления, а затем эти шаги постепенно убирают.
То есть модель вынуждают “думать внутри себя”, а не на видимых подсказках.
Результат: 100% точность на всех примерах.
Второй - обычное обучение: вход → ответ, без промежуточных шагов.
Результат: около 1% правильных ответов.
Почему так?
- Многозначное умножение требует длинных зависимостей
- Нужно запоминать и переносить “сумму + перенос” между разными позициями
- Модель должна хранить промежуточные частичные произведения и возвращаться к ним позже
- Рабочая модель формирует “бегущую сумму” и carry, как человек
- Внутри attention появляется структура наподобие небольшого бинарного дерева
- Представления цифр формируют особое пространство (пятилучевая призма + Fourier-код)
Обычное обучение захватывает “краевые” цифры и застревает — не может связать середину.
ICoT даёт правильный inductive bias: заставляет модель строить внутренний алгоритм, а не угадывать шаблон.
Главная идея: чтобы ИИ делал арифметику (и, возможно, логику), ему нужен скрытый расчётный процесс, а не просто больше данных.
Это шаг к пониманию того, как обучать модели *думать*, а не просто *запоминать*.
Команда обучила два маленьких Transformer-а считать 4-значное × 4-значное умножение.
Первый - с методом implicit chain-of-thought (ICoT): модель сначала видит все промежуточные шаги вычисления, а затем эти шаги постепенно убирают.
То есть модель вынуждают “думать внутри себя”, а не на видимых подсказках.
Результат: 100% точность на всех примерах.
Второй - обычное обучение: вход → ответ, без промежуточных шагов.
Результат: около 1% правильных ответов.
Почему так?
- Многозначное умножение требует длинных зависимостей
- Нужно запоминать и переносить “сумму + перенос” между разными позициями
- Модель должна хранить промежуточные частичные произведения и возвращаться к ним позже
- Рабочая модель формирует “бегущую сумму” и carry, как человек
- Внутри attention появляется структура наподобие небольшого бинарного дерева
- Представления цифр формируют особое пространство (пятилучевая призма + Fourier-код)
Обычное обучение захватывает “краевые” цифры и застревает — не может связать середину.
ICoT даёт правильный inductive bias: заставляет модель строить внутренний алгоритм, а не угадывать шаблон.
Главная идея: чтобы ИИ делал арифметику (и, возможно, логику), ему нужен скрытый расчётный процесс, а не просто больше данных.
Это шаг к пониманию того, как обучать модели *думать*, а не просто *запоминать*.
🔥32👍5👌2🥰1
Ребята из Яндекс Вертикалей собирают всех 14 ноября на мультистек-вечеринку о хобби и технологиях. Вдохновимся историями коллег об удачных внерабочих экспериментах, чтобы взглянуть по-новому на свои увлечения.
В программе события:
Разберёмся вместе с командой Вертикалей, как выбрать стек и наконец начать проект, который долго откладывали. А завершим вечер афтепати с DJ-сетом и разными активностями.
Подробности и регистрация
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
🚀 LLM с контекстом 64k+ пример того, как можно эффективно обучать модель даже на потребительских GPU - благодаря связке Ulysses + Ring Attention!
В ModelScope SWIFT объединили два метода параллелизма по последовательности:
✅ Ulysses - делит внимание по головам, почти не тратит трафик (но упирается в число heads)
✅ Ring Attention - масштабируется выше числа голов через кольцевые P2P-коммуникации, с «зиг-заг» балансировкой для causal-моделей
💡 Комбо-подход: сначала работает Ulysses, и только когда он перестаёт тянуть (например, GQA или кластер >8 GPU), подключается Ring.
🔥 Результат на Qwen2.5-3B при 65k токенов:
75.4 GiB → 17.9 GiB VRAM на 8× A100
Работает с SFT, DPO, GRPO, мультимодальностью и padding-free входами.
✨ Крутая инженерия:
Сплит последовательности встроен прямо в forward-hook модели —
никаких костылей в данных, полная совместимость с FlashAttention.
🔧 Включается одной флаг-командой:
🟠 Подробнее : https://modelscope.cn/learn/1799
🟠 GitHub: https://github.com/modelscope/ms-swift
В ModelScope SWIFT объединили два метода параллелизма по последовательности:
✅ Ulysses - делит внимание по головам, почти не тратит трафик (но упирается в число heads)
✅ Ring Attention - масштабируется выше числа голов через кольцевые P2P-коммуникации, с «зиг-заг» балансировкой для causal-моделей
💡 Комбо-подход: сначала работает Ulysses, и только когда он перестаёт тянуть (например, GQA или кластер >8 GPU), подключается Ring.
🔥 Результат на Qwen2.5-3B при 65k токенов:
75.4 GiB → 17.9 GiB VRAM на 8× A100
Работает с SFT, DPO, GRPO, мультимодальностью и padding-free входами.
✨ Крутая инженерия:
Сплит последовательности встроен прямо в forward-hook модели —
никаких костылей в данных, полная совместимость с FlashAttention.
🔧 Включается одной флаг-командой:
--sequence_parallel_size 8Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤8
This media is not supported in your browser
VIEW IN TELEGRAM
Два 23-летних разработчика из Индии выпустили вторую по качеству open-weight AI-голосовую модель в мире.
Maya1 уже входит в топ-20 глобального рейтинга и обгоняет лучшие решения Google.
3B параметров, запускается на одной GPU, выдаёт более 20 эмоций и работает с задержкой <100 мс.
Главный вывод прост — сегодня можно просто взять и сделать.
huggingface.co/maya-research/maya1
Maya1 уже входит в топ-20 глобального рейтинга и обгоняет лучшие решения Google.
3B параметров, запускается на одной GPU, выдаёт более 20 эмоций и работает с задержкой <100 мс.
Главный вывод прост — сегодня можно просто взять и сделать.
huggingface.co/maya-research/maya1
❤31🔥16👏8👍2💊2
Научись проектировать ИИ-агентов, управлять роботами и развертывать RAG-системы 21 ноября на True Tech Champ
На бесплатном фестивале технологий от МТС тебя ждет конференция с российскими и иностранными экспертами и новый формат лектория — ИТ-качалка.
Уже известны первые спикеры и темы:
🔴 «Физический агент: на пути к когнитивным роботам общего назначения с моделями мира», Артем Лыков — ведущий R&D-разработчик MWS, аспирант ISR Lab и Skoltech.
🔴 «RAG как помощник на каждый день», Валентин Малых — руководитель фундаментальных исследований MWS AI
🔴 An introduction tutorial to AI Agent Workflows, Майкл Ланэм — канадский разработчик с 20-летним и автор книги AI Agents in Action.
Между докладами и воркшопами можно смотреть гонки и битвы роботов, устроить поединки робопауков, пройти лазерный лабиринт, собрать сервер на скорость, сделать аксессуары из плат и протестировать другие айтивности.
Выбирай формат — смотри прямой эфир или приходи в МТС Live Холл.
Регистрируйся, чтобы провести 21 ноября с пользой и драйвом.
Реклама. ООО "МТС Веб Сервисы" ИНН 7707767501
На бесплатном фестивале технологий от МТС тебя ждет конференция с российскими и иностранными экспертами и новый формат лектория — ИТ-качалка.
Уже известны первые спикеры и темы:
Между докладами и воркшопами можно смотреть гонки и битвы роботов, устроить поединки робопауков, пройти лазерный лабиринт, собрать сервер на скорость, сделать аксессуары из плат и протестировать другие айтивности.
Выбирай формат — смотри прямой эфир или приходи в МТС Live Холл.
Регистрируйся, чтобы провести 21 ноября с пользой и драйвом.
Реклама. ООО "МТС Веб Сервисы" ИНН 7707767501
Please open Telegram to view this post
VIEW IN TELEGRAM
МТС True Tech Champ 2025
ИТ-чемпионат по алгоритмическому и робототехническому программированию
❤5👀2👏1👌1
Alibaba-EI представили систему, которая “понимает” резюме на уровне структуры и контекста — и делает извлечение данных с точностью, сравнимой с ручной разметкой. В основе — доработанная модель Qwen3 на 0.6B параметров.
Главные особенности:
- высокая точность извлечения полей и разметки
- очень быстрый инференс, подходит для больших потоков
- масштабируемость для реальных HR-платформ и автоматизации найма
Система не просто читает текст — она учитывает макет, блоки, порядок разделов, визуальные элементы и превращает резюме в аккуратный JSON со структурой.
Модель и демо доступны на ModelScope и Hugging Face, а подробности описаны в статье на arXiv.
Подобные компактные модели показывают, что качественный документ-AI уже необязательно должен быть большим — достаточно правильной архитектуры и тонкой настройки.
🔗 ModelScope: https://modelscope.cn/models/Alibaba-EI/SmartResume
🤗 Hugging Face:https://huggingface.co/Alibaba-EI/SmartResume
🧪Demo:https://modelscope.cn/studios/Alibaba-EI/SmartResumeDemo
📄 Paper: https://arxiv.org/abs/2510.09722
Главные особенности:
- высокая точность извлечения полей и разметки
- очень быстрый инференс, подходит для больших потоков
- масштабируемость для реальных HR-платформ и автоматизации найма
Система не просто читает текст — она учитывает макет, блоки, порядок разделов, визуальные элементы и превращает резюме в аккуратный JSON со структурой.
Модель и демо доступны на ModelScope и Hugging Face, а подробности описаны в статье на arXiv.
Подобные компактные модели показывают, что качественный документ-AI уже необязательно должен быть большим — достаточно правильной архитектуры и тонкой настройки.
🔗 ModelScope: https://modelscope.cn/models/Alibaba-EI/SmartResume
🤗 Hugging Face:https://huggingface.co/Alibaba-EI/SmartResume
🧪Demo:https://modelscope.cn/studios/Alibaba-EI/SmartResumeDemo
📄 Paper: https://arxiv.org/abs/2510.09722
❤3👍2🫡2🤔1
Microsoft запускает MAI Superintelligence Team — ставка на медицину
Microsoft создает новую команду MAI Superintelligence Team, начав с задач медицинской диагностики. Мустафа Сулейман заявляет, что у них есть «прямая траектория» к медицинскому суперинтеллекту за 2–3 года.
Цели команды: решать конкретные задачи — раннее выявление болезней, разработка батарей и материалов, проектирование молекул. Компания обещает массовые инвестиции в это направление.
Толчком стал недавний результат системы MAI-DxO — их оркестратор диагностики показал качество анализа сложных клинических случаев выше, чем у групп врачей. Сторонники считают это возможным шагом к сверхчеловеческому клиническому рассуждению — если удержать надежность, калибровку и прозрачность на масштабе.
Источник: reuters.com/technology/microsoft-launches-superintelligence-team-targeting-medical-diagnosis-start-2025-11-06/
Microsoft создает новую команду MAI Superintelligence Team, начав с задач медицинской диагностики. Мустафа Сулейман заявляет, что у них есть «прямая траектория» к медицинскому суперинтеллекту за 2–3 года.
Цели команды: решать конкретные задачи — раннее выявление болезней, разработка батарей и материалов, проектирование молекул. Компания обещает массовые инвестиции в это направление.
Толчком стал недавний результат системы MAI-DxO — их оркестратор диагностики показал качество анализа сложных клинических случаев выше, чем у групп врачей. Сторонники считают это возможным шагом к сверхчеловеческому клиническому рассуждению — если удержать надежность, калибровку и прозрачность на масштабе.
Источник: reuters.com/technology/microsoft-launches-superintelligence-team-targeting-medical-diagnosis-start-2025-11-06/
❤9