🚀 Bytedance представила новую модель для кода - Doubao Seed Code
Новая версия умеет не только писать и понимать код, но и принимать изображения на вход, что открывает возможности для визуального анализа задач программирования.
Что известно:
- Поддержка image input
- Опубликованы бенчмарки и цены
- По результатам тестов, модель опережает Sonnet 4.5 на SWE-Bench-Verified и Multi-SWE,
но немного уступает на Terminal Bench
🧠 Doubao Seed Code — часть линейки моделей Bytedance, нацеленной на интеграцию LLM в рабочие процессы разработчиков и систем с edge-инференсом.
Подробнее и тестировать можно здесь:
🔗 https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
Новая версия умеет не только писать и понимать код, но и принимать изображения на вход, что открывает возможности для визуального анализа задач программирования.
Что известно:
- Поддержка image input
- Опубликованы бенчмарки и цены
- По результатам тестов, модель опережает Sonnet 4.5 на SWE-Bench-Verified и Multi-SWE,
но немного уступает на Terminal Bench
🧠 Doubao Seed Code — часть линейки моделей Bytedance, нацеленной на интеграцию LLM в рабочие процессы разработчиков и систем с edge-инференсом.
Подробнее и тестировать можно здесь:
🔗 https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
❤6👍6🔥2
Релиз Transformers v5 ! 🔥
Hugging Face выпустили Transformers v5 - обновление, которое стало логичным итогом бурного роста всего стека за последние годы.
Цифры впечатляют:
- 20k → 3 млн+ установок в день
- 40 → 400+ поддерживаемых архитектур
- ~1k → 750k+ чекпоинтов
- 1.2 млрд+ общих установок
Что нового в v5:
- полностью PyTorch-ориентированная архитектура
- модульные определения моделей
- подход quantization-first
- OpenAI-совместимый Transformers Serve (включая Responses API)
Transformers становится ключевым фундаментом открытого AI/ML-стека - для обучения, дообучения и моделей.
Новый этап экосистемы официально начался.
https://huggingface.co/blog/transformers-v5
Hugging Face выпустили Transformers v5 - обновление, которое стало логичным итогом бурного роста всего стека за последние годы.
Цифры впечатляют:
- 20k → 3 млн+ установок в день
- 40 → 400+ поддерживаемых архитектур
- ~1k → 750k+ чекпоинтов
- 1.2 млрд+ общих установок
Что нового в v5:
- полностью PyTorch-ориентированная архитектура
- модульные определения моделей
- подход quantization-first
- OpenAI-совместимый Transformers Serve (включая Responses API)
Transformers становится ключевым фундаментом открытого AI/ML-стека - для обучения, дообучения и моделей.
Новый этап экосистемы официально начался.
https://huggingface.co/blog/transformers-v5
❤19👍7🔥1
🚀 Эксперимент InstantDB: нейромодели собрали полноценный 3D-шутер без единой строки ручного кода
InstantDB провели показательный эксперимент: три крупные модели - Codex Max 5.1, Claude Opus 4.5 и Gemini 3 Pro — получили задачу создать мультиплеерный 3D-шутер с картой, физикой, оружием, врагами и комнатами для игроков.
Все три модели успешно справились и представили рабочие FPS-прототипы.
Как распределились сильные стороны:
- Лучший фронтенд - Claude: наиболее аккуратные карты, визуальный стиль уровня Minecraft и плавные анимации.
- Лучшая серверная часть - Gemini: стабильный мультиплеер, минимум ошибок, грамотно реализованные комнаты и сохранения.
- Уверённое второе место по всем направлениям - Codex: качественно, предсказуемо, но без ярких преимуществ.
Эксперимент показывает, насколько быстро модели приближаются к созданию сложных игровых систем под ключ.
Демоверсии доступны для Codex, Claude, Gemini
InstantDB провели показательный эксперимент: три крупные модели - Codex Max 5.1, Claude Opus 4.5 и Gemini 3 Pro — получили задачу создать мультиплеерный 3D-шутер с картой, физикой, оружием, врагами и комнатами для игроков.
Все три модели успешно справились и представили рабочие FPS-прототипы.
Как распределились сильные стороны:
- Лучший фронтенд - Claude: наиболее аккуратные карты, визуальный стиль уровня Minecraft и плавные анимации.
- Лучшая серверная часть - Gemini: стабильный мультиплеер, минимум ошибок, грамотно реализованные комнаты и сохранения.
- Уверённое второе место по всем направлениям - Codex: качественно, предсказуемо, но без ярких преимуществ.
Эксперимент показывает, насколько быстро модели приближаются к созданию сложных игровых систем под ключ.
Демоверсии доступны для Codex, Claude, Gemini
❤8🔥6👍3
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
👍14❤9🔥2
🧠 Memlayer: Умный слой памяти для LLM
Memlayer добавляет интеллектуальную память к любому LLM, позволяя агентам запоминать контекст и извлекать структурированные знания. С минимальной настройкой, он обеспечивает быстрый поиск и фильтрацию важной информации.
🚀 Основные моменты:
- Поддержка универсальных LLM (OpenAI, Claude и др.)
- Интеллектуальная фильтрация памяти с тремя режимами
- Гибридный поиск с использованием векторного и графового подходов
- Высокая скорость работы (<100 мс) и локальное хранение данных
📌 GitHub: https://github.com/divagr18/memlayer
#python
Memlayer добавляет интеллектуальную память к любому LLM, позволяя агентам запоминать контекст и извлекать структурированные знания. С минимальной настройкой, он обеспечивает быстрый поиск и фильтрацию важной информации.
🚀 Основные моменты:
- Поддержка универсальных LLM (OpenAI, Claude и др.)
- Интеллектуальная фильтрация памяти с тремя режимами
- Гибридный поиск с использованием векторного и графового подходов
- Высокая скорость работы (<100 мс) и локальное хранение данных
📌 GitHub: https://github.com/divagr18/memlayer
#python
❤9👍6🔥3
В отличие от обычного “быстрого” ИИ-ответа, Deep Think не спешит:
он параллельно перебирает несколько идей, прогоняет задачу через несколько раундов рассуждений
и в итоге выдаёт более умный и нюансный результат.
Где это особенно полезно:
- сложное программирование и разбор багов
- задачи по математике
- сложные вопросы по науке и аналитике
Режим уже доступен пользователям Gemini Ultra в приложении: просто включи “Thinking” и выбери Deep Think в строке вод промпта.
https://blog.google/products/gemini/gemini-3-deep-think/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍8
Пройдите собеседования за выходные и получите офер в Яндекс
13–14 декабря проводим Weekend Offer ML — мероприятие быстрого найма для инфраструктурных и DL-инженеров, которые работают с NLP, CV, ASR, TTS или RecSys. Такой формат ивента позволяет пройти всего две секции, вместо трёх, и финальные интервью с командами за выходные, и сразу получить офер.
Вместе с командой вам предстоит создавать и развивать технологии голосового ввода, синтеза речи и компьютерного зрения. Всё это ляжет в основу сервисов, которыми пользуются миллионы!
Как всё устроено:
⚪ до 9 декабря оставляйте заявку на сайте;
⚪ 13 декабря пройдите всего две технические секции;
⚪ 14 декабря пройдите финальные интервью с командами и получите офер.
У нас сильная инженерная культура, свобода экспериментов и возможность создавать продукты, которыми ежедневно пользуются миллионы.
Все подробности и регистрация — на сайте.
13–14 декабря проводим Weekend Offer ML — мероприятие быстрого найма для инфраструктурных и DL-инженеров, которые работают с NLP, CV, ASR, TTS или RecSys. Такой формат ивента позволяет пройти всего две секции, вместо трёх, и финальные интервью с командами за выходные, и сразу получить офер.
Вместе с командой вам предстоит создавать и развивать технологии голосового ввода, синтеза речи и компьютерного зрения. Всё это ляжет в основу сервисов, которыми пользуются миллионы!
Как всё устроено:
У нас сильная инженерная культура, свобода экспериментов и возможность создавать продукты, которыми ежедневно пользуются миллионы.
Все подробности и регистрация — на сайте.
Please open Telegram to view this post
VIEW IN TELEGRAM
🥴6❤5👍4🔥2
1) Этап 1: PP-DocLayoutV2 - система сначала понимает структуру страницы
Модель определяет, какие элементы находятся на странице и в каком порядке их нужно читать.
Используются RT-DETR для обнаружения текстовых блоков, таблиц, формул и графиков, а также Pointer Networks для предсказания человеческого порядка чтения.
Благодаря этому исчезают ошибки структуры, и получается чистый список элементов.
2) Этап 2: PaddleOCR-VL-0.9B — этап точного распознавания
Каждый элемент проходит через компактную, но очень точную VL-модель.
Она использует динамическое разрешение в стиле NaViT без искажений, ERNIE 4.5-0.3B для быстрого декодинга и двухслойный MLP-проектор для объединения визуальной и языковой информации.
Модель уверенно распознает текст, таблицы, графики и формулы при размере всего 0.9B параметров.
3) Зачем делить процесс на два этапа
Такой подход дает стабильную работу на много-колоночных и смешанных макетах, повышает скорость обработки, потому что элементы идут параллельно, и облегчает расширение под новые типы данных вроде кода или схем.
Специализированная задача получает специализированную модель.
4) Полный путь от PDF к структуре
Сначала документ анализируется, затем элементы вырезаются, после этого распознаются и в конце собираются обратно в структуру.
Результат получается в виде Markdown или JSON, которые готовы для поиска, RAG или автоматизации.
В следующем материале команда покажет внутреннюю «фабрику данных» из более чем тридцати миллионов примеров с автолейблингом и подбором сложных кейсов.
https://aistudio.baidu.com/paddleocr?lang=en
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍3🔥3
Модель построена на архитектуре Mixture of Experts с общим размером 406B параметров и 32B активных.
Модель поддерживает контекст 256K токенов. HY 2.0 демонстрирует заметные улучшения на ключевых бенчмарках.
Главные достижения HY 2.0:
🧠 Reasoning: результат 73.4 на IMO AnswerBench - почти плюс 20 процентов, что закрепляет модель среди лидеров по математическому и научному мышлению.
🛠 Coding и Agents: скачок в SWE Bench Verified с 6.0 до 53.0, а Tau2 Bench вырос с 17.1 до 72.4.
⚡ Instruction Following: более стабильное выполнение сложных инструкций и естественный стиль ответов.
Модель выпускается в двух вариантах:
• HY 2.0 Think - для глубокого рассуждения, генерации кода и сложных задач
• HY 2.0 Instruct - для диалога, креативного письма и многотуровых контекстных бесед
🌐 Website: https://hunyuan.tencent.com
🔗 API Access: https://hunyuan.cloud.tencent.com/#/app/modelSquare
📄 Documentation: https://cloud.tencent.com/document/product/1729/104753
@data_analysis_ml
#AI #Tencent #Hunyuan #HY2 #LLM #MoE #DeepLearning #AIModels
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍7🔥3
Rnj-1 демонстрирует сильные результаты в Кодине, математике и STEM-задачах.
На SWE-bench модель показывает 20.8% в Verified-режиме (bash-only) - выше Gemini 2.0 Flash и сопоставимо с GPT-4o.
Вместо brute-force команда делала ставку на дисциплинированное проектирование: качественную подготовку данных, продуманные оптимизации и исследовательские методики для выполнения кода, infill-генерации и рассуждений.
Модель обучалась на кластере TPU и AMD-GPU, увидела почти 8.7 триллиона токенов, и её качество продолжает расти.
В компании говорят, что это только начало: Essential AI (22 человека) строит долгосрочную исследовательскую программу с новыми моделями, методами и прорывами в pipeline.
Blog → https://essential.ai/research/rnj-1
Model → https://huggingface.co/EssentialAI/rnj-1-instruct
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6😁3👍2🥰1