MIT: большие датасеты не всегда нужны - можно вычислить “минимум данных”, который гарантирует лучший ответ
Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.
Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.
То есть система отвечает на вопрос не “примерно”, а строго:
👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.
В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.
А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее
Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.
Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid
Каждое измерение может быть: дорогим, медленным, опасным или редким.
И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.
Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.
Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.
То есть система отвечает на вопрос не “примерно”, а строго:
👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.
В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.
А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее
Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.
Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid
Каждое измерение может быть: дорогим, медленным, опасным или редким.
И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.
Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
❤15🤔11😁5
Автоматизируем рутину на максимум: вышла Manus Academy - платформа с бесплатными курсами по ИИ-агентам.
Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).
https://academy.manus.im/
Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).
https://academy.manus.im/
👍5❤4🔥3
Сегодня ключевой вопрос уже не в том, использовать ли AI в работе, а в том, как именно его встраивать так, чтобы он приносил пользу, а не создавал новые проблемы.
Когда AI подключается без четкой архитектуры, он быстро превращается в источник нестабильности: ответы начинают зависеть от случайного контекста, качество трудно контролировать, а система плохо переносит рост данных и пользователей. В результате технология, которая должна была упрощать работу, начинает требовать все больше внимания и ручного контроля.
На вебинаре «Прототипирование LLM: от идеи до работающего AI-ассистента» karpovꓸcourses подробно разберут, как проектируются управляемые AI-системы: как выстраивается слой работы с данными через RAG, как ассистент получает доступ к внешним инструментам, как задается логика поведения и ограничения, и как все это соединяется в воспроизводимую архитектуру.
Научитесь строить управляемые AI-системы на бесплатном вебинаре: https://clc.to/erid_2W5zFGvwQ3r
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGvwQ3r
Когда AI подключается без четкой архитектуры, он быстро превращается в источник нестабильности: ответы начинают зависеть от случайного контекста, качество трудно контролировать, а система плохо переносит рост данных и пользователей. В результате технология, которая должна была упрощать работу, начинает требовать все больше внимания и ручного контроля.
На вебинаре «Прототипирование LLM: от идеи до работающего AI-ассистента» karpovꓸcourses подробно разберут, как проектируются управляемые AI-системы: как выстраивается слой работы с данными через RAG, как ассистент получает доступ к внешним инструментам, как задается логика поведения и ограничения, и как все это соединяется в воспроизводимую архитектуру.
Научитесь строить управляемые AI-системы на бесплатном вебинаре: https://clc.to/erid_2W5zFGvwQ3r
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGvwQ3r
🤣7🔥4❤3
🚀 GLM-Image теперь open-source
Почти все image-модели умеют делать красивые арты…
но ломаются, когда нужно:
- постер с текстом
- PPT-слайд
- инфографика с логикой
- схема/диаграмма с подписями
GLM-Image решает это иначе:
он комбинирует Autoregressive-модель + Diffusion Decoder, и за счёт этого нормально держит структуру + текст + смысл.
Что умеет:
- ✅ #1 на CVTG-2K и LongText-Bench
- ✅ идеальный многострочный текст
- ✅ сложные диаграммы и логические схемы
- ✅ заточен под NPU training (Ascend / MindSpore)
📌 Model: https://modelscope.cn/models/ZhipuAI/GLM-Image
📌 Github: https://github.com/zai-org/GLM-Image
Почти все image-модели умеют делать красивые арты…
но ломаются, когда нужно:
- постер с текстом
- PPT-слайд
- инфографика с логикой
- схема/диаграмма с подписями
GLM-Image решает это иначе:
он комбинирует Autoregressive-модель + Diffusion Decoder, и за счёт этого нормально держит структуру + текст + смысл.
Что умеет:
- ✅ #1 на CVTG-2K и LongText-Bench
- ✅ идеальный многострочный текст
- ✅ сложные диаграммы и логические схемы
- ✅ заточен под NPU training (Ascend / MindSpore)
📌 Model: https://modelscope.cn/models/ZhipuAI/GLM-Image
📌 Github: https://github.com/zai-org/GLM-Image
❤12🔥5👍2🥰2
Media is too big
VIEW IN TELEGRAM
В этом году масштабируем ML-пилот и не сойдем с ума 💯
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И ес
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.
Реклама. АО "Селектел". erid:2W5zFJr9UdW
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И ес
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.
Реклама. АО "Селектел". erid:2W5zFJr9UdW
🤣3🔥2
DeepTutor: AI-ассистент для персонализированного обучения и исследований 🎓🤖
Команда исследует, как агентный ИИ может помогать студентам и исследователям на каждом этапе:
от чтения материалов до практики, идей и управления знаниями.
DeepTutor объединяет: исследование, разбор теории, генерацию заданий и систему заметок в один инструмент, который понимает контекст твоего обучения.
Что умеет DeepTutor
- 📚 Smart Document Q&A
Заливаешь учебники, статьи, технические доки—
получаешь развёрнутые ответы с корректными цитатами.
- 🎨 Визуализация и объяснения
Сложные темы превращаются в понятные схемы
и интерактивные страницы, адаптированные под твой темп.
- 🎯 Генератор практики
Создаёт тесты по твоим материалам —
и даже может имитировать стиль реальных экзаменов.
- 🔬 Исследования и идеи
Помогает с научной работой, отчётами, брейнштормом
и может параллельно вести несколько исследовательских тем.
🔗 Open Source: https://github.com/HKUDS/DeepTutor
Команда исследует, как агентный ИИ может помогать студентам и исследователям на каждом этапе:
от чтения материалов до практики, идей и управления знаниями.
DeepTutor объединяет: исследование, разбор теории, генерацию заданий и систему заметок в один инструмент, который понимает контекст твоего обучения.
Что умеет DeepTutor
- 📚 Smart Document Q&A
Заливаешь учебники, статьи, технические доки—
получаешь развёрнутые ответы с корректными цитатами.
- 🎨 Визуализация и объяснения
Сложные темы превращаются в понятные схемы
и интерактивные страницы, адаптированные под твой темп.
- 🎯 Генератор практики
Создаёт тесты по твоим материалам —
и даже может имитировать стиль реальных экзаменов.
- 🔬 Исследования и идеи
Помогает с научной работой, отчётами, брейнштормом
и может параллельно вести несколько исследовательских тем.
🔗 Open Source: https://github.com/HKUDS/DeepTutor
🔥8❤🔥3❤2👍2
🚀 AgentCPM-Explore - open-source агент на 4B, который реально тащит GAIA и сложные реальные задачи
OpenBMB выкатили AgentCPM-Explore - модель всего на 4B параметров, но по агентным метрикам она выглядит как зверь.
✅ SOTA среди 4B агент-моделей
По агентным бенчмаркам модель:
- обгоняет всех на своём масштабе
- превосходит часть 8B моделей
- и даже конкурирует с некоторыми 30B+ и closed-source LLM
🧠 Deep Research как у “исследователя”
Модель умеет:
- длинные цепочки рассуждений (long-horizon reasoning)
- 100+ ходов автономного диалога
- проверять себя через несколько источников (cross-validation)
- делать самокоррекцию как человек
- динамически менять стратегию и использовать инструменты
То есть это уже не “чатбот”, а мини-исследователь, который реально может вести задачу до конца.
🔓 Открыт не только модельный вес - открыт весь стек
И это самое жирное: OpenBMB выкладывают не “голую модель”, а весь pipeline агентности:
- AgentRL - асинхронный RL-фреймворк для обучения агентов
- AgentDock - безопасная песочница инструментов (tool sandbox)
- AgentToLeaP - платформа оценки tool-learning (в один клик)
- полный датапайплайн и воспроизводимые training workflows
Это полноценная open-source платформа для создания агентов, где можно реально учиться, экспериментировать и собирать своих автономных “ресёрчеров”.
Кто уже тестил GAIA на своих агентах ?
🤗 Hugging Face: https://huggingface.co/openbmb/AgentCPM-Explore
🔗 GitHub: https://github.com/OpenBMB/AgentCPM
OpenBMB выкатили AgentCPM-Explore - модель всего на 4B параметров, но по агентным метрикам она выглядит как зверь.
✅ SOTA среди 4B агент-моделей
По агентным бенчмаркам модель:
- обгоняет всех на своём масштабе
- превосходит часть 8B моделей
- и даже конкурирует с некоторыми 30B+ и closed-source LLM
🧠 Deep Research как у “исследователя”
Модель умеет:
- длинные цепочки рассуждений (long-horizon reasoning)
- 100+ ходов автономного диалога
- проверять себя через несколько источников (cross-validation)
- делать самокоррекцию как человек
- динамически менять стратегию и использовать инструменты
То есть это уже не “чатбот”, а мини-исследователь, который реально может вести задачу до конца.
🔓 Открыт не только модельный вес - открыт весь стек
И это самое жирное: OpenBMB выкладывают не “голую модель”, а весь pipeline агентности:
- AgentRL - асинхронный RL-фреймворк для обучения агентов
- AgentDock - безопасная песочница инструментов (tool sandbox)
- AgentToLeaP - платформа оценки tool-learning (в один клик)
- полный датапайплайн и воспроизводимые training workflows
Это полноценная open-source платформа для создания агентов, где можно реально учиться, экспериментировать и собирать своих автономных “ресёрчеров”.
Кто уже тестил GAIA на своих агентах ?
🤗 Hugging Face: https://huggingface.co/openbmb/AgentCPM-Explore
🔗 GitHub: https://github.com/OpenBMB/AgentCPM
❤6👍5🔥3
DeepSeek - глобальная доля рынка (по данным, собранным Microsoft) 🌍
Одно из самых неожиданных событий 2025 года - резкий взлёт DeepSeek.
Главная причина успеха:
открытость + доступная цена.
DeepSeek быстро закрепился там, где западные AI-сервисы:
- ограничены санкциями/блокировками
- дорогие
- плохо адаптированы под местные языки и условия
Это отлично показывает важный инсайт:
глобальное внедрение ИИ зависит не только от качества маркетинга, а от доступности, цены и контекста (экономика, язык, политика).
Где рост самый сильный:
- Китай
- Россия
- Иран
- Куба
- Беларусь
- многие страны Африки
Особенно выделяется Африка:
по оценкам, использование DeepSeek там в 2-4 раза выше, чем в других регионах.
ИИ-рынок начинает делиться не на “лучшие модели”,
а на “те, которыми реально можно пользоваться”.
https://www.microsoft.com/en-us/corporate-responsibility/topics/ai-economy-institute/reports/global-ai-adoption-2025/
Одно из самых неожиданных событий 2025 года - резкий взлёт DeepSeek.
Главная причина успеха:
открытость + доступная цена.
DeepSeek быстро закрепился там, где западные AI-сервисы:
- ограничены санкциями/блокировками
- дорогие
- плохо адаптированы под местные языки и условия
Это отлично показывает важный инсайт:
глобальное внедрение ИИ зависит не только от качества маркетинга, а от доступности, цены и контекста (экономика, язык, политика).
Где рост самый сильный:
- Китай
- Россия
- Иран
- Куба
- Беларусь
- многие страны Африки
Особенно выделяется Африка:
по оценкам, использование DeepSeek там в 2-4 раза выше, чем в других регионах.
ИИ-рынок начинает делиться не на “лучшие модели”,
а на “те, которыми реально можно пользоваться”.
https://www.microsoft.com/en-us/corporate-responsibility/topics/ai-economy-institute/reports/global-ai-adoption-2025/
❤10👍2🔥2