Forwarded from Machinelearning
Reinforcement Learning Teachers (RLT) от Sakana AI - метод обучения LLM рассуждениям, где компактная модель-"учитель" не решает задачи сама, а учится объяснять уже готовые решения так, чтобы студент-модель лучше их усваивала.
Вместо дорогого обучения "с нуля" через проб и ошибку (как в классическом RL), учитель фокусируется на ясности пошаговых пояснений, используя и вопрос, и правильный ответ как подсказку. Это радикально удешевляет процесс и выравнивает цель учителя быть полезным студенту.
Архитектура строится вокруг петли обратной связи. Учителю (например, крошечной модели на 7B параметров) на вход подаются и задача и ее верное решение. Его работа - сгенерировать максимально понятное пошаговое объяснение, как прийти от условия к ответу.
Эффективность учителя измеряется не тем, решил ли он задачу сам (он даже не обязан это уметь), а тем, насколько хорошо студент-модель понимает его объяснение. Ключевая метрика - "логарифмические вероятности": чем выше вероятность, что студент, прочитав объяснение учителя, правильно предскажет следующий шаг или итоговый ответ, тем лучше работа учителя. Это и есть сигнал подкрепления для обучения RLT.
Вся магия метода состоит в этом смещении фокуса RL. Вместо чтоб награждать модель за самостоятельное нахождение ответа (что требует огромных вычислительных ресурсов и приводит к "узкой" специализации), RLT поощряют за педагогическую эффективность.
Благодаря наличию готового ответа во время обучения, в роли учителя могут выступать даже небольшие, дешевые модели, которые не смогли бы решить сложные задачи в одиночку. Объяснения от RLT затем используются как высококачественные данные для обучения (дистилляции или "холодного старта") студент-моделей любого размера.
Главный нюанс: метод требует наличия готовых правильных решений для задач в обучающем наборе. Он не заменяет полностью сбор данных, а перепрофилирует их для обучения "преподаванию".
Пока метод тестировался в основном на задачах математики и естественных наук. Но его сила в эффективности: 7B RLT-учитель превосходит в обучении студентов-гигантов ( 671B DeepSeek R1). Он обучает даже студентов крупнее себя (32B) быстрее (менее суток против месяцев) и лучше, а его объяснения четче, без лишнего "шума" вроде юмора или подсказок калькулятора, свойственных традиционным RL-моделям.
@ai_machinelearning_big_data
#AI #ML #LLM #RL #RLT #SakanaAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Awesome Tensor Compilers — энциклопедия компиляторов для тензорных вычислений. Этот репозиторий представляет собой сборник различных проектов для разработчиков, работающих с оптимизацией ML-моделей. Здесь собраны ключевые инструменты вроде TVM, MLIR и Triton, а также сотни исследований по автоматической оптимизации тензорных операций на CPU, GPU и специализированных ускорителях.
Помимо готовых компиляторов, в репозитории есть разделы с научными работами по cost-моделям, автоматическому планированию вычислений и методам верификации. Каждый проект или статья сопровождается ссылками.
🤖 GitHub
Помимо готовых компиляторов, в репозитории есть разделы с научными работами по cost-моделям, автоматическому планированию вычислений и методам верификации. Каждый проект или статья сопровождается ссылками.
🤖 GitHub
❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Что нового
- Читает длинные отчёты и создаёт аудиофайлы
- Удобное упарвление голосом: можно слушать, давать команды и одновременно делать другие дела
- Генерирует подкасты
- Озвучивает доки и презентации и многое другое
Когда удобнее слушать, чем читать — включите Manus и продолжайте работу.
https://audio.manus.space
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Что это:
Набор инструментов и абстракций для обучения больших языковых моделей методом подкрепления (RL) в многоповоротных сценариях с проверяемым результатом. Основано на Group-Relative Policy Optimization (GRPO) поверх
transformers.Trainer.Основные принципы:
- Модульность: среды, политики и рубрики — независимые компоненты.
- Переиспользуемость: легко комбинируйте и адаптируйте под новые задачи.
- Хакинг: обойдитесь минимальными усилиями для изменений и расширений.
Состав среды:
- actor: OpenAI-совместимый LLM endpoint
- environment:
- инструкции (system prompts)
- задачи + проверяемые цели
- протокол взаимодействия (многоповоротные tool-вызовы, multi-agent)
- рубрика (награды за выполнение целей)
Ключевые возможности:
-
vf.GRPOTrainer для асинхронного многоповоротного инференса и обучения с off-policy overlapping - Генерация синтетических данных и SFT-разогрев на отфильтрованных rollout
- Оффлайн-оценка через OpenAI-совместимые API
- Поддержка и chat, и completion запросов
- Парсеры (например, `XMLParser`) для стандартизации форматов
- Классы сред:
-
SingleTurnEnv для одноповоротного reasoning -
ToolEnv и SmolaToolEnv для tool-вызовов -
CodeMathEnv для интерактивного выполнения Python -
MultiTurnEnv и ReasoningGymEnv для кастомных логикgit clone https://github.com/willccbb/verifiers.git
cd verifiers
uv sync --extra all && uv pip install flash-attn --no-build-isolationPlease open Telegram to view this post
VIEW IN TELEGRAM
🕸️ Chat4Data — расширение, которое превращает веб-скрапинг в диалог
Вместо кода и настроек — просто говоришь, что хочешь, и AI собирает структурированные данные с сайта.
Что умеет Chat4Data:
🔹 Собирает данные “на слух”
Опиши нужную таблицу или список — AI сам найдёт, распарсит и вставит в таблицу. Не нравится результат? Переспроси. Без кода, без боли.
🔹 Обходит все страницы сам
Автоматически кликает “Следующая”, грузит подгружаемые списки и собирает всё — без твоего участия.
🔹 Запускается за 3 клика
AI сам определяет, какие данные ценные, предлагает их — тебе остаётся только подтвердить. Быстро, как в Telegram-боте.
🔹 Не тратит токены на скрапинг
Анализ страницы — на AI, но сами данные забираются без токенов. В бета-версии дают 1 миллион токенов на другие задачи.
🔹 Скоро: скрапинг подстраниц, интерактив, интеграции...
📎 https://chat4data.ai
#ai #scraping #automation #nocode #tools
Вместо кода и настроек — просто говоришь, что хочешь, и AI собирает структурированные данные с сайта.
Что умеет Chat4Data:
🔹 Собирает данные “на слух”
Опиши нужную таблицу или список — AI сам найдёт, распарсит и вставит в таблицу. Не нравится результат? Переспроси. Без кода, без боли.
🔹 Обходит все страницы сам
Автоматически кликает “Следующая”, грузит подгружаемые списки и собирает всё — без твоего участия.
🔹 Запускается за 3 клика
AI сам определяет, какие данные ценные, предлагает их — тебе остаётся только подтвердить. Быстро, как в Telegram-боте.
🔹 Не тратит токены на скрапинг
Анализ страницы — на AI, но сами данные забираются без токенов. В бета-версии дают 1 миллион токенов на другие задачи.
🔹 Скоро: скрапинг подстраниц, интерактив, интеграции...
📎 https://chat4data.ai
#ai #scraping #automation #nocode #tools
❤2👍2
Forwarded from Machinelearning
Что делает Marin особенной:
— Полностью открыты не только веса, но показан весь процесс обучения: код, данные, гиперпараметры модели, логи, эксперименты — всё доступно на GitHub
— Модель обучена на 12.7 трлн токенов и в 14 из 19 тестов обошла Llama 3.1 8B
— Лицензия Apache 2.0, всё можно использовать, модифицировать и воспроизводить
— Levanter + JAX обеспечивают bit‑exact повторяемость и масштабируемость на TPU/GPU
Проект позиционируется как открытая лаборатория: каждый эксперимент оформляется через pull request, логируется в WandB, обсуждается в issue и фиксируется в истории репозитория. Даже неудачные эксперименты сохраняются ради прозрачности.
Выпущены две версии:
- Marin‑8B‑Base — сильный base-модель, превосходит Llama 3.1 8B
- Marin‑8B‑Instruct — обучена с помощью SFT, обгоняет OLMo 2, немного уступает Llama 3.1 Tulu
Это не просто открытые веса, а новый стандарт для научных вычислений в эпоху больших моделей.
* JAX — это фреймворк от Google для научных и численных вычислений, особенно популярен в сфере машинного обучения.
**TPU (Tensor Processing Unit) — это специализированный чип от Google, созданный для ускорения AI-задач.
@ai_machinelearning_big_data
#ai #ml #tpu #jax #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1
📊 Argilla — инструмент для создания качественных датасетов под AI. Проект помогает разработчикам и экспертам совместно работать над разметкой данных для NLP, LLM и мультимодальных моделей.
Платформа предлагает удобный интерфейс для аннотирования с фильтрами, семантическим поиском и AI-подсказками. Argilla используют в Red Cross и других организациях для задач классификации, RAG и тонкой настройки моделей.
🖥 Github
Платформа предлагает удобный интерфейс для аннотирования с фильтрами, семантическим поиском и AI-подсказками. Argilla используют в Red Cross и других организациях для задач классификации, RAG и тонкой настройки моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🧹 ObjectClear — инструмент для удаления объектов с изображений с помощью ИИ
Что умеет:
🖼 Загружаешь изображение
🎯 Выделяешь объект, который хочешь убрать
✨ Модель автоматически удаляет его и восстанавливает фон
Под капотом:
— Segment Anything (SAM) от Meta для выделения объекта
— Inpaint-Anything для генерации фона
— Поддержка работы в браузере (Gradio UI)
Можно запускать локально. Всё open-source.
📎 GitHub: https://github.com/zjx0101/ObjectClear
Что умеет:
🖼 Загружаешь изображение
🎯 Выделяешь объект, который хочешь убрать
✨ Модель автоматически удаляет его и восстанавливает фон
Под капотом:
— Segment Anything (SAM) от Meta для выделения объекта
— Inpaint-Anything для генерации фона
— Поддержка работы в браузере (Gradio UI)
Можно запускать локально. Всё open-source.
📎 GitHub: https://github.com/zjx0101/ObjectClear
❤1👍1🔥1
📊 Metabase Learn — лучший старт для изучения аналитики и дашбордов
🔥 Официальный обучающий портал от Metabase: от первых шагов до продвинутых сценариев с embedding и администрированием.
Что внутри:
✅ Подключение БД и создание запросов без кода
✅ Визуализация данных, фильтры, метрики, дашборды
✅ SQL-гайды, объединение данных, отладка
✅ Встраивание аналитики в свои продукты через SDK
✅ Управление пользователями и масштабирование
✅ Бонус: советы по аналитике для команд и стартапов
🧠 Всё подаётся пошагово: от базового интерфейса до сложных use-case’ов
https://github.com/metabase/metabase
🔥 Официальный обучающий портал от Metabase: от первых шагов до продвинутых сценариев с embedding и администрированием.
Что внутри:
✅ Подключение БД и создание запросов без кода
✅ Визуализация данных, фильтры, метрики, дашборды
✅ SQL-гайды, объединение данных, отладка
✅ Встраивание аналитики в свои продукты через SDK
✅ Управление пользователями и масштабирование
✅ Бонус: советы по аналитике для команд и стартапов
🧠 Всё подаётся пошагово: от базового интерфейса до сложных use-case’ов
https://github.com/metabase/metabase
❤2🔥2👍1
🧠 OpenBAS — open-source платформа для создания собственных ИИ‑агентов
Хочешь запускать автономных ИИ‑агентов на своём сервере? Без внешних API и подписок?
⚡️ OpenBAS (Open Behavioral Agent System) — это:
✅ Полноценная AGI‑архитектура с памятью, планированием и обучением
✅ Локальное исполнение: всё работает на вашем железе
✅ Поддержка LLM, сенсоров, действий, целей и окружения
✅ Модульность — можно кастомизировать и дорабатывать под задачи
💡 Отлично подходит для исследований, прототипов и создания автономных ИИ‑систем.
🔗 GitHub: https://github.com/OpenBAS-Platform/openbas
Хочешь запускать автономных ИИ‑агентов на своём сервере? Без внешних API и подписок?
⚡️ OpenBAS (Open Behavioral Agent System) — это:
✅ Полноценная AGI‑архитектура с памятью, планированием и обучением
✅ Локальное исполнение: всё работает на вашем железе
✅ Поддержка LLM, сенсоров, действий, целей и окружения
✅ Модульность — можно кастомизировать и дорабатывать под задачи
💡 Отлично подходит для исследований, прототипов и создания автономных ИИ‑систем.
🔗 GitHub: https://github.com/OpenBAS-Platform/openbas
❤2👍1
🤖 Прокачай вайб-кодинг: Anthropic выкатили 17 бесплатных лекций по разработке с ИИ-агентами
💡 За 8 часов ты узнаешь:
— как правильно писать код с помощью LLM
— как создавать идеальные промпты
— как собрать собственного агента на Claude или другой модели
— и какие лучшие практики реально работают в проде
📚 Полный гайд по работе с ИИ — от основ до тонкостей.
💡 За 8 часов ты узнаешь:
— как правильно писать код с помощью LLM
— как создавать идеальные промпты
— как собрать собственного агента на Claude или другой модели
— и какие лучшие практики реально работают в проде
📚 Полный гайд по работе с ИИ — от основ до тонкостей.
❤4👍2💩1
📈 ИИ уже дал миру $97 млрд пользы — но их не видно в статистике
Официальные доходы OpenAI, Google, Microsoft и Anthropic от генеративного ИИ — около $7 млрд в год.
Но новая экономическая модель показывает: реальная ценность для людей — почти $97 млрд.
💡 Почему эту сумму не видно в ВВП?
Потому что люди используют ChatGPT, Gemini и другие ИИ-сервисы бесплатно или условно-бесплатно.
А ВВП считает только реальные деньги, которые прошли через кассу.
🧪 Как это посчитали?
Экономисты проводили онлайн-эксперименты:
👤 человеку говорят:
> «Хочешь продолжить пользоваться ИИ в следующем месяце — или отказаться и получить $X?»
📉 Увеличивают X, пока человек не скажет "ладно, забирайте".
Этот X — ценность доступа для конкретного человека.
📊 Среднее значение оказалось $98 в месяц.
82 млн пользователей × 12 месяцев × $98 = $97 миллиардов годовой "невидимой" пользы.
📌 Это называется consumer surplus — выгода, которую получает пользователь, не заплатив за продукт.
И она в 14 раз превышает все официальные продажи генеративного ИИ.
🧠 Исследователи предлагают учитывать это в новой метрике — GDP‑B, которая включает и скрытую цифровую ценность.
💬 Вывод:
ИИ уже радикально меняет экономику. Только большая часть этой пользы — не в отчётах компаний, а в жизни пользователей.
🔗 Статья: https://www.wsj.com/opinion/ais-overlooked-97-billion-contribution-to-the-economy-users-service-da6e8f55
Официальные доходы OpenAI, Google, Microsoft и Anthropic от генеративного ИИ — около $7 млрд в год.
Но новая экономическая модель показывает: реальная ценность для людей — почти $97 млрд.
💡 Почему эту сумму не видно в ВВП?
Потому что люди используют ChatGPT, Gemini и другие ИИ-сервисы бесплатно или условно-бесплатно.
А ВВП считает только реальные деньги, которые прошли через кассу.
🧪 Как это посчитали?
Экономисты проводили онлайн-эксперименты:
👤 человеку говорят:
> «Хочешь продолжить пользоваться ИИ в следующем месяце — или отказаться и получить $X?»
📉 Увеличивают X, пока человек не скажет "ладно, забирайте".
Этот X — ценность доступа для конкретного человека.
📊 Среднее значение оказалось $98 в месяц.
82 млн пользователей × 12 месяцев × $98 = $97 миллиардов годовой "невидимой" пользы.
📌 Это называется consumer surplus — выгода, которую получает пользователь, не заплатив за продукт.
И она в 14 раз превышает все официальные продажи генеративного ИИ.
🧠 Исследователи предлагают учитывать это в новой метрике — GDP‑B, которая включает и скрытую цифровую ценность.
💬 Вывод:
ИИ уже радикально меняет экономику. Только большая часть этой пользы — не в отчётах компаний, а в жизни пользователей.
🔗 Статья: https://www.wsj.com/opinion/ais-overlooked-97-billion-contribution-to-the-economy-users-service-da6e8f55
👍3❤1🔥1😁1🌚1
📊 AI уже пишет 30% кода в США — исследование на 80 млн коммитов Python
Команда исследователей просканировала 80 миллионов open-source коммитов и выявила, что к 2024 году:
🇺🇸 США — 30% кода пишется ИИ
🇩🇪 Германия, 🇫🇷 Франция — ~24%
🇮🇳 Индия — 22%
🇷🇺 Россия — 15%
🇨🇳 Китай — 12%
🚀 Как они это выяснили?
Они обучили детектор:
1️⃣ Один LLM объясняет код
2️⃣ Второй — генерирует его заново
🎯 Это дало сбалансированные пары и позволило натренировать GraphCodeBERT
🧠 Результат:
— 31 млн AI‑написанных функций из 80 млн
— Рост точно совпадает с релизами Copilot, ChatGPT и GPT‑4
— Новички больше полагаются на ИИ, чем ветераны
— Разницы по полу — нет
📈 Эффект:
+2.4% коммитов в квартал при переходе от 0% к 30% AI-кода
= $9.6–14.4 млрд в год прибавки к продуктивности в США
(максимум — до $96 млрд)
🧪 Также:
+2.2% новых библиотек
+3.5% новых комбинаций библиотек
ИИ помогает не только быстрее писать, но и осваивать новые области.
📄 Исследование: arxiv.org/abs/2506.08945v1
Команда исследователей просканировала 80 миллионов open-source коммитов и выявила, что к 2024 году:
🇺🇸 США — 30% кода пишется ИИ
🇩🇪 Германия, 🇫🇷 Франция — ~24%
🇮🇳 Индия — 22%
🇷🇺 Россия — 15%
🇨🇳 Китай — 12%
🚀 Как они это выяснили?
Они обучили детектор:
1️⃣ Один LLM объясняет код
2️⃣ Второй — генерирует его заново
🎯 Это дало сбалансированные пары и позволило натренировать GraphCodeBERT
🧠 Результат:
— 31 млн AI‑написанных функций из 80 млн
— Рост точно совпадает с релизами Copilot, ChatGPT и GPT‑4
— Новички больше полагаются на ИИ, чем ветераны
— Разницы по полу — нет
📈 Эффект:
+2.4% коммитов в квартал при переходе от 0% к 30% AI-кода
= $9.6–14.4 млрд в год прибавки к продуктивности в США
(максимум — до $96 млрд)
🧪 Также:
+2.2% новых библиотек
+3.5% новых комбинаций библиотек
ИИ помогает не только быстрее писать, но и осваивать новые области.
📄 Исследование: arxiv.org/abs/2506.08945v1
arXiv.org
Who is using AI to code? Global diffusion and impact of generative AI
Generative coding tools promise big productivity gains, but uneven uptake could widen skill and income gaps. We train a neural classifier to spot AI-generated Python functions in over 30 million...
❤3👍2😱2
Это, пожалуй, самый важный бенчмарк и доказательство продолжающегося экспоненциального роста.
Сегодня состоялся Релиз Chatgpt, если кто не в курсе
Сегодня состоялся Релиз Chatgpt, если кто не в курсе
🤔7
🎓 TheAlgorithms/Python — крупнейший открытый репозиторий с реализациями алгоритмов на Python
📌 Что это?
TheAlgorithms — глобальное комьюнити, создающее учебные реализации алгоритмов на множестве языков. Репозиторий Python — один из самых популярных и активно развиваемых. Он содержит тысячи алгоритмов для образовательных целей.
⭐ Основные цифры:
- 204k звёзд ⭐ — один из самых "звёздных" проектов на GitHub
💡 Что внутри:
- Реализации алгоритмов разных категорий: сортировки, графы, машинное обучение, криптография, динамическое программирование, структуры данных и многое другое
- Полная документация, справка по API и гайды по контрибуции на сайте проекта
⏭ Кому это будет полезно:
- Студентам и начинающим — учебная база, чтобы видеть как работает алгоритм в коде.
- Подготовка к интервью — практические реализация и примеры.
- Желающим поучаствовать — проект открыт для всех: есть гайды по контрибуции, обсуждения, Discord/Gitter сообщество
https://github.com/TheAlgorithms/Python
📌 Что это?
TheAlgorithms — глобальное комьюнити, создающее учебные реализации алгоритмов на множестве языков. Репозиторий Python — один из самых популярных и активно развиваемых. Он содержит тысячи алгоритмов для образовательных целей.
⭐ Основные цифры:
- 204k звёзд ⭐ — один из самых "звёздных" проектов на GitHub
💡 Что внутри:
- Реализации алгоритмов разных категорий: сортировки, графы, машинное обучение, криптография, динамическое программирование, структуры данных и многое другое
- Полная документация, справка по API и гайды по контрибуции на сайте проекта
⏭ Кому это будет полезно:
- Студентам и начинающим — учебная база, чтобы видеть как работает алгоритм в коде.
- Подготовка к интервью — практические реализация и примеры.
- Желающим поучаствовать — проект открыт для всех: есть гайды по контрибуции, обсуждения, Discord/Gitter сообщество
https://github.com/TheAlgorithms/Python
❤2👍1
Forwarded from Machinelearning
Модель показывает лучшие результаты в своём классе среди открытых решений, лидируя на 41 бенчмарке.
- Image Reasoning — понимание изображений, анализ нескольких изображений, распознавание объектов.
- Video Understanding — раскадровка длинных видео, определение событий, которые происходят на кадрах из видео.
- GUI-задачи — понимание интрефейсов, распознавание иконок, кнопок и тд, помощь в управлении рабочим столом.
- Сложный анализ графиков и документов — разбор различных отчётов, извлечение информации их них.
- Grounding — точная локализация элементов на изображениях.
Здесь можно почитать про GLM-4.5, а здесь посмотреть техрепорт, там много интересного.
@ai_machinelearning_big_data
#GLM #opensource #vlm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
На GitHub выложили 40 бесплатных гайдов по созданию ИИ-агентов — объясняют, как собрать ботов под разные задачи: от записи созвонов до сложной разработки.
Отдают с готовым кодом, который сразу можно запускать на своем ПК. Путь от идеи до работающего кастомного агента может занять несколько минут. Все шаги расписаны достаточно подробно.
Создаем своих ботов тут.
Отдают с готовым кодом, который сразу можно запускать на своем ПК. Путь от идеи до работающего кастомного агента может занять несколько минут. Все шаги расписаны достаточно подробно.
Создаем своих ботов тут.
❤2👍1
🚀 DeepSeek R2 могут выпустить между 15 и 30 августа на чипах Huawei Ascend 910B.
Мощность: 512 PFLOPS FP16 (примерно как 91% кластера NVIDIA A100) при этом затраты меньше на 97%.
Загрузка чипов — около 82%.
Архитектура: гибридный Mixture of Experts — при обработке токена активируются только нужные эксперты (78B из 1.2T параметров), что ускоряет работу и снижает вычисления.
Ходят слухи о собственном стеке для распределённого обучения, но подтверждений пока нет.
Все технические данные совпадают с предыдущими утечками по железу.
Мощность: 512 PFLOPS FP16 (примерно как 91% кластера NVIDIA A100) при этом затраты меньше на 97%.
Загрузка чипов — около 82%.
Архитектура: гибридный Mixture of Experts — при обработке токена активируются только нужные эксперты (78B из 1.2T параметров), что ускоряет работу и снижает вычисления.
Ходят слухи о собственном стеке для распределённого обучения, но подтверждений пока нет.
Все технические данные совпадают с предыдущими утечками по железу.