🫡 GitHub теряет независимость: Microsoft берет прямое управление ресурсом
С уходом CEO Томаса Домке GitHub окончательно интегрируется в структуру Microsoft. Платформа перестанет быть автономным подразделением — теперь её будут курировать напрямую руководители Microsoft, включая президента по разработке Джулию Лиусон и вице-президента по AI Ашу Шарму.
Компания войдёт в новую инженерную группу CoreAI под руководством Джея Париха. Это означает более тесную интеграцию с AI-инструментами Microsoft, хотя пока неясно, как это повлияет на политику платформы в отношении open-source.
Press F🥀
🔗 Ссылка - *клик*
@machinelearning_interview
С уходом CEO Томаса Домке GitHub окончательно интегрируется в структуру Microsoft. Платформа перестанет быть автономным подразделением — теперь её будут курировать напрямую руководители Microsoft, включая президента по разработке Джулию Лиусон и вице-президента по AI Ашу Шарму.
Компания войдёт в новую инженерную группу CoreAI под руководством Джея Париха. Это означает более тесную интеграцию с AI-инструментами Microsoft, хотя пока неясно, как это повлияет на политику платформы в отношении open-source.
Press F🥀
🔗 Ссылка - *клик*
@machinelearning_interview
🤔19😱8🌭5🌚3❤2👍2😨2
🌟 Awesome-Self-Evolving-Agents (EvoAgentX) — актуальный обзор по саморазвивающимся AI-агентам
Этот удобно оформленный список (awesome-лист) представляет собой визуальную таксономию подходов к эволюции AI-агентов, систематизируя решения по трем тематическим направлениям:
1. Single-Agent Optimisation — методы улучшения одного агента (LLM), включая:
- self-consistency
- Tree of Thoughts
- ToRA
- и другие подходы к оптимизации рассуждений и действий.
2. Prompt Optimisation — алгоритмы автоматической настройки промптов:
- GrIPS, TEMPERA
- Automatic Prompt Optimization
- Genetic Prompt Search (GPS)
- и другие, использующие эволюционные и gradient-free методы.
3. Multi-Agent / Domain-Specific Optimisation — развитие многоагентных систем:
- Agentic workflow orchestration
- Multi-Agent Architecture Search
- AutoGen, AgentVerse, FlowReasoner и прочие фреймворки для координации и масштабирования.
Почему это важно:
- Охватывает ключевые публикации и инструменты из исследований 2023–2025 годов.
- Содержит ссылки на статьи (Paper) и исходники (Code) для каждого метода.
- Идеален как для новичков, так и для учёных или разработчиков, работающих с LLM и агентами.
🔗 Ссылка: https://github.com/EvoAgentX/Awesome-Self-Evolving-Agents
Этот удобно оформленный список (awesome-лист) представляет собой визуальную таксономию подходов к эволюции AI-агентов, систематизируя решения по трем тематическим направлениям:
1. Single-Agent Optimisation — методы улучшения одного агента (LLM), включая:
- self-consistency
- Tree of Thoughts
- ToRA
- и другие подходы к оптимизации рассуждений и действий.
2. Prompt Optimisation — алгоритмы автоматической настройки промптов:
- GrIPS, TEMPERA
- Automatic Prompt Optimization
- Genetic Prompt Search (GPS)
- и другие, использующие эволюционные и gradient-free методы.
3. Multi-Agent / Domain-Specific Optimisation — развитие многоагентных систем:
- Agentic workflow orchestration
- Multi-Agent Architecture Search
- AutoGen, AgentVerse, FlowReasoner и прочие фреймворки для координации и масштабирования.
Почему это важно:
- Охватывает ключевые публикации и инструменты из исследований 2023–2025 годов.
- Содержит ссылки на статьи (Paper) и исходники (Code) для каждого метода.
- Идеален как для новичков, так и для учёных или разработчиков, работающих с LLM и агентами.
🔗 Ссылка: https://github.com/EvoAgentX/Awesome-Self-Evolving-Agents
👍16❤12🔥5
🚨Bloomberg — сотрудники OpenAI продают акции на $6 млрд SoftBank и другим инвесторам при оценке компании в $500 млрд
📌 Что известно:
- SoftBank и ко выкупают акции сотрудников на $6 млрд
- Ранее SoftBank уже купил $1 млрд акций при оценке $300 млрд
- Если сделка состоится — OpenAI станет самым дорогим стартапом в мире, обогнав SpaceX
💰 Финансовые перспективы:
- Выручка компании вырастет втрое: с $3.7 млрд в 2024 → до $12.7 млрд в 2025
- Всё это на фоне релиза GPT-5
🗣 Сэм Альтман:
> «Мы собираемся вложить триллионы в инфраструктуру ИИ. Дайте нам делать своё дело.»
🔥 Оценка в полтриллиона делает OpenAI главным игроком в новой технологической гонке.
📌 Источник
📌 Что известно:
- SoftBank и ко выкупают акции сотрудников на $6 млрд
- Ранее SoftBank уже купил $1 млрд акций при оценке $300 млрд
- Если сделка состоится — OpenAI станет самым дорогим стартапом в мире, обогнав SpaceX
💰 Финансовые перспективы:
- Выручка компании вырастет втрое: с $3.7 млрд в 2024 → до $12.7 млрд в 2025
- Всё это на фоне релиза GPT-5
🗣 Сэм Альтман:
> «Мы собираемся вложить триллионы в инфраструктуру ИИ. Дайте нам делать своё дело.»
🔥 Оценка в полтриллиона делает OpenAI главным игроком в новой технологической гонке.
📌 Источник
🥱24❤9🔥4👍2😱2
🚀 ART (Agent Reinforcement Trainer) — фреймворк для обучения агентных моделей с помощью RL.
✨ Что внутри:
- RULER — система вознаграждений, где LLM сам оценивает действия агента.
- MCP•RL — агенты учатся работать с инструментами и выполнять задачи без размеченных данных.
- GSPO / GRPO — новые стабильные алгоритмы RL, особенно полезные для MoE-моделей.
- Интеграции — vLLM, Unsloth, SkyPilot, W&B, Langfuse.
🔥 Кейсы:
ART уже обучает почтового агента (**ART•E**), где Qwen 2.5 14B обходит даже o3 на ряде задач.
⚙️ Установка:
👉 Репозиторий: github.com/OpenPipe/ART
@machinelearning_interview
✨ Что внутри:
- RULER — система вознаграждений, где LLM сам оценивает действия агента.
- MCP•RL — агенты учатся работать с инструментами и выполнять задачи без размеченных данных.
- GSPO / GRPO — новые стабильные алгоритмы RL, особенно полезные для MoE-моделей.
- Интеграции — vLLM, Unsloth, SkyPilot, W&B, Langfuse.
🔥 Кейсы:
ART уже обучает почтового агента (**ART•E**), где Qwen 2.5 14B обходит даже o3 на ряде задач.
⚙️ Установка:
pip install openpipe-art
👉 Репозиторий: github.com/OpenPipe/ART
@machinelearning_interview
👍11🔥4❤2🥰2
Forwarded from Machinelearning
Awesome-Self-Evolving-Agents - подборка материалов по теме оптимизации агентов в концепции саморазвивающихся систем, в которой собраны работы с 2023 по 2025 год по 3-м направлениям: оптимизация одиночного агента, оптимизация мультиагентных систем и методы их оценки.
Содержание
@ai_machinelearning_big_data
#AI #ML #LLM #Agents #AwesomeList #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍7🥰5
🚀 В репозитории rasbt/LLMs-from-scratch появился новый раздел: Gemma 3 from Scratch — PyTorch-реализация модели Gemma 3 (270M) полностью с нуля, выполненная в Jupyter-ноутбуке (~1.5 ГБ RAM).
Gemma 3 — одна из самых интресных open-weight моделей от Google.
Это отличный способ изучить архитектуру крупной LLM без абстракций.
Советую: если вы хотите глубже понять, как работают современные языковые модели — этот раздел будет идеальным обучающим материалом.
📌 Читать
Gemma 3 — одна из самых интресных open-weight моделей от Google.
Это отличный способ изучить архитектуру крупной LLM без абстракций.
Советую: если вы хотите глубже понять, как работают современные языковые модели — этот раздел будет идеальным обучающим материалом.
📌 Читать
🔥23❤8👍6
🔮 Prophet Arena — новый бенчмарк, созданный для проверки предсказательных способностей ИИ.
Он отвечает на вопрос: может ли модель действительно «увидеть будущее», связывая точки настоящего?
Особенности Prophet Arena:
- 🚫 Его невозможно «взломать». В отличие от классических бенчмарков, которые со временем насыщаются, здесь модели сталкиваются с реальными будущими событиями. Завтра нельзя заучить — если только не изобрели машину времени.
- 🔍 Он прозрачен и интерпретируем. Высокие результаты означают реальное предвидение, что напрямую конвертируется в инвестиционные преимущества.
👉 Подробнее: https://prophetarena.com
Он отвечает на вопрос: может ли модель действительно «увидеть будущее», связывая точки настоящего?
Особенности Prophet Arena:
- 🚫 Его невозможно «взломать». В отличие от классических бенчмарков, которые со временем насыщаются, здесь модели сталкиваются с реальными будущими событиями. Завтра нельзя заучить — если только не изобрели машину времени.
- 🔍 Он прозрачен и интерпретируем. Высокие результаты означают реальное предвидение, что напрямую конвертируется в инвестиционные преимущества.
👉 Подробнее: https://prophetarena.com
❤11🥰5🔥3🤣2
🇺🇸🇨🇳 Чип NVIDIA H20 стал разменной монетой в технологическом противостоянии
Графический процессор NVIDIA H20 оказался в центре торговых переговоров между США и Китаем. Этот чип, изначально созданный как безопасная для экспорта версия H100, теперь требует специальных лицензий и облагается 15% сбором с продаж.
Ситуация осложняется тем, что китайские регуляторы начали сомневаться в безопасности этих чипов, а местные компании активно переходят на отечественные аналоги. При этом H20 остается востребованным благодаря поддержке CUDA и высокой производительности в задачах обучения ИИ.
На фоне этих ограничений китайские производители вроде Huawei, Cambricon и Biren получают возможность укрепить свои позиции на рынке. Huawei уже предлагает полный стек решений для ИИ-вычислений, снижающий зависимость от западных технологий.
🔗 Подробнее в статье - *клик*
@machinelearning_interview
Графический процессор NVIDIA H20 оказался в центре торговых переговоров между США и Китаем. Этот чип, изначально созданный как безопасная для экспорта версия H100, теперь требует специальных лицензий и облагается 15% сбором с продаж.
Ситуация осложняется тем, что китайские регуляторы начали сомневаться в безопасности этих чипов, а местные компании активно переходят на отечественные аналоги. При этом H20 остается востребованным благодаря поддержке CUDA и высокой производительности в задачах обучения ИИ.
На фоне этих ограничений китайские производители вроде Huawei, Cambricon и Biren получают возможность укрепить свои позиции на рынке. Huawei уже предлагает полный стек решений для ИИ-вычислений, снижающий зависимость от западных технологий.
🔗 Подробнее в статье - *клик*
@machinelearning_interview
😱9👍5❤3🔥3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь можно не только генерировать изображения, но и редактировать их по команде: менять объекты, стиль, фон или даже текст прямо на картинке.
Что умеет:
- ✨ Редактировать смысл и детали — можно, например, повернуть объект, сменить цвет или стиль, не трогая остальное.
- 🔤 Менять текст на картинках — добавлять, убирать или редактировать надписи на китайском и английском, при этом сохраняются шрифт и стиль.
- 🏆 Лучшие результаты на тестах — модель показывает топ-уровень среди открытых решений.
Как работает:
Система сочетает понимание картинки (VL-модель) и точное управление структурой (VAE-кодировщик). Поэтому картинка сохраняет и смысл, и детали после правок.
Достаточно открыть Qwen Chat и выбрать режим *Image Editing*.
@ai_machinelearning_big_data
#qwen #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍8🔥1
🚀 ИИ придумывает безумные новые эксперименты в физике — и они реально работают
ИИ выходит за пределы привычного — теперь он придумывает эксперименты в физике, которые не только выглядят странно, но и реально работают.
🔭 На примере LIGO (детектор гравитационных волн):
AI предложил необычные, на первый взгляд хаотичные конструкции, которые повысили чувствительность установки на 10–15%. Для этой области — это огромный прорыв.
- Алгоритм предложил добавить трёхкилометровое кольцо для циркуляции света.
На первый взгляд это выглядело хаотично и бессмысленно, но решение оказалось крайне эффективным.
- Такой подход позволил бы повысить чувствительность детектора на 10–15% — огромный прогресс в этой области.
- В квантовой оптике ИИ нашёл новые способы для “entanglement swapping”, которые позже подтвердились экспериментально.
- Алгоритмы также
🌀 В квантовой оптике AI нашёл новые, более простые методы для *entanglement swapping* (перестановки запутанных частиц), которые затем подтвердили экспериментально.
⚛️ Помимо этого, AI открывает симметрии в больших массивах данных (например, симметрии Лоренца в экспериментах на Большом адронном коллайдере) и даже выводит новые формулы — в том числе для описания тёмной материи.
✨ ИИ активно помогает открывать фундаментальные законы природы.
📌 Подробнее
@machinelearning_interview
ИИ выходит за пределы привычного — теперь он придумывает эксперименты в физике, которые не только выглядят странно, но и реально работают.
🔭 На примере LIGO (детектор гравитационных волн):
AI предложил необычные, на первый взгляд хаотичные конструкции, которые повысили чувствительность установки на 10–15%. Для этой области — это огромный прорыв.
- Алгоритм предложил добавить трёхкилометровое кольцо для циркуляции света.
На первый взгляд это выглядело хаотично и бессмысленно, но решение оказалось крайне эффективным.
- Такой подход позволил бы повысить чувствительность детектора на 10–15% — огромный прогресс в этой области.
- В квантовой оптике ИИ нашёл новые способы для “entanglement swapping”, которые позже подтвердились экспериментально.
- Алгоритмы также
🌀 В квантовой оптике AI нашёл новые, более простые методы для *entanglement swapping* (перестановки запутанных частиц), которые затем подтвердили экспериментально.
⚛️ Помимо этого, AI открывает симметрии в больших массивах данных (например, симметрии Лоренца в экспериментах на Большом адронном коллайдере) и даже выводит новые формулы — в том числе для описания тёмной материи.
✨ ИИ активно помогает открывать фундаментальные законы природы.
📌 Подробнее
@machinelearning_interview
🔥25👍6❤4
🤖 Как нейросеть стала судьёй
Как заставить нейросеть не просто генерировать текст, а оценивать свою работу? Городские сервисы Яндекса нашли ответ! Они создали систему, которая генерирует описания для пулл-реквестов, а затем сама же оценивает, насколько хороши эти описания, используя русскоязычную LLM на 7 миллиардов параметров.
Никакой лишней разметки и асессоров — чистая математика. Как это работает и что получилось в итоге? Читаем в статье.
Реклама. ООО «ЯНДЕКС», ИНН 7736207543
Как заставить нейросеть не просто генерировать текст, а оценивать свою работу? Городские сервисы Яндекса нашли ответ! Они создали систему, которая генерирует описания для пулл-реквестов, а затем сама же оценивает, насколько хороши эти описания, используя русскоязычную LLM на 7 миллиардов параметров.
Никакой лишней разметки и асессоров — чистая математика. Как это работает и что получилось в итоге? Читаем в статье.
Реклама. ООО «ЯНДЕКС», ИНН 7736207543
😁8❤3👍2
🤖 Прокачай вайб-кодинг: Anthropic выкатили 17 бесплатных лекций по разработке с ИИ-агентами
💡 За 8 часов ты узнаешь:
— как правильно писать код с помощью LLM
— как создавать идеальные промпты
— как собрать собственного агента на Claude или другой модели
— и какие лучшие практики реально работают в проде
📚 Полный гайд по работе с ИИ — от основ до тонкостей.
@machinelearning_interview
💡 За 8 часов ты узнаешь:
— как правильно писать код с помощью LLM
— как создавать идеальные промпты
— как собрать собственного агента на Claude или другой модели
— и какие лучшие практики реально работают в проде
📚 Полный гайд по работе с ИИ — от основ до тонкостей.
@machinelearning_interview
👍11🔥8❤5😁3🤣2🙏1🕊1🥴1
🕹️ Новый мощный бенчмарк для ИИ — **HeroBench** 👏
Он проверяет, умеют ли LLM планировать длинные цепочки действий в реалистичном RPG-мире: выбрать снаряжение, собрать ресурсы, скрафтить предметы и победить монстра.
⚔️ Особенность: всё завязано на урон, резисты и здоровье, поэтому модели должны рассуждать о компромиссах, а не просто угадывать шаги.
🤖 Модели пишут Python-код со стратегией, симулятор исполняет его и оценивает прогресс.
🔑 Итоги:
- Grok-4 лидирует на сложных заданиях
- За ним GPT-5 и Gemini 2.5 Pro
- GPT-4.1 остаётся сильнейшей «обычной» моделью без спец. reasoning-режимов
- Ошибки чаще всего связаны с неверным выбором экипировки или кривым исполнением
📄 Paper: arxiv.org/abs/2508.12782
#AI #LLM #benchmark #gaming #reasoning
Он проверяет, умеют ли LLM планировать длинные цепочки действий в реалистичном RPG-мире: выбрать снаряжение, собрать ресурсы, скрафтить предметы и победить монстра.
⚔️ Особенность: всё завязано на урон, резисты и здоровье, поэтому модели должны рассуждать о компромиссах, а не просто угадывать шаги.
🤖 Модели пишут Python-код со стратегией, симулятор исполняет его и оценивает прогресс.
🔑 Итоги:
- Grok-4 лидирует на сложных заданиях
- За ним GPT-5 и Gemini 2.5 Pro
- GPT-4.1 остаётся сильнейшей «обычной» моделью без спец. reasoning-режимов
- Ошибки чаще всего связаны с неверным выбором экипировки или кривым исполнением
📄 Paper: arxiv.org/abs/2508.12782
#AI #LLM #benchmark #gaming #reasoning
❤13👍6🔥5
⚡ PyTorch представил **ZenFlow** — новый движок для обучения больших языковых моделей без «простоев» GPU.
В чём проблема?
Когда при обучении LLM данные и градиенты выгружаются на CPU (offloading), GPU часто простаивает: шина PCIe медленная, а вычисления на CPU ещё медленнее. В итоге шаг обучения может замедлиться в 10–15 раз.
Как решает ZenFlow:
- 🔄 Делит градиенты по важности: ключевые обновляются сразу на GPU, остальные — асинхронно на CPU.
- ⏱️ Все операции перекрываются: пока CPU считает и гоняет данные по PCIe, GPU продолжает работать.
- 🚀 Это снижает простои GPU на 85% и ускоряет обучение в среднем в 5 раз (по сравнению с DeepSpeed ZeRO-Offload).
- 📉 PCIe загружается в 2 раза меньше, а качество обучения моделей не падает.
Итог:
ZenFlow делает обучение LLM быстрее и эффективнее — теперь GPU работают почти без перерывов, а модели масштабируются без потери качества.
🟢 Подробности: https://pytorch.org/blog/zenflow-stall-free-offloading-engine-for-llm-training/
@machinelearning_interview
В чём проблема?
Когда при обучении LLM данные и градиенты выгружаются на CPU (offloading), GPU часто простаивает: шина PCIe медленная, а вычисления на CPU ещё медленнее. В итоге шаг обучения может замедлиться в 10–15 раз.
Как решает ZenFlow:
- 🔄 Делит градиенты по важности: ключевые обновляются сразу на GPU, остальные — асинхронно на CPU.
- ⏱️ Все операции перекрываются: пока CPU считает и гоняет данные по PCIe, GPU продолжает работать.
- 🚀 Это снижает простои GPU на 85% и ускоряет обучение в среднем в 5 раз (по сравнению с DeepSpeed ZeRO-Offload).
- 📉 PCIe загружается в 2 раза меньше, а качество обучения моделей не падает.
Итог:
ZenFlow делает обучение LLM быстрее и эффективнее — теперь GPU работают почти без перерывов, а модели масштабируются без потери качества.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24❤10👍3