📘 Один из самых захватывающих научных обзоров за последнее время — 120 страниц про ИИ в науке!
Это первое масштабное исследование, охватывающее весь цикл научной работы:
🧠 формулировка гипотез
🔬 автоматизация экспериментов
📊 анализ данных
✍️ генерация научных текстов
🤖 и даже управление исследовательским процессом
Лето выдалось жарким для #AI4Science: в сообществе alphaXiv уже 1000+ человек. И эта работа — отличная точка входа в то, как ИИ реально меняет науку.
📄 Читать статью:
https://arxiv.org/abs/2507.01903
🌐 Обсуждение здесь:
https://alphaxiv.org/channels/towards-automated-research/6822973d801dc5932300da7f
@machinelearning_books - ml книги
Это первое масштабное исследование, охватывающее весь цикл научной работы:
🧠 формулировка гипотез
🔬 автоматизация экспериментов
📊 анализ данных
✍️ генерация научных текстов
🤖 и даже управление исследовательским процессом
Лето выдалось жарким для #AI4Science: в сообществе alphaXiv уже 1000+ человек. И эта работа — отличная точка входа в то, как ИИ реально меняет науку.
📄 Читать статью:
https://arxiv.org/abs/2507.01903
🌐 Обсуждение здесь:
https://alphaxiv.org/channels/towards-automated-research/6822973d801dc5932300da7f
@machinelearning_books - ml книги
❤8👍2🔥1
🧠 NVIDIA: будущее ИИ-агентов — не в LLM, а в SLM
Большие языковые модели (LLM) — мощные, но громоздкие.
Для агентных систем, где ИИ выполняет простые задачи снова и снова, это — перебор.
🔍 В новом исследовании NVIDIA делает смелое заявление:
маленькие языковые модели (SLM) — это:
✅ Достаточно умно
✅ Намного дешевле
✅ Идеально подходит для агентных систем
Почему SLM — лучше для ИИ-агентов:
⚡ Меньше задержка, меньше ресурсов
📱 Работают на устройствах (в том числе offline)
🔁 Легко и быстро обучаются под конкретную задачу
🧩 Отлично сочетаются в модульных системах: каждый агент — своя модель
Что предлагает NVIDIA:
1. Ставить на SLM для снижения стоимости и ускорения работы
2. Комбинировать модели: использовать LLM только там, где без них не обойтись
3. Проектировать гибкие системы, где каждый агент делает одну задачу, но хорошо
4. Дообучать SLM под узкие роли — это быстро и эффективно
💡 SLM — это не упрощение, а оптимизация.
Умные, быстрые и дешёвые агенты — вот куда движется AI-индустрия.
📄 Читай полное исследование: research.nvidia.com/labs/lpr/slm-agents
Большие языковые модели (LLM) — мощные, но громоздкие.
Для агентных систем, где ИИ выполняет простые задачи снова и снова, это — перебор.
🔍 В новом исследовании NVIDIA делает смелое заявление:
маленькие языковые модели (SLM) — это:
✅ Достаточно умно
✅ Намного дешевле
✅ Идеально подходит для агентных систем
Почему SLM — лучше для ИИ-агентов:
⚡ Меньше задержка, меньше ресурсов
📱 Работают на устройствах (в том числе offline)
🔁 Легко и быстро обучаются под конкретную задачу
🧩 Отлично сочетаются в модульных системах: каждый агент — своя модель
Что предлагает NVIDIA:
1. Ставить на SLM для снижения стоимости и ускорения работы
2. Комбинировать модели: использовать LLM только там, где без них не обойтись
3. Проектировать гибкие системы, где каждый агент делает одну задачу, но хорошо
4. Дообучать SLM под узкие роли — это быстро и эффективно
💡 SLM — это не упрощение, а оптимизация.
Умные, быстрые и дешёвые агенты — вот куда движется AI-индустрия.
📄 Читай полное исследование: research.nvidia.com/labs/lpr/slm-agents
❤7👍6🥱2🔥1
🤩 Как упростить ML-стек и при этом ещё и поднять бизнес-метрики?
Именно об этом в своей новой статье рассказывают инженеры Яндекс Лавки. Они выкинули из рекомендаций целый этап — кандидатогенерацию — и умудрились за счёт этого нарастить выручку и discovery.
Внутри статьи — детальный разбор:
⚡ Как они разогнали C++ код в питонячей обёртке, чтобы скорить тысячи товаров в реальном времени.
⚡ Почему пришлось отказаться от части фичей и как это повлияло на качество.
⚡ Как упрощение архитектуры в итоге всё-таки привело к росту метрик.
Отличный пример того, как может окупиться смелость в инженерных решениях.
Именно об этом в своей новой статье рассказывают инженеры Яндекс Лавки. Они выкинули из рекомендаций целый этап — кандидатогенерацию — и умудрились за счёт этого нарастить выручку и discovery.
Внутри статьи — детальный разбор:
⚡ Как они разогнали C++ код в питонячей обёртке, чтобы скорить тысячи товаров в реальном времени.
⚡ Почему пришлось отказаться от части фичей и как это повлияло на качество.
⚡ Как упрощение архитектуры в итоге всё-таки привело к росту метрик.
Отличный пример того, как может окупиться смелость в инженерных решениях.
❤4
Forwarded from Machinelearning
Идея «Манхэттенского проекта для ИИ», витавшая последние месяцы на самом высоком уровне в США, кажется, начинает обретать очертания. Но за громкими сравнениями обычно теряется суть: а что это значит на практике?
Аналитики из Epoch AI решили посчитать, какой вычислительный монстр может появиться, если американское правительство консолидирует ресурсы частного сектора и вложит в проект долю ВВП, сопоставимую с пиком лунной программы.
Epoch AI - некоммерческий исследовательский институт, который изучает траекторию развития искусственного интеллекта, анализирует тренды в вычислениях, данных и алгоритмах, чтобы прогнозировать влияние ИИ на экономику и общество.
Расчеты показывают, что к концу 2027 года такой проект мог бы обеспечить тренировочный прогон модели с вычислительной мощностью порядка 2 × 10²⁹ FLOP.
Чтобы понять масштаб: это примерно в 10 000 раз больше, чем потребовалось для обучения GPT-4. По сути, это рывок, который по текущим прогнозам должен был случиться на несколько лет позже.
Финансирование на уровне программы «Аполлон» (около 0.8% ВВП или 244 млрд. долларов сегодня) позволило бы закупить и объединить в один кластер эквивалент 27 миллионов NVIDIA H100. Эта цифра, кстати, совпадает с экстраполяцией текущих доходов NVIDIA от продаж в США.
27 миллионов GPU потребуют около 7.4 ГВт мощности - это больше, чем потребляет весь город Нью-Йорк. Оказывается, это не главная преграда. Аналитики говорят, что к 2027 году в США и так планируется ввод 8.8 ГВт за счет новых газовых электростанций, значительная часть которых уже предназначена для дата-центров.
При наличии политической воли и используя законодательные инструменты, правительство США сможет сконцентрировать эти мощности в одном месте, так что энергия не станет узким местом.
Геополитическая напряженность, например, вокруг Тайваня, может сорвать поставки чипов. Кроме того, нельзя просто так взять и увеличить масштаб в тысячи раз. Масштабирование требует времени на отладочные прогоны и эксперименты, но это скорее инженерное, а не ресурсное ограничение.
Тем не менее, анализ показывает: при должной координации и инвестициях технологический скачок в области ИИ может произойти гораздо быстрее, чем мы думаем. И это уже вполне просчитываемая возможность.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🤔2
🚀Kafka must-have инструмент для современных проектов MLOps!
Присоединяйся к вебинару и узнай, как настроить Kafka для обработки потоковых данных и интегрировать её в MLOps-проекты. Вебинар проходит в рамках подписки на курсы OTUS, которая даёт возможность приобрести 3 курса по цене одного.
🔑 Что будет:
— Практическое и теоретическое руководство по настройке Kafka в Docker и взаимодействию с ней через Python.
— Обзор инструментов для работы с Kafka: поднятие UI-интерфейса и управление потоками данных.
— Примеры использования Kafka для связи микросервисов и обзор ключевых функций, делающих её незаменимой брокером сообщений.
— Как использовать Kafka в MLOps: сбор данных для ML-моделей, мониторинг их работы и интеграция предсказаний в реальном времени.
🚀Регистрация по ссылке - https://otus.pw/18rU/
Подробнее о подписке OTUS - https://otus.pw/SMQu/
👉 Запишись сейчас, количество мест ограничено!
Присоединяйся к вебинару и узнай, как настроить Kafka для обработки потоковых данных и интегрировать её в MLOps-проекты. Вебинар проходит в рамках подписки на курсы OTUS, которая даёт возможность приобрести 3 курса по цене одного.
🔑 Что будет:
— Практическое и теоретическое руководство по настройке Kafka в Docker и взаимодействию с ней через Python.
— Обзор инструментов для работы с Kafka: поднятие UI-интерфейса и управление потоками данных.
— Примеры использования Kafka для связи микросервисов и обзор ключевых функций, делающих её незаменимой брокером сообщений.
— Как использовать Kafka в MLOps: сбор данных для ML-моделей, мониторинг их работы и интеграция предсказаний в реальном времени.
🚀Регистрация по ссылке - https://otus.pw/18rU/
Подробнее о подписке OTUS - https://otus.pw/SMQu/
👉 Запишись сейчас, количество мест ограничено!
❤2
🧠🔥 LLM vs Сложные Решения: как думает ИИ, когда решение не лежит на поверхности
Авторы статьи изучают, что происходит, когда Large Language Models сталкиваются с трудными задачами, где простое извлечение паттернов не срабатывает.
🔍 Ключевые находки:
– В сложных задачах LLM реже полагается на простые статистики
– Модель начинает строить более глубокие логические цепочки
– Даже без обучения на конкретной задаче, LLM может *эмерджентно* развивать цепочку рассуждений
– Использование нескольких «мысленных шагов» помогает избежать ошибок, типичных для простых запросов
🤖 Авторы анализируют поведение модели на задачах, требующих нетривиального вывода — включая аналогии, причинно-следственные связи и длинные логические цепочки.
🧩 Вывод:
LLM способны на интуитивную адаптацию стратегии мышления, если задача «ломает» привычные шаблоны. Это открывает путь к обучению моделей с более универсальными когнитивными способностями.
📄 Чтение оригинала: https://alphaxiv.org/abs/2506.24119
Авторы статьи изучают, что происходит, когда Large Language Models сталкиваются с трудными задачами, где простое извлечение паттернов не срабатывает.
🔍 Ключевые находки:
– В сложных задачах LLM реже полагается на простые статистики
– Модель начинает строить более глубокие логические цепочки
– Даже без обучения на конкретной задаче, LLM может *эмерджентно* развивать цепочку рассуждений
– Использование нескольких «мысленных шагов» помогает избежать ошибок, типичных для простых запросов
🤖 Авторы анализируют поведение модели на задачах, требующих нетривиального вывода — включая аналогии, причинно-следственные связи и длинные логические цепочки.
🧩 Вывод:
LLM способны на интуитивную адаптацию стратегии мышления, если задача «ломает» привычные шаблоны. Это открывает путь к обучению моделей с более универсальными когнитивными способностями.
📄 Чтение оригинала: https://alphaxiv.org/abs/2506.24119
alphaXiv
SPIRAL: Self-Play on Zero-Sum Games Incentivizes Reasoning via Multi-Agent Multi-Turn Reinforcement Learning | alphaXiv
View recent discussion. Abstract: Recent advances in reinforcement learning have shown that language models can develop sophisticated reasoning through training on tasks with verifiable rewards, but these approaches depend on human-curated problem-answer…
❤6👍1🤔1
Forwarded from Machinelearning
Новое исследование Oxford и King’s College London поставило перед ИИ-моделями сложную задачу: сыграть тысячи раундов эволюционной версии "Дилеммы заключённого", где важно не просто ответить правильно, а выстроить стратегию в долгую.
В эксперименте участвовали флагманские модели от OpenAI, Google и Anthropic. Вот как они себя проявили:
🔹 Google Gemini — хладнокровный и расчётливый
Не доверяет, первым атакует, наказывает за предательство. Стратег чистой воды.
🔹 OpenAI GPT — слишком добрый
Склонен к сотрудничеству даже тогда, когда это невыгодно. Хорош в мире, уязвим в конфликте.
🔹 Anthropic Claude — гибкий и адаптивный
Умеет прощать, но делает выводы на основе опыта коммуникации. Меняет поведение со временем и часто приходит к победе.
Исследователи проанализировали 32,000 решений, и выяснили:
эти модели не просто "угадывают" слова — они делают выводы, оценивают риск, строят гипотезы о поведении противника и последовательно придерживаются своей стратегии.
Общее в поведении:
1. Модели справляются с новыми, непредсказуемыми оппонентами
2. Демонстрируют разные стратегии, несмотря на общий обучающий набор данных
3. Объясняют свои действия — в некоторых случаях с вероятностным анализом, ссылаясь на поведение соперников
Еще большинство моделей выбирает кооперацию — особенно против предсказуемых и простых стратегий соперника.
Каждая модель показала уникальный стиль поведения — почти как характер.
Если приводить аналогию с реальными личностями:
- Gemini = Генри Киссинджер
- OpenAI = Вудро Вильсон
- Anthropic = Джордж Буш-старший
Современные LLM практически ведут себя как полноценные стратеги: формулируют цели, оценивают оппонентов и формируют осторожные, но устойчивые пути к победе.
@ai_machinelearning_big_data
#AI #ML #MMLM #research
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥2