This media is not supported in your browser
VIEW IN TELEGRAM
🚀 У N + 1 вышел подкаст с Николаем Савушкиным, инженером рекомендательных систем Яндекса, который рассказал о сложностях и прорывах в отрасли и о новом поколении рекомендательных трансформеров.
Учёным не хватает крупных рекомендательных датасетов — компании редко делятся такими данными. Поэтому Яндекс опубликовал самый большой, по их данным, опенсорсный датасет, с помощью которого можно вести свои исследования.
Учёным не хватает крупных рекомендательных датасетов — компании редко делятся такими данными. Поэтому Яндекс опубликовал самый большой, по их данным, опенсорсный датасет, с помощью которого можно вести свои исследования.
❤7
🦙 Llama Cookbook — официальный гайд по работе с моделями Llama. Meta представила обновлённый репозиторий с практическими руководствами по использованию своих языковых моделей. Здесь собраны лучшие рецепты для inference, тонкой настройки и реальных кейсов — от анализа исследовательских работ до интеграции с WhatsApp.
Наибольший интерес вызывает раздел про работу с 5M контекстом в Llama 4 Scout и создание ментальных карт персонажей из книг с помощью Llama 4 Maverick. Репозиторий недавно пережил рефакторинг, объединив ранее разрозненные материалы в единую структуру.
🤖 GitHub
Наибольший интерес вызывает раздел про работу с 5M контекстом в Llama 4 Scout и создание ментальных карт персонажей из книг с помощью Llama 4 Maverick. Репозиторий недавно пережил рефакторинг, объединив ранее разрозненные материалы в единую структуру.
🤖 GitHub
👍11❤3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Из окон офисов VK — самые красивые закаты. А в самих офисах обитают самые любимые коллеги!
Ребята не только делают сервисы VK быстрее и удобнее, но и любят делиться знаниями. Совсем скоро они проведут открытый Java AI-митап и расскажут о том, как мы масштабируем процессы, а ещё поделятся фишками, которые стоят за сервисами VK.
Откликайтесь, если откликается!
Ребята не только делают сервисы VK быстрее и удобнее, но и любят делиться знаниями. Совсем скоро они проведут открытый Java AI-митап и расскажут о том, как мы масштабируем процессы, а ещё поделятся фишками, которые стоят за сервисами VK.
Откликайтесь, если откликается!
🖕8❤1👍1
Forwarded from Machinelearning
Мaitrix Org разработали WM-ABench, бенчмарк для оценки VLM в качестве так называемых «моделей мира». Идея проста: проверить, насколько хорошо топовые модели способны не просто распознавать картинки, а понимать окружающую действительность и предсказывать ее изменения.
Создатели, опираясь на когнитивную науку, создали фреймворк, который тестирует 15 самых популярных моделей по 23 параметрам, разделяя процесс на 2 ключевых этапа: восприятие и прогнозирование.
В основе бенчмарка - огромный датасет из более чем 100 тысяч примеров, сгенерированных в 6 различных симуляторах, от ThreeDWorld и Physion до Carla.
Чтобы модели не искали легких путей и не полагались на поверхностные совпадения, в тест добавили «сложные негативы» - контрфактические состояния, которые заставляют систему действительно анализировать происходящее.
Весь процесс был разделен на оценку восприятия (распознавание объектов, пространства, времени, движения) и прогнозирования (симуляция физики, транзитивный и композиционный вывод). Для калибровки сложности задач были установлены базовые показатели, основанные на результатах людей.
С простым визуальным восприятием, то есть с определение цвета или формы, все модели справляются отлично. Однако когда дело доходит до трехмерного пространственного мышления, динамики движения или временных последовательностей, начинаются серьезные проблемы.
Выяснилась и другая любопытная деталь: VLM склонны «спутывать» физические понятия. Например, если в сцене изменить только цвет объекта, модель может внезапно ошибиться в оценке его размера или скорости.
Оказалось, что цвет и форма являются самыми влиятельными атрибутами, которые искажают восприятие других, не связанных с ними характеристик.
Точное восприятие мира совершенно не гарантирует точного прогноза.
Исследование показало, что даже при идеально верном распознавании текущего состояния сцены модели проваливают предсказание физических взаимодействий.
Разрыв с человеческими способностями явный: в задачах на транзитивный вывод он достигает 46%, а композиционный вывод выполняется на уровне случайного угадывания.
У современных VLM отсутствуют базовые знания физики, необходимые для симуляции даже простейших событий. Они видят мир, но не понимают, по каким законам он живет.
@ai_machinelearning_big_data
#AI #ML #VLM #Benchmark #Maitrix
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
📘 Один из самых захватывающих научных обзоров за последнее время — 120 страниц про ИИ в науке!
Это первое масштабное исследование, охватывающее весь цикл научной работы:
🧠 формулировка гипотез
🔬 автоматизация экспериментов
📊 анализ данных
✍️ генерация научных текстов
🤖 и даже управление исследовательским процессом
Лето выдалось жарким для #AI4Science: в сообществе alphaXiv уже 1000+ человек. И эта работа — отличная точка входа в то, как ИИ реально меняет науку.
📄 Читать статью:
https://arxiv.org/abs/2507.01903
🌐 Обсуждение здесь:
https://alphaxiv.org/channels/towards-automated-research/6822973d801dc5932300da7f
@machinelearning_books - ml книги
Это первое масштабное исследование, охватывающее весь цикл научной работы:
🧠 формулировка гипотез
🔬 автоматизация экспериментов
📊 анализ данных
✍️ генерация научных текстов
🤖 и даже управление исследовательским процессом
Лето выдалось жарким для #AI4Science: в сообществе alphaXiv уже 1000+ человек. И эта работа — отличная точка входа в то, как ИИ реально меняет науку.
📄 Читать статью:
https://arxiv.org/abs/2507.01903
🌐 Обсуждение здесь:
https://alphaxiv.org/channels/towards-automated-research/6822973d801dc5932300da7f
@machinelearning_books - ml книги
❤8👍2🔥1
🧠 NVIDIA: будущее ИИ-агентов — не в LLM, а в SLM
Большие языковые модели (LLM) — мощные, но громоздкие.
Для агентных систем, где ИИ выполняет простые задачи снова и снова, это — перебор.
🔍 В новом исследовании NVIDIA делает смелое заявление:
маленькие языковые модели (SLM) — это:
✅ Достаточно умно
✅ Намного дешевле
✅ Идеально подходит для агентных систем
Почему SLM — лучше для ИИ-агентов:
⚡ Меньше задержка, меньше ресурсов
📱 Работают на устройствах (в том числе offline)
🔁 Легко и быстро обучаются под конкретную задачу
🧩 Отлично сочетаются в модульных системах: каждый агент — своя модель
Что предлагает NVIDIA:
1. Ставить на SLM для снижения стоимости и ускорения работы
2. Комбинировать модели: использовать LLM только там, где без них не обойтись
3. Проектировать гибкие системы, где каждый агент делает одну задачу, но хорошо
4. Дообучать SLM под узкие роли — это быстро и эффективно
💡 SLM — это не упрощение, а оптимизация.
Умные, быстрые и дешёвые агенты — вот куда движется AI-индустрия.
📄 Читай полное исследование: research.nvidia.com/labs/lpr/slm-agents
Большие языковые модели (LLM) — мощные, но громоздкие.
Для агентных систем, где ИИ выполняет простые задачи снова и снова, это — перебор.
🔍 В новом исследовании NVIDIA делает смелое заявление:
маленькие языковые модели (SLM) — это:
✅ Достаточно умно
✅ Намного дешевле
✅ Идеально подходит для агентных систем
Почему SLM — лучше для ИИ-агентов:
⚡ Меньше задержка, меньше ресурсов
📱 Работают на устройствах (в том числе offline)
🔁 Легко и быстро обучаются под конкретную задачу
🧩 Отлично сочетаются в модульных системах: каждый агент — своя модель
Что предлагает NVIDIA:
1. Ставить на SLM для снижения стоимости и ускорения работы
2. Комбинировать модели: использовать LLM только там, где без них не обойтись
3. Проектировать гибкие системы, где каждый агент делает одну задачу, но хорошо
4. Дообучать SLM под узкие роли — это быстро и эффективно
💡 SLM — это не упрощение, а оптимизация.
Умные, быстрые и дешёвые агенты — вот куда движется AI-индустрия.
📄 Читай полное исследование: research.nvidia.com/labs/lpr/slm-agents
❤7👍6🥱2🔥1
🤩 Как упростить ML-стек и при этом ещё и поднять бизнес-метрики?
Именно об этом в своей новой статье рассказывают инженеры Яндекс Лавки. Они выкинули из рекомендаций целый этап — кандидатогенерацию — и умудрились за счёт этого нарастить выручку и discovery.
Внутри статьи — детальный разбор:
⚡ Как они разогнали C++ код в питонячей обёртке, чтобы скорить тысячи товаров в реальном времени.
⚡ Почему пришлось отказаться от части фичей и как это повлияло на качество.
⚡ Как упрощение архитектуры в итоге всё-таки привело к росту метрик.
Отличный пример того, как может окупиться смелость в инженерных решениях.
Именно об этом в своей новой статье рассказывают инженеры Яндекс Лавки. Они выкинули из рекомендаций целый этап — кандидатогенерацию — и умудрились за счёт этого нарастить выручку и discovery.
Внутри статьи — детальный разбор:
⚡ Как они разогнали C++ код в питонячей обёртке, чтобы скорить тысячи товаров в реальном времени.
⚡ Почему пришлось отказаться от части фичей и как это повлияло на качество.
⚡ Как упрощение архитектуры в итоге всё-таки привело к росту метрик.
Отличный пример того, как может окупиться смелость в инженерных решениях.
❤4
Forwarded from Machinelearning
Идея «Манхэттенского проекта для ИИ», витавшая последние месяцы на самом высоком уровне в США, кажется, начинает обретать очертания. Но за громкими сравнениями обычно теряется суть: а что это значит на практике?
Аналитики из Epoch AI решили посчитать, какой вычислительный монстр может появиться, если американское правительство консолидирует ресурсы частного сектора и вложит в проект долю ВВП, сопоставимую с пиком лунной программы.
Epoch AI - некоммерческий исследовательский институт, который изучает траекторию развития искусственного интеллекта, анализирует тренды в вычислениях, данных и алгоритмах, чтобы прогнозировать влияние ИИ на экономику и общество.
Расчеты показывают, что к концу 2027 года такой проект мог бы обеспечить тренировочный прогон модели с вычислительной мощностью порядка 2 × 10²⁹ FLOP.
Чтобы понять масштаб: это примерно в 10 000 раз больше, чем потребовалось для обучения GPT-4. По сути, это рывок, который по текущим прогнозам должен был случиться на несколько лет позже.
Финансирование на уровне программы «Аполлон» (около 0.8% ВВП или 244 млрд. долларов сегодня) позволило бы закупить и объединить в один кластер эквивалент 27 миллионов NVIDIA H100. Эта цифра, кстати, совпадает с экстраполяцией текущих доходов NVIDIA от продаж в США.
27 миллионов GPU потребуют около 7.4 ГВт мощности - это больше, чем потребляет весь город Нью-Йорк. Оказывается, это не главная преграда. Аналитики говорят, что к 2027 году в США и так планируется ввод 8.8 ГВт за счет новых газовых электростанций, значительная часть которых уже предназначена для дата-центров.
При наличии политической воли и используя законодательные инструменты, правительство США сможет сконцентрировать эти мощности в одном месте, так что энергия не станет узким местом.
Геополитическая напряженность, например, вокруг Тайваня, может сорвать поставки чипов. Кроме того, нельзя просто так взять и увеличить масштаб в тысячи раз. Масштабирование требует времени на отладочные прогоны и эксперименты, но это скорее инженерное, а не ресурсное ограничение.
Тем не менее, анализ показывает: при должной координации и инвестициях технологический скачок в области ИИ может произойти гораздо быстрее, чем мы думаем. И это уже вполне просчитываемая возможность.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🤔2
🚀Kafka must-have инструмент для современных проектов MLOps!
Присоединяйся к вебинару и узнай, как настроить Kafka для обработки потоковых данных и интегрировать её в MLOps-проекты. Вебинар проходит в рамках подписки на курсы OTUS, которая даёт возможность приобрести 3 курса по цене одного.
🔑 Что будет:
— Практическое и теоретическое руководство по настройке Kafka в Docker и взаимодействию с ней через Python.
— Обзор инструментов для работы с Kafka: поднятие UI-интерфейса и управление потоками данных.
— Примеры использования Kafka для связи микросервисов и обзор ключевых функций, делающих её незаменимой брокером сообщений.
— Как использовать Kafka в MLOps: сбор данных для ML-моделей, мониторинг их работы и интеграция предсказаний в реальном времени.
🚀Регистрация по ссылке - https://otus.pw/18rU/
Подробнее о подписке OTUS - https://otus.pw/SMQu/
👉 Запишись сейчас, количество мест ограничено!
Присоединяйся к вебинару и узнай, как настроить Kafka для обработки потоковых данных и интегрировать её в MLOps-проекты. Вебинар проходит в рамках подписки на курсы OTUS, которая даёт возможность приобрести 3 курса по цене одного.
🔑 Что будет:
— Практическое и теоретическое руководство по настройке Kafka в Docker и взаимодействию с ней через Python.
— Обзор инструментов для работы с Kafka: поднятие UI-интерфейса и управление потоками данных.
— Примеры использования Kafka для связи микросервисов и обзор ключевых функций, делающих её незаменимой брокером сообщений.
— Как использовать Kafka в MLOps: сбор данных для ML-моделей, мониторинг их работы и интеграция предсказаний в реальном времени.
🚀Регистрация по ссылке - https://otus.pw/18rU/
Подробнее о подписке OTUS - https://otus.pw/SMQu/
👉 Запишись сейчас, количество мест ограничено!
❤2