На днях состоялась первая встреча AI VK & Pro — ивент по рекомендательным системам
Собралась буквально вся RecSys тусовка: много знакомых лиц из индустрии. Атмосфера в двух словах: глитч, стиль.
Судя по фоткам, нетворкинг процветает. На ивенте поделились взглядом на будущее рекомендательных систем, рассказали про технологии глубокого понимания контента и про единую рекомендательную платформу для всех продуктов VK.
🚀Весь вечер были DJ-сеты, разные активности и даже турнир по су-е-фа.
Собралась буквально вся RecSys тусовка: много знакомых лиц из индустрии. Атмосфера в двух словах: глитч, стиль.
Судя по фоткам, нетворкинг процветает. На ивенте поделились взглядом на будущее рекомендательных систем, рассказали про технологии глубокого понимания контента и про единую рекомендательную платформу для всех продуктов VK.
🚀Весь вечер были DJ-сеты, разные активности и даже турнир по су-е-фа.
👍3❤2🥰2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀Claudable!
Claudable — это мощный конструктор веб-приложений на базе Next.js, который позволяет создавать и развертывать приложения, просто описывая их идею. Используя возможности AI-агента Claude Code, вы мгновенно получаете рабочий код и живой превью вашего приложения.
🚀 Основные моменты:
- Генерация кода на основе естественного языка
- Мгновенный просмотр изменений с функцией горячей перезагрузки
- Легкое развертывание на Vercel с одним кликом
- Интеграция с Supabase для работы с базами данных
- Автоматическое обнаружение и исправление ошибок
📌 GitHub: https://github.com/opactorai/Claudable
Claudable — это мощный конструктор веб-приложений на базе Next.js, который позволяет создавать и развертывать приложения, просто описывая их идею. Используя возможности AI-агента Claude Code, вы мгновенно получаете рабочий код и живой превью вашего приложения.
🚀 Основные моменты:
- Генерация кода на основе естественного языка
- Мгновенный просмотр изменений с функцией горячей перезагрузки
- Легкое развертывание на Vercel с одним кликом
- Интеграция с Supabase для работы с базами данных
- Автоматическое обнаружение и исправление ошибок
📌 GitHub: https://github.com/opactorai/Claudable
❤8👍2🔥1🤔1
📊 Что внутри:
- 40 млрд обезличенных взаимодействий
- 20 млн единиц контента
- 10 млн пользователей
- период: январь–июнь 2025
- данные: лайки, дизлайки, шеры, время просмотра, реакции, контекст воспроизведения
- Гибко настраивать выборку по объёму
- Определять способ отбора — случайный или по популярности
- Подгонять датасет под доступные вычислительные ресурсы
Такой ресурс открывает новые горизонты для инженеров и исследователей по всему миру и поднимает планку в развитии рекомендательных технологий.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
AI VK Hub
Датасет VK-LSVD (Large Short-Video Dataset) для развития рекомендательных систем
Сейчас в открытом доступе не так много больших открытых датасетов, на базе которых инженеры и ученые могут обучать и оценивать модели. Для построения точных рекомендательных…
Сейчас в открытом доступе не так много больших открытых датасетов, на базе которых инженеры и ученые могут обучать и оценивать модели. Для построения точных рекомендательных…
❤4🔥2🥰1
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Разработкой занимается новое подразделение компании Марка Цукерберга Superintelligence Labs. Модель, которую некоторые внутри компании называют Llama 4.5, должна исправить недостатки предыдущих версий: слабую производительность в кодинге и логических рассуждениях. Параллельно команда работает над исправлением ошибок в уже выпущенных версиях Llama 4 и фоном допиливает флагманскую модель "Behemoth".
businessinsider.com
FastVLM - линейка ультрабыстрых VL-моделей с гибридным энкодером FastViTHD, который значительно сокращает количество визуальных токенов и ускоряет их обработку. В сравнении с LLaVA-1.5, FastVLM показала в 3.2 раза более быстрый TTFT при сопоставимой производительности, а с LLaVa-OneVision модель достигает аналогичных результатов на бенчмарках, используя в 3.4 раза меньший энкодер.
В семейство входят три модели размером 500 миллионов, 1.5 миллиарда и 7 миллиардов параметров. Все они уже доступны на Hugging Face для некоммерческого использования.
huggingface.co
Обновление принесло значительные улучшения в качестве движений, визуальной детализации, согласованности и точности исполнения текстовых запросов. Новая функция Agent позволяет создать 5–30-секундный ролик, просто загрузив одно фото.
Генерация видео в разрешении 360p занимает 5 секунд, а 1080p - около минуты. До 1 сентября 2025 года доступ к V5 предоставляется бесплатно. Модель работает через веб-интерфейс, мобильные приложения и API.
Pixverse в сети X
Интеграция позволяет разработчикам генерировать и рефакторить код, а также общаться с ИИ, не покидая редактор. Изменения применяются в реальном времени и могут быть проверены в интерфейсе, похожем на pull-request.
Gemini работает через открытый протокол Agent Client Protocol, созданный Zed для связи ИИ-агентов со средами разработки. Zed основан на Rust и позиционируется как открытая альтернатива Microsoft VS Code.
developers.googleblog.com
Исследователи из Университета Ваасы предложили дешевую и экологичную альтернативу электронным датчикам для контроля состояния продуктов. Технология основана на использовании функциональных чернил, которые меняют цвет при изменении температуры или влажности, а сверточные нейронные сети с высокой точностью распознают даже малейшие изменения, которые не улавливают традиционные методы машинного зрения. Это решает проблему своевременного обнаружения порчи или повреждений.
Такие индикаторы можно наносить прямо на упаковку вместе с обычными этикетками, что почти не увеличивает стоимость. Технология может найти применение в пищевой промышленности и в фармацевтике для отслеживания условий хранения продукции.
interestingengineering.com
xAI обвиняет Xuechen Li в краже технологий Grok и попытке передать их OpenAI.
Факты:
- Продал акции xAI на $7 млн и уволился.
- Скопировал секретные файлы Grok на личное хранилище.
- Удалял логи и признался письменно.
xAI требует: вернуть и удалить данные, запретить Li работать над ИИ в OpenAI и выплатить компенсацию.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🔥2
🚨 Новый отчёт от Epoch AI: GPT-5 значительно превосходит GPT-4
Хотя запуск GPT-5 прошёл тише, чем громкий дебют GPT-4, цифры показывают обратное — это снова огромный скачок, как когда-то между GPT-3 и GPT-4.
📊 Рост по ключевым бенчмаркам:
🧠 +67% на HumanEval
📚 +80% на Mock AIME
📈 +75% на продвинутой математике (Level 5 MATH)
Итог: GPT-5 подтверждает тренд — каждое поколение приносит качественный прорыв в возможностях моделей.
https://epoch.ai/data-insights/gpt-capabilities-progress
Хотя запуск GPT-5 прошёл тише, чем громкий дебют GPT-4, цифры показывают обратное — это снова огромный скачок, как когда-то между GPT-3 и GPT-4.
📊 Рост по ключевым бенчмаркам:
🧠 +67% на HumanEval
📚 +80% на Mock AIME
📈 +75% на продвинутой математике (Level 5 MATH)
Итог: GPT-5 подтверждает тренд — каждое поколение приносит качественный прорыв в возможностях моделей.
https://epoch.ai/data-insights/gpt-capabilities-progress
❤7👍6👎2👏1
Forwarded from Machinelearning
💡 Исследователи из ByteDance и Stanford предложили новый метод для генерации длинных видео — Mixture of Contexts.
🔑 В чём проблема:
Когда видео становится длинным, внимание модели сильно «раздувается»: растёт стоимость вычислений, модель теряет детали на генерациях, забывает персонажей и «дрейфует».
⚡ Чем интересен Mixture of Contexts:
- Видео разбивается на куски (кадры, шоты, подписи).
- Каждый запрос выбирает только нужные чанки, вместо того чтобы учитывать всю историю.
- Для этого используется простая оценка релевантности: сравнение признаков чанков с текущим запросом.
- Обязательно учитываются два «якоря»: полный текстовый промпт и локальный шот для деталей видео.
- Causal mask блокирует внимание к будущим кадрам, чтобы не было зацикливаний.
- Дальше применяется Flash Attention только к выбранным чанкам — вычисления растут не с длиной всего видео, а только с полезным контекстом.
📊 Результаты:
- В 7 раз меньше FLOPs
- В 2.2 раза быстрее работа
- На длинных сценах (180k токенов) отсекается 85% ненужного внимания
🎥 Итог:
- Короткие клипы сохраняют качество
- Длинные сцены становятся более плавными, а персонажи — стабильными
- Время генерации заметно сокращается
Главное: модель учится сама понимать, на что смотреть, получая «память» на минуты видео без изменения базовой архитектуры.
🟠 Подробнее
@ai_machinelearning_big_data
#AI #ML #ByteDance #Stanford #videogeneration
🔑 В чём проблема:
Когда видео становится длинным, внимание модели сильно «раздувается»: растёт стоимость вычислений, модель теряет детали на генерациях, забывает персонажей и «дрейфует».
⚡ Чем интересен Mixture of Contexts:
- Видео разбивается на куски (кадры, шоты, подписи).
- Каждый запрос выбирает только нужные чанки, вместо того чтобы учитывать всю историю.
- Для этого используется простая оценка релевантности: сравнение признаков чанков с текущим запросом.
- Обязательно учитываются два «якоря»: полный текстовый промпт и локальный шот для деталей видео.
- Causal mask блокирует внимание к будущим кадрам, чтобы не было зацикливаний.
- Дальше применяется Flash Attention только к выбранным чанкам — вычисления растут не с длиной всего видео, а только с полезным контекстом.
📊 Результаты:
- В 7 раз меньше FLOPs
- В 2.2 раза быстрее работа
- На длинных сценах (180k токенов) отсекается 85% ненужного внимания
🎥 Итог:
- Короткие клипы сохраняют качество
- Длинные сцены становятся более плавными, а персонажи — стабильными
- Время генерации заметно сокращается
Главное: модель учится сама понимать, на что смотреть, получая «память» на минуты видео без изменения базовой архитектуры.
@ai_machinelearning_big_data
#AI #ML #ByteDance #Stanford #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1
🚀 Интеллектуальное управление ошибками в Rust
unwrap_or_ai — это революционное решение для обработки ошибок, использующее ИИ для создания идеальных запасных данных. Система анализирует структуру вашего кода и мгновенно генерирует контекстуальные ответы, обеспечивая надежность и оптимизацию производственных процессов.
🚀 Основные моменты:
- 🧠 Глубокий анализ кода для точного восстановления
- ⚡ Мгновенное создание запасных данных
- 🎯 Интеллектуальное предсказание потребностей приложения
- 🔄 Легкая интеграция в существующий код
- 📈 Оптимизировано для корпоративного использования
📌 GitHub: https://github.com/NoodlesOfWrath/unwrap_or_ai
#rust
unwrap_or_ai — это революционное решение для обработки ошибок, использующее ИИ для создания идеальных запасных данных. Система анализирует структуру вашего кода и мгновенно генерирует контекстуальные ответы, обеспечивая надежность и оптимизацию производственных процессов.
🚀 Основные моменты:
- 🧠 Глубокий анализ кода для точного восстановления
- ⚡ Мгновенное создание запасных данных
- 🎯 Интеллектуальное предсказание потребностей приложения
- 🔄 Легкая интеграция в существующий код
- 📈 Оптимизировано для корпоративного использования
📌 GitHub: https://github.com/NoodlesOfWrath/unwrap_or_ai
#rust
GitHub
GitHub - NoodlesOfWrath/unwrap_or_ai: Transform your failing Rust functions into INTELLIGENT SUCCESS SYSTEMS
Transform your failing Rust functions into INTELLIGENT SUCCESS SYSTEMS - NoodlesOfWrath/unwrap_or_ai
❤3👍1🔥1🤬1
AI-агенты: переход от генерации к действиям
LLM уже научились писать тексты и код. Следующий шаг — агенты, которые способны сами понять, как решить задачу, и использовать свои знания в реальных сценариях: подключаться к сервисам, совершать транзакции, управлять инфраструктурой.
В подкасте «Мы обречены» обсуждают новые стандарты и инструменты для работы с агентами, первые отрасли, где они появятся, и как подготовиться к их внедрению.
@machinelearning_ru
LLM уже научились писать тексты и код. Следующий шаг — агенты, которые способны сами понять, как решить задачу, и использовать свои знания в реальных сценариях: подключаться к сервисам, совершать транзакции, управлять инфраструктурой.
В подкасте «Мы обречены» обсуждают новые стандарты и инструменты для работы с агентами, первые отрасли, где они появятся, и как подготовиться к их внедрению.
@machinelearning_ru
YouTube
Готовься разрабатывать AI-агентов, скоро они будут везде — Артур Самигуллин — Мы обречены
Гость выпуска — Артур Самигуллин, руководитель продуктового ML-направления в Yandex Cloud
Конференция Yandex Neuro Scale соберёт IT-специалистов, чтобы обсудить всё важное в мире ML&AI, облаков, DevOps, безопасности и инфраструктуры. Эксперты расскажут,…
Конференция Yandex Neuro Scale соберёт IT-специалистов, чтобы обсудить всё важное в мире ML&AI, облаков, DevOps, безопасности и инфраструктуры. Эксперты расскажут,…
❤2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Эволюция моделей OpenAI на примере генерации игры-песочницы.
❤3👍2
👁️🧠 R-4B: маленькая, но умная мультимодальная модель
Исследователи представили R-4B — vision-модель с 4B параметров, которая догоняет и даже обгоняет 16B аналоги в сложных визуальных задачах рассуждения.
✨ В чём фишка:
- Модель сама решает, думать пошагово или отвечать сразу.
- На простых задачах — короткий ответ, экономия токенов.
- На сложных — развёрнутый reasoning со «scratchpad».
⚙️ Как обучали:
1. Дали два режима — reasoning (с тэгами `<think>…</think>`) и direct (пустые `<think></think>`).
2. Использовали Bi-mode Policy Optimization: для каждого промпта модель генерирует оба ответа, система оценивает и учит, когда стоит «думать».
📊 Итог:
- На лёгких задачах R-4B работает быстро и экономно.
- На тяжёлых — разворачивает reasoning и показывает качество на уровне 16B моделей, оставаясь компактной.
- Новый SOTA на 25 бенчмарках.
🔗 Paper: arxiv.org/abs/2508.21113
#AI #Vision #Multimodal #Research
Исследователи представили R-4B — vision-модель с 4B параметров, которая догоняет и даже обгоняет 16B аналоги в сложных визуальных задачах рассуждения.
✨ В чём фишка:
- Модель сама решает, думать пошагово или отвечать сразу.
- На простых задачах — короткий ответ, экономия токенов.
- На сложных — развёрнутый reasoning со «scratchpad».
⚙️ Как обучали:
1. Дали два режима — reasoning (с тэгами `<think>…</think>`) и direct (пустые `<think></think>`).
2. Использовали Bi-mode Policy Optimization: для каждого промпта модель генерирует оба ответа, система оценивает и учит, когда стоит «думать».
📊 Итог:
- На лёгких задачах R-4B работает быстро и экономно.
- На тяжёлых — разворачивает reasoning и показывает качество на уровне 16B моделей, оставаясь компактной.
- Новый SOTA на 25 бенчмарках.
🔗 Paper: arxiv.org/abs/2508.21113
#AI #Vision #Multimodal #Research
🔥6❤2👍2
📌Приглашаем вас на три бесплатных вебинара курса «MLOps»
💎Вебинар №1: «MLFlow - контроль над ML-экспериментами»
⏰ 4 сентября в 20:00 мск
🔹На вебинаре:
• Узнаете как проводить ML эксперименты и главное как их контролировать;
• Поймете что такое MLFlow и какие компоненты он содержит;
• Разберём основные возможности MLFlow: трекинг экспериментов, управление моделями и воспроизводимость;
• Проведём живую демонстрацию, где шаг за шагом внедрим MLFlow в ML-проект.
💎Вебинар №2: «Вывод ML моделей в промышленную среду на примере онлайн-скоринга»
⏰ 11 сентября в 20:00 мск
🔹На вебинаре:
• Направления развития в DataScience
• Построение модели машинного обучения на примере скоринга
• Интеграция модели в промышленную среду на примере API на Flas
💎Вебинар №3: «Serverless подход в MLOps для небольших ML-проектов»
⏰ 18 сентября в 18:00 мск
🔹На вебинаре:
• Преимущества serverless подхода для развертывания ML-моделей и когда его стоит использовать.
• Развертывание ML-модели с помощью Yandex Cloud: Object Storage и Cloud Functions.
• Создание и тестирование API для инференса модели.
🎁Участники вебинаров получат подарки на почту🎁
Регистрация на вебинары ➡️ OTUS.RU
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
💎Вебинар №1: «MLFlow - контроль над ML-экспериментами»
⏰ 4 сентября в 20:00 мск
🔹На вебинаре:
• Узнаете как проводить ML эксперименты и главное как их контролировать;
• Поймете что такое MLFlow и какие компоненты он содержит;
• Разберём основные возможности MLFlow: трекинг экспериментов, управление моделями и воспроизводимость;
• Проведём живую демонстрацию, где шаг за шагом внедрим MLFlow в ML-проект.
💎Вебинар №2: «Вывод ML моделей в промышленную среду на примере онлайн-скоринга»
⏰ 11 сентября в 20:00 мск
🔹На вебинаре:
• Направления развития в DataScience
• Построение модели машинного обучения на примере скоринга
• Интеграция модели в промышленную среду на примере API на Flas
💎Вебинар №3: «Serverless подход в MLOps для небольших ML-проектов»
⏰ 18 сентября в 18:00 мск
🔹На вебинаре:
• Преимущества serverless подхода для развертывания ML-моделей и когда его стоит использовать.
• Развертывание ML-модели с помощью Yandex Cloud: Object Storage и Cloud Functions.
• Создание и тестирование API для инференса модели.
🎁Участники вебинаров получат подарки на почту🎁
Регистрация на вебинары ➡️ OTUS.RU
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
👍4
📦 Truss — упаковка ML-моделей для продакшена без головной боли. Этот инструмент решает классическую проблему ML-инженеров: как быстро перевести модель из экспериментальной среды в продакшен. С ним можно упаковать в контейнер не только код модели, но и все зависимости — от весов до специфичных версий фреймворков.
Благодаря Truss один и тот же контейнер будет одинаково работать и на локальной машине, и в облаке. При этом не нужно возиться с Dockerfile и Kubernetes-манифестами — достаточно описать модель в Python-классе и указать зависимости в YAML.
🤖 GitHub
@machinelearning_ru
Благодаря Truss один и тот же контейнер будет одинаково работать и на локальной машине, и в облаке. При этом не нужно возиться с Dockerfile и Kubernetes-манифестами — достаточно описать модель в Python-классе и указать зависимости в YAML.
🤖 GitHub
@machinelearning_ru
❤2👍2🔥2
Osaurus от Dinoki-AI 🚀
Нативный сервер LLM для Apple Silicon (M-series). Работает локально на Mac с M1 и новее.
✨ SwiftUI-приложение + HTTP-сервер на SwiftNIO
✨ Поддержка API OpenAI и Ollama
✨ Function/tool calling, стриминг
✨ Управление моделями прямо из интерфейса
🔗 https://github.com/dinoki-ai/osaurus
@machinelearning_ru
Нативный сервер LLM для Apple Silicon (M-series). Работает локально на Mac с M1 и новее.
✨ SwiftUI-приложение + HTTP-сервер на SwiftNIO
✨ Поддержка API OpenAI и Ollama
✨ Function/tool calling, стриминг
✨ Управление моделями прямо из интерфейса
🔗 https://github.com/dinoki-ai/osaurus
@machinelearning_ru
🔥4❤3👍2