Generative AI
2.34K subscribers
139 photos
34 videos
4 files
134 links
@haarrp - по всем вопросам
Download Telegram
Forwarded from Machinelearning
🔥 Бесплатный курс от Microsoft «ИИ-агенты для начинающих»

Курс содержит пошаговые инструкции с примерами кода, которые помогут научиться создавать автономных агентов с использованием машинного обучения.

Фокус на AI-агентах:
Если вас интересует именно разработка агентов — например, для симуляций, игр или интерактивных систем — данный курс будет полезен.

Каждый урок включает в себя:
- Лекцию, (видео уроки появятся в марте 2025 года)
- Примеры кода на Python с поддержкой Azure AI Foundry и Github Models
- Практические задания
- Ссылки на полезные дополнительные ресурсы

Если это ваш первый опыт работы с агентами, у Microsoft есть еще 1 курс «Генеративный ИИ для начинающих», который содержит 21 урок по построению моделей с помощью GenAI, лучше начать с него.

Переведен на 9 различных языков (русского нет).

Github

@ai_machinelearning_big_data

#course #Microsoft #aiagents #ai #ml #opensource #freecourse
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
🔥 The Ultra-Scale Playbook: руководство по обучению крупных языковых моделей на GPU-кластерах!

💡 Это руководство посвящено обучению больших языковых моделей на масштабируемых GPU-кластерах. В рамках этого проекта было проведено более 4000 экспериментов по масштабированию на кластере с использованием до 512 GPU, с целью измерения пропускной способности и эффективности обучения.

🔗 Ссылка: *клик*

#курс #machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤮1
Forwarded from Machinelearning
⚡️ EasyR1 – эффективный и масштабируемый фреймворк для обучения с подкреплением (RL) с поддержкой мультимодальных данных.

Чем интересен EasyR1?
EasyR1 сочетает в себе алгоритм GRPO, продемонстрированный в DeepSeek R1, и расширение системы veRL для поддержки vision-language моделей, таких как Qwen2.5-VL.

Уже после 30 шагов обучения фреймворк показал прирост производительности на 5% в экспериментах на тестовом наборе Geometry3k.

Это делает его привлекательным инструментом для исследователей и разработчиков, работающих с задачами, где объединяются визуальные и текстовые данные.

Фреймворк спроектирован так, чтобы быть масштабируемым и легко интегрироваться с различными алгоритмами RL, что открывает широкие возможности для дальнейших исследований.

Ожидайте будущих обновлений – в них планируется интеграция дополнительных алгоритмов RL и новых архитектур VLM.

Github

#EasyR1 #opensource #GRPO #VLM
1👍1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Модель Wan2.1-T2V-14B от команды Wan-AI – новый топовый опенсорс инструмент генерации видео, который объединяет в себе несколько интересных особенностей.

⚡️ Мощная архитектура yf 14 млрд параметров

Модель способна детально прорабатывать сцены и динамику, генерируя высококачественные видео, где каждая деталь выглядит реалистично.

Модель поддерживает:

- Text-to-Video: генерация видео по текстовым запросам.
Image-to-Video: преобразование статических изображений в анимированные видеоролики.
- Видео-редактирование: внесение изменений в уже существующие видео.
- Text-to-Image: создание изображений на основе текста.
- Video-to-Audio: синтез аудио, соответствующих содержанию видео.
Такая универсальность делает модель полезной для широкого спектра приложений.

Использование видео VAE (вариационного автоэнкодера)
В основе модели лежит мощный видео VAE, который эффективно кодирует и декодирует видеоконтент. Это позволяет:

- Обрабатывать видео высокого разрешения (до 1080p).
- Сохранять временную динамику и последовательность кадров.
- Обеспечивать плавное и согласованное воспроизведение движения.
- Оптимизация для потребительских видеокарт

Несмотря на свои масштабы, модель оптимизирована для работы на современных GPU.

Например, версия T2V-1.3B требует всего 8,19 ГБпамяти и способна генерировать 5-секундное видео с разрешением 480p примерно за 4 минуты на RTX 4090 без применения дополнительных оптимизаций.

Как работает:

Ввод данных: Пользователь может задать текстовое описание, предоставить изображение или даже видео, в зависимости от задачи.
Кодирование: Виде VAE преобразует входные данные в компактное представление, сохраняя при этом критически важную информацию о сцене и динамике.
Генерация: На основе этого представления и с использованием огромного количества параметров модель генерирует новый видеоряд, который соответствует заданному описанию или образцу.
Декодирование: Затем VAE декодирует это представление обратно в полноценное видео, где соблюдаются все временные и визуальные детали.

Таким образом, Wan2.1-T2V-14B выделяется своей способностью не только создавать качественные видео по текстовому описанию, но и решать множество сопутствующих задач (от редактирования до генерации аудио), оставаясь при этом оптимизированной для работы на доступном оборудовании.

Это делает её одной из самых перспективных разработок в области генеративного видео на сегодняшний день.

🟡 Github: https://github.com/Wan-Video/Wan2.1/
🟡HF: https://huggingface.co/Wan-AI/Wan2.1-T2V-14B
🟡Model Scope: https://modelscope.cn/organization/Wan-AI

@ai_machinelearning_big_data

#TexttoVideo #ai #ml #video #wanai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🌟 MM-EUREKA: Мультимодальный ризонинг.

MM-Eureka — разработка Шанхайской лаборатории ИИ, которая совершила шаг вперед в решении задач, требующих анализа изображений и текста. В отличие от рядовых VLM, эта модель сочетает RL с мультимодальным мышлением, имитируя человеческую способность, схожую с «моментами озарения». Авторы заявляют, что MM-Eureka не только обладает повышенной точностью ответов, но и учится перепроверять визуальные данные с помошью рассуждений.

MM-Eureka суперэффективна: даже при обучении на 0,05% данных от аналогов, модель превзошла их в тестах на математическую логику и анализ графиков. Например, в задачах уровня школьной программы она показала рост точности на 8,2%. При этом тестовая модель, не имея явных инструкций, научилась «переосмысливать» изображения — заново оценивать геометрические схемы для поиска ошибок.

В основе MM-Eureka - модели InternVL2.5 с параметрами 8 и 38 млрд. Архитектура объединяет механизмы внимания для анализа визуальных паттернов и языковые слои для генерации ответов.

Обучение строилось на алгоритме RLOO (REINFORCE Leave-One-Out), который снижает шум в оценках преимуществ, и PPO-clip, предотвращающем резкие изменения политики. Авторы отказались от ограничений KL-дивергенции, чтобы не сдерживать «творческий» поиск решений. Функция вознаграждения включала проверку точности ответов через Math-Verify и соблюдение структуры вывода, чтобы усилить логическую строгость.

▶️В релиз вошли 2 модели, датасет и код для самостоятельных изысканий в обучении:

🟢MM-Eureka-8B
🟢MM-Eureka-Zero-38B
🟠MM-Eureka-Dataset


📌Лицензирование: Apache 2.0 License.


🟡Набор моделей
🟡Техотчет
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Reasoning #MMEUREKA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🔥 Stable Virtual Camera – релиз от Stability AI: модель генерации 3D видео из 2D изображений.

Эта разработка, представленная в исследовательском превью, позволяет создавать реалистичные 3D видео без сложной реконструкции сцены или специализированной оптимизации.

🌟 Основные моменты:

▶️ Модель использует мультивью диффузию для преобразования обычных 2D изображений в объемные 3D видео с достоверной глубиной и перспективой.
▶️ Динамическое управление камерой: поддерживаются не только стандартные движения, но и 14 различных траекторий, включая 360°, Лемнискату, Спираль, Dolly Zoom и другие, что позволяет создавать уникальные кинематографические эффекты.
▶️ Гибкость входных данных: возможность генерировать 3D видео, используя как одно изображение, так и до 32 изображений.
▶️ Продвинутая архитектура: применение двухпроходного процедурного сэмплинга обеспечивает плавные переходы даже в видео длиной до 1000 кадров, гарантируя непрерывное и стабильное отображение движения.
▶️ Преимущество перед конкурентами: в тестах на синтез новых точек обзора (NVS) модель показывает хорошие результаты, превосходя такие инструменты, как ViewCrafter и CAT3D, благодаря оптимальному соотношению генеративного потенциала и плавности временных переходов.

Релиз доступен для исследовательского использования под некоммерческой лицензией.

🟡Релиз: https://stability.ai/news/introducing-stable-virtual-camera-multi-view-video-generation-with-3d-camera-control
🟡Статья: https://stability.ai/s/stable-virtual-camera.pdf
Веса: https://huggingface.co/stabilityai/stable-virtual-camera
🖥 Github: https://github.com/Stability-AI/stable-virtual-camera

@ai_machinelearning_big_data


#stability #ai #ml #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🧨СКОРЕЕ ЗАБИРАЙТЕ🧨

ПОДБОРКУ ПРО НЕЙРОСЕТИ И AI-ТЕХНОЛОГИИ


Уже 150 человек забрали лучшую подборку каналов про нейросети и  AI-технологии.

От горячих новостей сферы до хитростей в составлении промптов, которые помогут вам делать крутой контент за пару минут:

▪️как составить промт, чтобы получить живой контент

▪️как создать ии-ассистента, который заменит менеджера по продажам

▪️как продавать с помощью нейросетей

Если вы хотите знать о том, как уже сегодня нейросети «захватывают» наш мир и произойдет ли «восстание машин»

🤩забирай папку с экспертами и подарками прямо сейчас


ЗАБРАТЬ ПАПКУ👈

А еще в специальном канале вас ждут подарки👇

🎁 Подробная инструкция «Как бесплатно анимировать любое изображение»

🎁 Гайд «Как всего за 7 дней внедрить AI визуал в бизнес»

Добавляйте папку и делитесь со своими друзьями👇

https://t.iss.one/addlist/bqt2YI6OdY04ZGZi
Forwarded from Machinelearning
✔️ OpenAI тестирует ChatGPT-коннектор к Google Drive и Slack.

OpenAI планирует запустить новую функцию «Коннекторы ChatGPT», которая позволит подписчикам плана "Team" подключать учетные записи Google Диска и Slack к ChatGPT, позволяя отвечать на вопросы на основе файлов, презентаций, электронных таблиц на этих ресурсах. В будущем коннекторы ChatGPT планируется расширить на Microsoft SharePoint и Box.

"Коннекторы" разрабатываются, чтобы дать возможность корпоративным пользователям получать доступ к внутренней информации так же легко, как при поиске в Интернете. Компаниям, участвующим в тестировании "коннекторов", необходимо предоставить OpenAI минимум 100 документов, таблиц, презентаций или диалогов в канале Slack.
techcrunch.com

✔️ B300 от Nvidia поступит в опытное производство во 2 квартале 2025 года.

Аналитик TF International Securities Минг-Чи Куо предположил, что новый чип B300 станет ключевым моментом пресс-конференции GTC 2025. HBM был значительно модернизирован с 192 ГБ до 288 ГБ, а вычислительная производительность была улучшена на 50% (FP4) по сравнению с B200. Ожидается, что B300 будет запущен в опытное производство во 2 квартале 2025 г., а массовое производство — в 3-м квартале 2025 г.
jiemian.com

✔️ Гарвард отменит плату за обучение для семей с доходом до 200 000 долларов в год.

Гарвардский университет объявил о расширении правил стипендий. Для студентов бакалавриата, чей доход семьи не превышает 200 000 долл. в год, плата за обучение будет отменена, а для студентов, чей доход семьи не превышает 100 000 долл. в год, обучение будет полностью бесплатным.

Пенсильванский университет и Массачусетский технологический институт приняли аналогичные решения. В то время, когда плата за обучение во многих ведущих ВУЗах США превышает 90 000 долл. в год, эта политика сделают их более доступными.
wsj.com

✔️ Llama скачали более 1 миллиарда раз.

Марк Цукерберг написал в своем аккаунте на платформе Threads, что «открытое» семейство моделей Llama было загружено более 1 миллиарда раз. По сравнению с 650 миллионами загрузок в начале декабря 2024 года рост скачиваний составил примерно 53% всего за 3 месяца.
Mark Zukerberg в Threads

✔️ NVIDIA, Alphabet и Google объединяют усилия для развития агентного и физического ИИ.

Три ИТ-гиганта объявили о новом этапе давнего партнерства, направленном на продвижение ИИ, расширение доступа к ИИ-инструментам, ускорение разработки физического ИИ и трансформацию здравоохранения, производства и энергетики. Инженеры Alphabet тесно сотрудничают с техническими командами NVIDIA, используя AI и симуляцию для создания роботов с навыками захвата, переосмысления открытия лекарств и оптимизации энергосетей. Для поддержки этих исследований Google Cloud станет одним из первых, кто внедрит NVIDIA GB300 NVL72 и GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.

Совместно с Disney Research разрабатывается Newton, опенсорсный физический движок, ускоренный NVIDIA Warp, который значительно повысит скорость машинного обучения в робототехнике.
nvidianews.nvidia.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🔥 Klarity — это инструмент для анализа неопределенности в выводах генеративных моделей!

🌟 Он сочетает в себе анализ вероятностей и семантическую оценку, позволяя глубже понять степень уверенности модели в своих предсказаниях. Klarity предоставляет возможности для измерения энтропии, анализа рассуждений модели и семантической кластеризации результатов. Это помогает выявлять потенциальные слабые места и улучшать надежность генеративных моделей перед их внедрением в производство.

🔐 Лицензия: Apache-2.0

🖥 Github
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Проект 3DGRUT представляет собой набор официальных реализаций методов 3D Gaussian Ray Tracing (3DGRT) и 3D Gaussian Unscented Transform (3DGUT).

💡 Основная идея:
Проект предлагает альтернативный подход к традиционному рендерингу, основанный на трассировке лучей, где вместо точечных лучей используются объёмные гауссовы частицы. Это позволяет моделировать сложные эффекты, например, камеры с искажениями (роллинг-шаттер) и временные эффекты.

⚙️ Гибридный подход:
3DGRUT объединяет преимущества растеризации и трассировки лучей – первичные лучи можно рендерить быстро через растеризацию, а вторичные лучи обрабатываются с помощью трассировки, что повышает гибкость и производительность.

🚀 Текущая стадия:
Проект находится на стадии альфа-версии. Он включает демонстрационную среду (Playground) для тестирования и экспериментов, а также предоставляет подробные инструкции по установке, настройке и запуску.

🔧 Требования и установка:
Для работы проекта требуется Python (3.10+), соответствующие зависимости, а также поддержка OpenGL и других библиотек. В репозитории описаны команды для установки необходимых пакетов и запуска тренировочного процесса.

Проект предназначен для исследователей и разработчиков, желающих экспериментировать с новыми методами рендеринга, а также для тех, кто интересуется интеграцией современных подходов в компьютерную графику.

📌 Github
👍21🔥1
Forwarded from Machinelearning
🌟 VideoMind - это агент для анализа видео, разработанный для точного понимания контента с привязкой ко времени.

Основная цель инструмента - обеспечить "temporal-grounded video understanding", то есть способность отвечать на вопросы о видео, точно указывая на конкретные моменты (визуальные доказательства) в видеоряде, что является сложной задачей для стандартных больших языковых моделей.

Как работает:
🟢 Внутри использует ролевой агентный подход (role-based agentic workflow), который включает специализированные компоненты (роли), такие как планировщик (planner) для координации, локализатор (grounder) для привязки ко времени, верификатор (verifier) для оценки точности временных интервалов и ответчик (answerer) для формулировки ответа.
🟢 Разработчики использовали очень интересную стратегию "Chain-of-LoRA", которая позволяет эффективно переключаться между различными ролями с помощью легковесных адаптеров LoRA (Low-Rank Adaptation) без необходимости загружать несколько отдельных моделей, оптимизируя баланс между гибкостью и вычислительной эффективностью.

✔️ Результаты: демонстрирует SOTA производительность на 14 бенчмарках для различных задач понимания видео, включая ответы на вопросы с привязкой ко времени (Grounded VideoQA), временную локализацию событий (VTG) и общие ответы на вопросы по видео (VideoQA).

🟡Github
🟡Demo
🟡Paper
🟡Dataset
🟡Checkpoints

@ai_machinelearning_big_data


#agent #ai #ml #video
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM