227K subscribers
3.8K photos
632 videos
17 files
4.45K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔥 Wan2.1‑FLF2V 14B — это первая в серии Wan модель генерации видео, которая работает по принципу «First‑Last‑Frame»: достаточно задать начальный и конечный кадр, чтобы сгенерировать полноценный плавный плавный ролик.

✔️ Главное
🟢 Открытые код и веса.

🟢Полный контроль над сюжетом и композицией видео.

🟢 Точное следование инструкциям: модель умеет очень чётко.
«понимать» промпты и визуальные референсы.

🟢Плавные переходы с учётом физики: кадры переходят друг в друга без рывков, с реалистичной трактовкой законов движения и освещения.

🟢 Качество 720 p: готовый не требует дополнительной пост‑обработки.

🔜GitHub: https://github.com/Wan-Video/Wan2.1
🔜Hugging Face: https://huggingface.co/Wan-AI/Wan2.1-FLF2V-14B-720P
🔜Modelscope: https://modelscope.cn/models/Wan-AI/Wan2.1-FLF2V-14B-720P

@ai_machinelearning_big_data

#wan #AIGC #alart
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74🔥3612🤨6
Media is too big
VIEW IN TELEGRAM
🔥 Alibaba представили новую модель - Wan2.1-VACE: универсальную модель для создания и редактирования видео.

Что умеет Wan2.1-VACE:
🟢 R2V — генерация видео по ссылке-примере (Reference-to-Video)
🟢 V2V — редактирование видео по видео (Video-to-Video)
🟢 MV2V — редактирование замаскированных областей видео (Masked Video-to-Video)

💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.

🔍 Ключевые особенности:
SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.

Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.

Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..

Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.

- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.

🔜 GitHub: github.com/Wan-Video/Wan2.1
🔜 HuggingFace: huggingface.co/Wan-AI
🔜 ModelScope: modelscope.cn/organization/Wan-Al
🔜 API сервис: bailian.console.alibabacloud.com

@ai_machinelearning_big_data


#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥56👍2920
👄 MultiTalk — новая открытая lip sync модель с высоким качеством синхронизации.

✔️ Что умеет:
• Генерирует видео с несколькими говорящими персонажами по аудио
• Поддерживает видео до 15 секунд в 480p и 720p
• Управление персонажами через текстовые промпты
• Поддержка генерации мультяшных героев, пения, нестандартных стилей речи
• Доступно в ComfyUI

Модель принимает на вход многопотоковое аудио, референсное изображение и текстовый промпт, после чего генерирует видео с взаимодействиями между персонажами, следуя промпту и с точной синхронизацией губ с речью.

Github: https://github.com/MeiGen-AI/MultiTalk
HF: https://huggingface.co/MeiGen-AI/MeiGen-MultiTalk

@ai_machinelearning_big_data

#wan #ai #ml #lipsync #MultiTalk
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5627🔥12🤬4🥰2👏2