Ну, что, какая модель?
Меньше суток с момента выхода. Скоро миллион просмотров.
Но у меня ощущение, что половина моих подписчиков из коментов (а там щас лютые ребята подсобрались) сделают не хуже. И быстро.
В общем контент перестает быть The King.
ИИ завалит вас и ваши клипы любым трешом и размером.
Бренд is a King.
А контент is just Kling.
Нейродед забыл выпить таблетки и что-то ворчит, перевожу: клип отстой, подписчики в комментах показывают круче, и единственное, что влияет на просмотры - это то, что Канье Уэст. И дщери его.
Нейробезумныймакс на минималках, блэт. Докатились.
https://youtu.be/qeWutl38TQw?si=VVDKjKdZiC2H9Phi
Если кто музику обнаружит, тоже дайте знать.
Suno will save us all.
@cgevent
Меньше суток с момента выхода. Скоро миллион просмотров.
Но у меня ощущение, что половина моих подписчиков из коментов (а там щас лютые ребята подсобрались) сделают не хуже. И быстро.
В общем контент перестает быть The King.
ИИ завалит вас и ваши клипы любым трешом и размером.
Бренд is a King.
А контент is just Kling.
Нейродед забыл выпить таблетки и что-то ворчит, перевожу: клип отстой, подписчики в комментах показывают круче, и единственное, что влияет на просмотры - это то, что Канье Уэст. И дщери его.
https://youtu.be/qeWutl38TQw?si=VVDKjKdZiC2H9Phi
Если кто музику обнаружит, тоже дайте знать.
Suno will save us all.
@cgevent
YouTube
¥$, North West, Chicago West, Yuno Miles - BOMB
Music video by ¥$ performing BOMB.2024 YZY
Media is too big
VIEW IN TELEGRAM
KeenTools 2024.3: стабильный FaceTracker for Blender!
– Трекинг мимики и движений головы с помощью геометрии лица
– Создание точных 3D моделей лица по кадрам из видео (доступно с FaceBundle)
– Работа с текстурами, добавление макияжа, VFX и другие композитинговые задачи
– Перенос лицевой анимации с видео на 3D персонажа: через ARKit и Rigify
Последняя фича открывает новые возможности для анимации в Blender: переносите мимику с видео на 3D модель в один клик!
Подробности:
https://link.keentools.io/ftb-stable-tg
А еще Ромсель заезжал недавно в гости и показывал, что они там на нейроночках делают...
У них есть такие приборы! Аналогов я не видел..
@cgevent
– Трекинг мимики и движений головы с помощью геометрии лица
– Создание точных 3D моделей лица по кадрам из видео (доступно с FaceBundle)
– Работа с текстурами, добавление макияжа, VFX и другие композитинговые задачи
– Перенос лицевой анимации с видео на 3D персонажа: через ARKit и Rigify
Последняя фича открывает новые возможности для анимации в Blender: переносите мимику с видео на 3D модель в один клик!
Подробности:
https://link.keentools.io/ftb-stable-tg
А еще Ромсель заезжал недавно в гости и показывал, что они там на нейроночках делают...
У них есть такие приборы! Аналогов я не видел..
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
По поводу LTXV видеогенератора, опенсорсного притом.
Мне надо еще потестировать, но по моим первым тестами - дико непредсказуемо, качество хуже, чем у CogVideo, много статики и брака и какое-то шаманство с промптами.
Но натолкнулся на вот такой видос на реддите позавчера.
Автор пишет: Created using fal.ai, took me around 4-5 seconds per video generation. Used Image2Video on a base Flux image and then did a quick edit on Premiere.
try using the 768x512 res. Also upscaling the flux image before seemed to help. When generating shorter videos I got better results. When the prompt for image and video are similar it also seemed to help.
Юзеры пытаются воспроизвести результат, но получается не очень, а автор подозрительно ушел в тень.
Но я выловил в коментах разрывающий мозг трюк, чтобы побороть статику на image2Video для текущей модели LTX Video. Оказывается, модель не любит нетронутые\чистые изображения, она была обучена на видео. Поэтому вы можете пропустить изображение через ffmpeg, использовать h264 с CRF около 20-30, чтобы получить такое сжатие. По-видимому, этого достаточно, чтобы модель "зацепилась" за изображение и действительно что-то с ним сделала.
Ну то есть предлагается приподыспоганить картинку на входе image2video, сделав из нее как бы стопкадр из видео.
Хотя это идет вразрез с советами(выше) типа "прогоните через апскейлер и уберите блюр" перед тем как кормить в image2video
В общем видеогенерация сейчас - это шаманство с костылями типа motion brush и camera control, а опенсорсная видеогенерация это протошамаство с костылями из говна и палок, и мифологемами вокруг промптов, cfg и качества картинок на входе.
Читаем теории заговора тут.
Продолжим наши тесты и мифотворчество. Там в коментах могучий Stan Travis показывает генерации на ТРИСТА ДВАДЦАТЬ ОДИН кадр в LTXV, которые не разъезжаются! Как?
@cgevent
Мне надо еще потестировать, но по моим первым тестами - дико непредсказуемо, качество хуже, чем у CogVideo, много статики и брака и какое-то шаманство с промптами.
Но натолкнулся на вот такой видос на реддите позавчера.
Автор пишет: Created using fal.ai, took me around 4-5 seconds per video generation. Used Image2Video on a base Flux image and then did a quick edit on Premiere.
try using the 768x512 res. Also upscaling the flux image before seemed to help. When generating shorter videos I got better results. When the prompt for image and video are similar it also seemed to help.
Юзеры пытаются воспроизвести результат, но получается не очень, а автор подозрительно ушел в тень.
Но я выловил в коментах разрывающий мозг трюк, чтобы побороть статику на image2Video для текущей модели LTX Video. Оказывается, модель не любит нетронутые\чистые изображения, она была обучена на видео. Поэтому вы можете пропустить изображение через ffmpeg, использовать h264 с CRF около 20-30, чтобы получить такое сжатие. По-видимому, этого достаточно, чтобы модель "зацепилась" за изображение и действительно что-то с ним сделала.
Ну то есть предлагается приподыспоганить картинку на входе image2video, сделав из нее как бы стопкадр из видео.
Хотя это идет вразрез с советами(выше) типа "прогоните через апскейлер и уберите блюр" перед тем как кормить в image2video
В общем видеогенерация сейчас - это шаманство с костылями типа motion brush и camera control, а опенсорсная видеогенерация это протошамаство с костылями из говна и палок, и мифологемами вокруг промптов, cfg и качества картинок на входе.
Читаем теории заговора тут.
Продолжим наши тесты и мифотворчество. Там в коментах могучий Stan Travis показывает генерации на ТРИСТА ДВАДЦАТЬ ОДИН кадр в LTXV, которые не разъезжаются! Как?
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
LTX Video. 321 кадр!
Ну хорошо, вот вам видео от Stan Travis, о котором я писал в предыдущем посте.
Цитирую без купюр:
А вот с консистенцией просто отлично, если получается вытянуть без развала.
Тут тест на 321 кадр. Едва заметные родинки около рта и около брови сохраняются от начала до конца, также и морщины на лбу.
Ну и прекрасные эмоции.
Эмоции у меня скорее такие😱
@cgevent
Ну хорошо, вот вам видео от Stan Travis, о котором я писал в предыдущем посте.
Цитирую без купюр:
А вот с консистенцией просто отлично, если получается вытянуть без развала.
Тут тест на 321 кадр. Едва заметные родинки около рта и около брови сохраняются от начала до конца, также и морщины на лбу.
Ну и прекрасные эмоции.
Эмоции у меня скорее такие
@cgevent
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто не хочет покупать A100 просто напомню, что у Блэк Форест есть спейсы на Hugging Face для всего их нового безобразия: Redux, Depth, Fill, Canny
Без Комфи и смс.
Ну вдруг, если кто не знает.
https://huggingface.co/black-forest-labs
сорс
@cgevent
Без Комфи и смс.
Ну вдруг, если кто не знает.
https://huggingface.co/black-forest-labs
сорс
@cgevent
На этой неделе в Казани проходит Российская неделя стартапов—2024!🔥
30 ноября в Казани вас ждет большая открытая конференция, посвященная разработке игр!
Хедлайнер мероприятия – Макс Михеенко!
В этот день вы сможете:
⚪️ Погрузиться в мир GameDev и узнать о последних трендах.
⚪️ Задать вопросы экспертам и получить ценные советы.
⚪️ Послушать выступления Макса Михеенко, Яна Шевченко и других крутых спикеров.
Приглашаем всех, кто интересуется разработкой игр, на насыщенную субботу, посвященную GameDev-индустрии!
• Дата: 30.11
• Время: 14:00-17:00
• Место: ул. Петербургская, 52
▪️ Регистрируйтесь по ссылке: https://t.iss.one/StartapHub_bot
Реклама ГАУ «ИТ-парк» ИНН 1655191213 erid: 2SDnjemZu95
30 ноября в Казани вас ждет большая открытая конференция, посвященная разработке игр!
Хедлайнер мероприятия – Макс Михеенко!
В этот день вы сможете:
Приглашаем всех, кто интересуется разработкой игр, на насыщенную субботу, посвященную GameDev-индустрии!
• Дата: 30.11
• Время: 14:00-17:00
• Место: ул. Петербургская, 52
Реклама ГАУ «ИТ-парк» ИНН 1655191213 erid: 2SDnjemZu95
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from РассветAI
Протестировал возможности генерации Kling img2video через их API в комфи. 100 генераций (API calls) за 9 долларов. Воркфлоу в комфи сразу для загрузки 2-х фото (скорее всего сразу на 2 кейфрейма), удалил второй для чистоты эксперимента. В среднем 400 секунд на генерацию 10-ти секундного видео в режиме Pro. Не понятно, быстрее это или медленнее, чем через генерацию на сайте (возможно быстрее). Доступна только модель версии 1, хотя даже на trial-тарифе обещали 1.5. Но, судя по генерации, возможно это и 1.5. Из фото, сгенеренного во флаксе, 832x1216 я получил видео 768x1152. Камера зумится, как и было прописано в промпте. Пока все работает, в статистике API показано, сколько раз его вызывали и сколько секунд видео было сгенерено.
Специально для канала @cgevent
Специально для канала @cgevent