This media is not supported in your browser
VIEW IN TELEGRAM
Первая пара сравнительных видео #warpfusion
Настройки, опорное видео, сид и 1й кадр одинаковые.
Колаб
Настройки, опорное видео, сид и 1й кадр одинаковые.
Колаб
🔥37❤2👍1
В пулл реквесте EpicGames кто-то отметил всю организацию, тем самым отправив email-рассылку всем участникам, а это около 400к человек :D
Если честно, я удивлен, что это произошло только сейчас. Кто-то даже успел попиариться в комментах, ведь комментарии тоже приходят всем участникам на почту :DDD
Сам PR и коммиты к нему тоже великолепны.
Если честно, я удивлен, что это произошло только сейчас. Кто-то даже успел попиариться в комментах, ведь комментарии тоже приходят всем участникам на почту :DDD
Сам PR и коммиты к нему тоже великолепны.
😁18🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Еще несколько примеров различных комбинаций настроек #warpfusion
На этот раз с flow_blend, check_consistency
Колаб
На этот раз с flow_blend, check_consistency
Колаб
❤12🤩6🔥1
Forwarded from Нейросети и Блендер
Генерации из 3 стрима.
Гугл диск со всеми генерациями со стрима.
Текстовые запросы в названиях файлов.
Гугл диск со всеми генерациями со стрима.
Текстовые запросы в названиях файлов.
Сегодня сначала упал мой стрим, а затем сам Dalle 2, но в конце все наладилось.👍9❤4
Apple представила свой аналог DLSS/FSR апскейла для игр - MetalFX Upscaling
(тут яблочники внезапно узнали, что на маках есть игры)
Забавно наблюдать разные новые версии алгоритмов ИИ-суперсемплинга, появляющиеся, как грибы после дожд слива данных от nvidia.
Подробнее
Подробнее
😁12👍2🤩1
Forwarded from эйай ньюз
🔥Nvidia жжет напалмом! На этот раз выпустили модель для генерации динамических видео
Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.
Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.
Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."
❱ Код будет в конце лета
❱❱ Сайт проекта
@ai_newz
Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.
Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.
Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."
❱ Код будет в конце лета
❱❱ Сайт проекта
@ai_newz
🔥14👍7