Derp Learning
13.2K subscribers
3.26K photos
944 videos
9 files
1.37K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Forwarded from Neural Shit
Dall-e — это, конечно, круто, но вы видели это?
😁27👍13😱5
Телепузики подросли
(generated by natural intellect)

Сорс
👍15
This media is not supported in your browser
VIEW IN TELEGRAM
Еще несколько примеров различных комбинаций настроек #warpfusion

На этот раз с flow_blend, check_consistency

Колаб
12🤩6🔥1
Генерации из 3 стрима.

Гугл диск со всеми генерациями со стрима.
Текстовые запросы в названиях файлов.

Сегодня сначала упал мой стрим, а затем сам Dalle 2, но в конце все наладилось.
👍94
Кудрявый гусь. Latent diffusion.
😁14👍1
Apple представила свой аналог DLSS/FSR апскейла для игр - MetalFX Upscaling
(тут яблочники внезапно узнали, что на маках есть игры)

Забавно наблюдать разные новые версии алгоритмов ИИ-суперсемплинга, появляющиеся, как грибы после дожд слива данных от nvidia.

Подробнее
😁12👍2🤩1
Forwarded from эйай ньюз
🔥Nvidia жжет напалмом! На этот раз выпустили модель для генерации динамических видео

Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.

Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.

Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."

❱ Код будет в конце лета
❱❱ Сайт проекта

@ai_newz
🔥14👍7
This media is not supported in your browser
VIEW IN TELEGRAM
🗽 NVIDIA Создала 3D StyleGAN — EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

EG3D — нестоящее инженерное чудо. Ресерчеры взяли за основу StyleGAN 2 бэкбон, и вставили в середину графа гибридный neural rendering.

Nvidia создала новый tri-plane-based 3D GAN framework. Ресерчеры показали, что NeRF в их случае медленный, а воксели не очень масштабируются по памяти с повышением разрешения.

После нейронного рендеринга в 128х128 следует каскад супер-резолюшена в 512х512. Затем low-res ещё раз апскейлится интерполяцией и после конкатенации с mid-res картинкой, единым тензором подается на двойной дискриминатор.

StyleGAN’ы интересны тем, что способны за относительно небольшой компьют (тут 8 Tesla V100 GPUs и 8.5 дней) построить реалистичную генеративную модель в одном домене.

EG3D позволяет сразу генерировать качественную 3D геометрию, которую сеть выучивает самостоятельно!

Как же чудесно будущее 3D графики!

💻 Code
🖥 Project
📄 Paper
🎥 YouTube

@мишин_лернинг
👍14🔥2