Forwarded from Градиентное погружение
Awesome-Diffusion
Один из админов нашел репозиторий, достойный вашего внимания, но перед началом стоит чуть поговорить про то, что такое диффузионные модели:
Работают диффузионные модели следующим образом — сначала искажают обучающие данные, постепенно добавляя гауссовский шум, медленно стирая детали, пока данные не превратятся в чистый шум, а затем нейронная сеть обучается, чтобы обратить этот процесс искажения вспять. При обратном искажении данные синтезируются из чистого шума путем постепенного снижения шума до тех пор, пока не будет получен чистый образец. (источник)
Собственно тема интересная и скорее всего вы о ней слышали, когда смотрели на всякие нейрогенерации коих в последнее время довольно много.
Репозиторий представляет собой сборник ссылок на статьи и их реализации, разделённые на самые разные темы(в том числе NLP, Vision, Audio, TS, etc).
Всё оформлено классно, а самое главное - структурированно.
Меня заинтересовала тема временных рядов и скорее всего, при необходимости, я попробую что-нибудь оттуда использовать.
Репозиторий
Один из админов нашел репозиторий, достойный вашего внимания, но перед началом стоит чуть поговорить про то, что такое диффузионные модели:
Работают диффузионные модели следующим образом — сначала искажают обучающие данные, постепенно добавляя гауссовский шум, медленно стирая детали, пока данные не превратятся в чистый шум, а затем нейронная сеть обучается, чтобы обратить этот процесс искажения вспять. При обратном искажении данные синтезируются из чистого шума путем постепенного снижения шума до тех пор, пока не будет получен чистый образец. (источник)
Собственно тема интересная и скорее всего вы о ней слышали, когда смотрели на всякие нейрогенерации коих в последнее время довольно много.
Репозиторий представляет собой сборник ссылок на статьи и их реализации, разделённые на самые разные темы(в том числе NLP, Vision, Audio, TS, etc).
Всё оформлено классно, а самое главное - структурированно.
Меня заинтересовала тема временных рядов и скорее всего, при необходимости, я попробую что-нибудь оттуда использовать.
Репозиторий
👍21❤4🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🍳 Text-Guided Image Inpainting или фотошоп, который мы заслужили!
DALL-E 2 и GLIDE могут не только делать Inpainting (заполнять , изменять и дорисовывать внутри выбранных юзером масок), но и заполнять это содержимое на основе текста от юзера. Что делает фотошоп будущего просто сказкой.
1) Маска левого человека (полученная от mask-rcnn)
2) Текст "фотография мужчины на кухне" помещает Джонни в новый контекст (с корабля на бал, так сказать)
DALL-E 2 и GLIDE могут не только делать Inpainting (заполнять , изменять и дорисовывать внутри выбранных юзером масок), но и заполнять это содержимое на основе текста от юзера. Что делает фотошоп будущего просто сказкой.
1) Маска левого человека (полученная от mask-rcnn)
2) Текст "фотография мужчины на кухне" помещает Джонни в новый контекст (с корабля на бал, так сказать)
🔥35👎5👍1
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Очередное путешествие в зазеркалье с помощью нейронки Instant Nerf. Автор.
Напомню, что работает как-то так: скармливаете ей 50 фотографий, ждете пол дня (instant 🌚) и потом можете «летать» внутри этого пространства которое воссоздала нейронка.
Прошлое путешествие в зазеркалье – тут
Напомню, что работает как-то так: скармливаете ей 50 фотографий, ждете пол дня (instant 🌚) и потом можете «летать» внутри этого пространства которое воссоздала нейронка.
Прошлое путешествие в зазеркалье – тут
❤18👍2
🛎 Все, что вы хотели знать о Диффузии, но боялись спросить
Пост, который сэкономил бы мне уйму времени при глубоком погружении в диффузию.
Скоро расскажу подробнее куда меня занесло ❤️
📄 Deep Unsupervised Learning using Nonequilibrium Thermodynamics 2015
С чего начался диффуз
📄 Denoising Diffusion Probabilistic Models 2020
Основная статья по DDPM. Создается актуальный фреймворк диффузии
📄 Denoising Diffusion Implicit Models 2020
DDIM — немарковский процесс в 10-50 раз быстрее DDPM
📄 Improved Denoising Diffusion Probabilistic Models 2021
Важнейший папир: фишки с параметрами, матрицами ковариации, расписаниями
📄 Diffusion Models Beat GANs on Image Synthesis 2021
Диффузия бьет SOTA и хоронит Ганы
📄 Classifier-Free Diffusion Guidance 2021
Фундаментальный концепт по семплировнию
📄 GLIDE, DALL•E 2, IMAGEN — Text2Image текущего поколения, прощай DALL•E 1
📚 Крутейший блог пост
💻 Коллекция кода и статей
📼 Видео Яныка и AI кофепаузы
p.s. картинку для поста заказал у диффузионного DALL•E 2
@мишин лернинг
Пост, который сэкономил бы мне уйму времени при глубоком погружении в диффузию.
📄 Deep Unsupervised Learning using Nonequilibrium Thermodynamics 2015
С чего начался диффуз
📄 Denoising Diffusion Probabilistic Models 2020
Основная статья по DDPM. Создается актуальный фреймворк диффузии
📄 Denoising Diffusion Implicit Models 2020
DDIM — немарковский процесс в 10-50 раз быстрее DDPM
📄 Improved Denoising Diffusion Probabilistic Models 2021
Важнейший папир: фишки с параметрами, матрицами ковариации, расписаниями
📄 Diffusion Models Beat GANs on Image Synthesis 2021
Диффузия бьет SOTA и хоронит Ганы
📄 Classifier-Free Diffusion Guidance 2021
Фундаментальный концепт по семплировнию
📄 GLIDE, DALL•E 2, IMAGEN — Text2Image текущего поколения, прощай DALL•E 1
📚 Крутейший блог пост
💻 Коллекция кода и статей
📼 Видео Яныка и AI кофепаузы
p.s. картинку для поста заказал у диффузионного DALL•E 2
@мишин лернинг
🔥28👍10❤5
🚇 Сгенерировал нейросетью кадры из Metro 2033, объявленного в розыск писателя и оппозиционера Дмитрия Глуховского
🔥52❤7👍5
🔥15👎4👍2❤1
🤖🎓 Добро пожаловать в Мишин Лернинг Клуб!
Давно хотел создать группу, где мы сможем общаться, обсуждать новости, пейперы, идеи, делиться материалами, помогать друг другу, отвечая на вопросы, делясь опытом.
Так что жду вас всех в клубе энтузиастов машинного обучения! Кроме того, клуб будет чатом канала Мишин Лернинг, где мы будем обсуждать новости.
🎓👉 В Мишин Лернинг Клуб
Давно хотел создать группу, где мы сможем общаться, обсуждать новости, пейперы, идеи, делиться материалами, помогать друг другу, отвечая на вопросы, делясь опытом.
Так что жду вас всех в клубе энтузиастов машинного обучения! Кроме того, клуб будет чатом канала Мишин Лернинг, где мы будем обсуждать новости.
🎓👉 В Мишин Лернинг Клуб
👍16❤7👎1🔥1
Forwarded from эйай ньюз
🔥Nvidia жжет напалмом! На этот раз выпустили модель для генерации динамических видео
Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.
Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.
Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."
❱ Код будет в конце лета
❱❱ Сайт проекта
@ai_newz
Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.
Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 и более сильные прыжки между контентом в точке схода перспективы.
Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."
❱ Код будет в конце лета
❱❱ Сайт проекта
@ai_newz
👍18🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
🗽 NVIDIA Создала 3D StyleGAN — EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks
EG3D — настоящее инженерное чудо. Ресерчеры взяли за основу StyleGAN 2 бэкбон, и вставили в середину графа гибридный neural rendering.
Nvidia создала новый tri-plane-based 3D GAN framework. Ресерчеры показали, что NeRF в их случае медленный, а воксели не очень масштабируются по памяти с повышением разрешения.
После нейронного рендеринга в 128х128 следует каскад супер-резолюшена в 512х512. Затем low-res ещё раз апскейлится интерполяцией и после конкатенации с mid-res картинкой, единым тензором подается на двойной дискриминатор.
StyleGAN’ы интересны тем, что способны за относительно небольшой компьют (тут 8 Tesla V100 GPUs и 8.5 дней) построить реалистичную генеративную модель в одном домене.
EG3D позволяет сразу генерировать качественную 3D геометрию, которую сеть выучивает самостоятельно!
Как же чудесно будущее 3D графики!
💻 Code
🖥 Project
📄 Paper
🎥 YouTube
@мишин_лернинг
EG3D — настоящее инженерное чудо. Ресерчеры взяли за основу StyleGAN 2 бэкбон, и вставили в середину графа гибридный neural rendering.
Nvidia создала новый tri-plane-based 3D GAN framework. Ресерчеры показали, что NeRF в их случае медленный, а воксели не очень масштабируются по памяти с повышением разрешения.
После нейронного рендеринга в 128х128 следует каскад супер-резолюшена в 512х512. Затем low-res ещё раз апскейлится интерполяцией и после конкатенации с mid-res картинкой, единым тензором подается на двойной дискриминатор.
StyleGAN’ы интересны тем, что способны за относительно небольшой компьют (тут 8 Tesla V100 GPUs и 8.5 дней) построить реалистичную генеративную модель в одном домене.
EG3D позволяет сразу генерировать качественную 3D геометрию, которую сеть выучивает самостоятельно!
Как же чудесно будущее 3D графики!
💻 Code
🖥 Project
📄 Paper
🎥 YouTube
@мишин_лернинг
❤20👍10🔥5
🏞 Какие нейросети лучше решают задачи компьютерного зрения? (Вариант «зависит от задачи» упускаю намеренно)
Anonymous Poll
19%
Трансформеры
36%
Сверточные сети
45%
🤔 С серьезным лицом посмотреть результаты
👍6🔥4😢1
👾 Используются ли в архитектуре ViT: Vision Transformer свертки?
Anonymous Poll
16%
Да, по сути это просто сверточная сеть в которой есть блоки внимания.
21%
Нет. Как раз смысл был в том, чтобы показать, что можно сделать чистый трансформер. Там нет сверток
14%
Даже не знаю как ответить. Концептуально нет, а по факту реализации есть. Но это совсем другое…
49%
🤔 С серьезным лицом посмотреть результаты.
🔥6👍2😢1
Forwarded from Derp Learning
This media is not supported in your browser
VIEW IN TELEGRAM
Собрался с силами и выкатил в ранний доступ все багфиксы и наработки на основе вашего фидбека по #warpfusion turbo+smooth. Забрать тут - Бусти.
Еще раз спасибо за поддержку и фидбек, вы супер :3
Если вам больше всего нравится первый видос слева, то вам подойдет и текущий публично-стабильный
колаб DiscoDiffusion Warp
Еще раз спасибо за поддержку и фидбек, вы супер :3
Если вам больше всего нравится первый видос слева, то вам подойдет и текущий публично-стабильный
колаб DiscoDiffusion Warp
❤31👍5
🌊 Рандомные нейропикчи от IMAGEN
Если честно, я такой красоты от DALL-E 2 не видел.. Сгенерировал Senior Research Scientist из Google Brain. Вот действительно к какой сети я бы хотел иметь доступ.
@мишин_лернинг
Если честно, я такой красоты от DALL-E 2 не видел.. Сгенерировал Senior Research Scientist из Google Brain. Вот действительно к какой сети я бы хотел иметь доступ.
@мишин_лернинг
🔥44👍2❤1👎1