🥑 DALL-E ждали? Всем ruDALL-E!
Высшая точка генерации text2image: DALL-E. В отличие от CLIP + (VQGAN / Diffusion / StyleGAN3), модели DALL-E изначально созданы (а не приспособлены) для генерации изображений из текста, архитектурно являясь GPT.
При обучении таких моделей большие изображения (256x256 или 512х512) сжимаются при помощи энкодеров dVAE или VQGAN до последовательности визуальных токенов (e.g.: 32x32). GPT теперь может работать как и текстовыми, так и с визуальными токенам. Это можно интерпретировать как последовательность, длинную строку.
Потом GPT-like архитектура принимает текстовое описание и учится генерировать эти визуальные токены, которые потом “проявляются” в высоком разрешении при помощи декодеров dVAE или VQGAN.
Запустить колаб и получить свою генерацию очень просто! Достаточно прейти по ссылке и, вписав что-то свое в поле текст (вместо text = 'изображение радуги на фоне ночного города’), выбрать Runtime -> Run all (среда выполнения -> выполнить все).
🔮colab 💻Git 👾Online Demo
Высшая точка генерации text2image: DALL-E. В отличие от CLIP + (VQGAN / Diffusion / StyleGAN3), модели DALL-E изначально созданы (а не приспособлены) для генерации изображений из текста, архитектурно являясь GPT.
При обучении таких моделей большие изображения (256x256 или 512х512) сжимаются при помощи энкодеров dVAE или VQGAN до последовательности визуальных токенов (e.g.: 32x32). GPT теперь может работать как и текстовыми, так и с визуальными токенам. Это можно интерпретировать как последовательность, длинную строку.
Потом GPT-like архитектура принимает текстовое описание и учится генерировать эти визуальные токены, которые потом “проявляются” в высоком разрешении при помощи декодеров dVAE или VQGAN.
Запустить колаб и получить свою генерацию очень просто! Достаточно прейти по ссылке и, вписав что-то свое в поле текст (вместо text = 'изображение радуги на фоне ночного города’), выбрать Runtime -> Run all (среда выполнения -> выполнить все).
🔮colab 💻Git 👾Online Demo
Forwarded from Love. Death. Transformers.
СберАИ зарелизил статью на хабр про далле
https://habr.com/ru/company/sberdevices/blog/586926/
https://habr.com/ru/company/sberdevices/blog/586926/
Хабр
ruDALL-E: генерируем изображения по текстовому описанию, или Самый большой вычислительный проект в России
2021 год в машинном обучении ознаменовался мультимодальностью — активно развиваются нейросети, работающие одновременно с изображениями, текстами, речью, музыкой. Правит балом, как обычно, OpenAI, но,...
😅 Коллекция мемов “Сосиска в Тесте”
Максимально проклятые AI мемы, сгенерированные DALL-E по воле Сергея Маркова.
Ну что.. Петросян на первой уже хороший знак
Максимально проклятые AI мемы, сгенерированные DALL-E по воле Сергея Маркова.
Ну что.. Петросян на первой уже хороший знак
Хтонический реализм в котором мы живем.
“Академическая чб фотография домов и улиц постсоветского города, лишенного всякой надежды” в предоставлении ruDALL-E.
“Академическая чб фотография домов и улиц постсоветского города, лишенного всякой надежды” в предоставлении ruDALL-E.
📻🗣 «Мишин Лернинг» приглашённый гость в подкаст Pawa Chats | Поговорим про Трансформеры
Сегодня был на YouTube, где мы с Борисом Процюком из PAWA (потом расскажу подробнее) поговорили про ИИ, современный Deep Learning, особенности ai-рынка и самую важную нейронную архитектуру современности - Трансформер.
Обсудили GPT-3, DALL-E, CLIP, T5 / T0 и даже WuDAO2.0
🔊 Послушать подкаст на ютубе
Сегодня был на YouTube, где мы с Борисом Процюком из PAWA (потом расскажу подробнее) поговорили про ИИ, современный Deep Learning, особенности ai-рынка и самую важную нейронную архитектуру современности - Трансформер.
Обсудили GPT-3, DALL-E, CLIP, T5 / T0 и даже WuDAO2.0
🔊 Послушать подкаст на ютубе
YouTube
Transformers (ML models) | Michael Konstantinov — CEO & Founder Transformer | Pawa Chats 05
#PawaChats E05 guest is Michael Konstantinov, Founder and CEO at https://transformer.community/
This week we will be talking transformers in deep learning.
A transformer is a neural network model that has proven to be especially effective for common natural…
This week we will be talking transformers in deep learning.
A transformer is a neural network model that has proven to be especially effective for common natural…
👾 EfficientZero: Быстрый, Умный и Доступный RL
RL добился успеха во многих задачах. Однако известные методы требуют для обучения миллионов (или даже миллиардов) шагов.
В последнее время мы наблюдаем прогресс в разработке эффективных алгоритмов RL, но работа таких эффективных (по количеству семплов) алгоритмов не дотягивала до человеческого уровня даже в Atari
В пейпере предлагается RL модель основанная на MuZero, которую назвали EfficientZero.
Метод достигает 116% от медианной производительности человека в тесте Atari 100k всего за два часа игры в реальном времен!
Это первый раз, когда алгоритм достигает сверхчеловеческой производительности в играх Atari, используя относительно небольшой объём данных для обучения.
Производительность EfficientZero близка к производительности DQN (на 200 миллионах семплов), при этом требует для обучения в 500 раз меньше семплов самой игры.
💻 code soon 📰 paper
RL добился успеха во многих задачах. Однако известные методы требуют для обучения миллионов (или даже миллиардов) шагов.
В последнее время мы наблюдаем прогресс в разработке эффективных алгоритмов RL, но работа таких эффективных (по количеству семплов) алгоритмов не дотягивала до человеческого уровня даже в Atari
В пейпере предлагается RL модель основанная на MuZero, которую назвали EfficientZero.
Метод достигает 116% от медианной производительности человека в тесте Atari 100k всего за два часа игры в реальном времен!
Это первый раз, когда алгоритм достигает сверхчеловеческой производительности в играх Atari, используя относительно небольшой объём данных для обучения.
Производительность EfficientZero близка к производительности DQN (на 200 миллионах семплов), при этом требует для обучения в 500 раз меньше семплов самой игры.
💻 code soon 📰 paper
психоделический трип в пространстве многоэтажной разрухи и безысходности