Мишин Лернинг 🇺🇦🇮🇱
7.89K subscribers
1.17K photos
141 videos
4 files
635 links
Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта.
Download Telegram
🥑 DALL-E ждали? Всем ruDALL-E!

Высшая точка генерации text2image: DALL-E. В отличие от CLIP + (VQGAN / Diffusion / StyleGAN3), модели DALL-E изначально созданы (а не приспособлены) для генерации изображений из текста, архитектурно являясь GPT.

При обучении таких моделей большие изображения (256x256 или 512х512) сжимаются при помощи энкодеров dVAE или VQGAN до последовательности визуальных токенов (e.g.: 32x32). GPT теперь может работать как и текстовыми, так и с визуальными токенам. Это можно интерпретировать как последовательность, длинную строку.

Потом GPT-like архитектура принимает текстовое описание и учится генерировать эти визуальные токены, которые потом “проявляются” в высоком разрешении при помощи декодеров dVAE или VQGAN.

Запустить колаб и получить свою генерацию очень просто! Достаточно прейти по ссылке и, вписав что-то свое в поле текст (вместо text = 'изображение радуги на фоне ночного города’), выбрать Runtime -> Run all (среда выполнения -> выполнить все).

🔮colab 💻Git 👾Online Demo
😅 Коллекция мемов “Сосиска в Тесте”

Максимально проклятые AI мемы, сгенерированные DALL-E по воле Сергея Маркова.

Ну что.. Петросян на первой уже хороший знак
Хтонический реализм в котором мы живем.

Академическая чб фотография домов и улиц постсоветского города, лишенного всякой надежды” в предоставлении ruDALL-E.
Forwarded from Derp Learning
простити
📻🗣 «Мишин Лернинг» приглашённый гость в подкаст Pawa Chats | Поговорим про Трансформеры

Сегодня был на YouTube, где мы с Борисом Процюком из PAWA (потом расскажу подробнее) поговорили про ИИ, современный Deep Learning, особенности ai-рынка и самую важную нейронную архитектуру современности - Трансформер.

Обсудили GPT-3, DALL-E, CLIP, T5 / T0 и даже WuDAO2.0

🔊 Послушать подкаст на ютубе
👾 EfficientZero: Быстрый, Умный и Доступный RL

RL добился успеха во многих задачах. Однако известные методы требуют для обучения миллионов (или даже миллиардов) шагов.

В последнее время мы наблюдаем прогресс в разработке эффективных алгоритмов RL, но работа таких эффективных (по количеству семплов) алгоритмов не дотягивала до человеческого уровня даже в Atari

В пейпере предлагается RL модель основанная на MuZero, которую назвали EfficientZero.

Метод достигает 116% от медианной производительности человека в тесте Atari 100k всего за два часа игры в реальном времен!

Это первый раз, когда алгоритм достигает сверхчеловеческой производительности в играх Atari, используя относительно небольшой объём данных для обучения.

Производительность EfficientZero близка к производительности DQN (на 200 миллионах семплов), при этом требует для обучения в 500 раз меньше семплов самой игры.


💻 code soon 📰 paper
психоделический трип в пространстве многоэтажной разрухи и безысходности