Мишин Лернинг 🇺🇦🇮🇱
7.89K subscribers
1.17K photos
141 videos
4 files
635 links
Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта.
Download Telegram
🦖 Почему вымерли динозавры? | Нейро(де)генеративный пост

В конце мелового периода (66 млн. лет назад) произошло великое мел-палеогеновое вымирание, в результате которого погибли все динозавры, кроме птиц. Птицы же были перелетными. Началась иммиграция пернатых диссидентов.

далее генерация:


Но вымирание динозавров произошло не из-за утечки мозгов, а по экономическим и политическим причинам, по причине полного отсутствия демократии и гражданского общества.

Пока динозавры делили ресурсы, птицы выжили, так как умели консолидировать свои действия, вырабатывали поведенческие стратегии, могли искать компромиссы, работали удаленно и не нуждались в субсидиях. Перед вымиранием ящуры объявили птиц врагами народа, имея в виду уникальность мышления птиц и их приверженность к свободе и демократии.

Таким образом, теория санкционного патриотического вымирания объясняет причины не только мел-палеогенового вымирания, но и многие другие исторические события, включая конфликты на Кавказе.

картинки: DALL•E 2
текст: GPT-3
🔥70👍6😢4👎32
🤖 День рождения GPT-3 — два года! YouTube лекция: «Почему GPT-3 — начало новой эпохи в Deep Learning?»

Ровно два года назад 28 мая 2020 года вышла статья GPT-3, а именно Language Models are Few-Shot Learners.

Сложно поверить, что это было всего два года назад! За это время столько всего изменилось, что кажется, что GPT-3 это какой-то старый, всем приевшийся, золотой стандарт в NLP.

🎓 Если интеренсо как работает GPT-3 и почему именно GPT-3, а не GPT-2 это начало новой эпохи в deep learning (спойлер дело тут далеко не в спарс аттеншене, который на первый взгляд отличает GPT-3 от GPT-2), то у меня для вас отличная youtube лекция про GPT-3 и прочие Few-Shot / Zero-Shot прелести!
🔥41👍126
🐨 Все уже знают: Imagen превзошёл DALL•E 2. Но что настолько?!

Я просто хочу сказать, что языковые модели — рулят. Особенно хорошо обученные энкодеры.

DALL•E 2, чтобы понять текст, должен сначала съесть его текстовой частью нейросети CLIP, потом отобразить в картиночный манифолд при помощи prior модели, и только потом отдиффузить это представление через unCLIP (который только на унимодально с изображениями работал) и через все апскейл каскады (которые уже совсем оторваны от текста) в пространство пикселей.

Давайте просто посмотрим, наладимся и вдумаемся — насколько глубокое понимание текста у нейросети Imagen! Все гениальное — просто.

Картинка слева:
«Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods is all you need’, внизу в растерянности стоят несколько котят»

Картинка справа:
«Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods’, внизу в растерянности стоят несколько котят»

mishin_learning
40👍24🔥5👎3
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Задачу генерации картинок из текста можно считать решенной — поэтому исследователи постепенно переходят к задаче «А давайте генерировать целые гифки по текстовому описанию».

Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.

Кода пока нет, но по видимому будет тут.

У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками

@Denis
31👍15👎2🔥2
Forwarded from Neural Shit
Развлекаю себя как могу: сижу и генерирую Ктулхуризированные советские плакаты. Принес сюда, пусть тут тоже будут
47👍18🔥8👎3
⚓️ Нейронные одесские анекдоты, таки от GPT

мишин лернинг
48👍27👎15🔥4