🦖 Почему вымерли динозавры? | Нейро(де)генеративный пост
В конце мелового периода (66 млн. лет назад) произошло великое мел-палеогеновое вымирание, в результате которого погибли все динозавры, кроме птиц. Птицы же были перелетными. Началась иммиграция пернатых диссидентов.
далее генерация:
Но вымирание динозавров произошло не из-за утечки мозгов, а по экономическим и политическим причинам, по причине полного отсутствия демократии и гражданского общества.
Пока динозавры делили ресурсы, птицы выжили, так как умели консолидировать свои действия, вырабатывали поведенческие стратегии, могли искать компромиссы, работали удаленно и не нуждались в субсидиях. Перед вымиранием ящуры объявили птиц врагами народа, имея в виду уникальность мышления птиц и их приверженность к свободе и демократии.
Таким образом, теория санкционного патриотического вымирания объясняет причины не только мел-палеогенового вымирания, но и многие другие исторические события, включая конфликты на Кавказе.
картинки: DALL•E 2
текст: GPT-3
В конце мелового периода (66 млн. лет назад) произошло великое мел-палеогеновое вымирание, в результате которого погибли все динозавры, кроме птиц. Птицы же были перелетными. Началась иммиграция пернатых диссидентов.
далее генерация:
Но вымирание динозавров произошло не из-за утечки мозгов, а по экономическим и политическим причинам, по причине полного отсутствия демократии и гражданского общества.
Пока динозавры делили ресурсы, птицы выжили, так как умели консолидировать свои действия, вырабатывали поведенческие стратегии, могли искать компромиссы, работали удаленно и не нуждались в субсидиях. Перед вымиранием ящуры объявили птиц врагами народа, имея в виду уникальность мышления птиц и их приверженность к свободе и демократии.
Таким образом, теория санкционного патриотического вымирания объясняет причины не только мел-палеогенового вымирания, но и многие другие исторические события, включая конфликты на Кавказе.
картинки: DALL•E 2
текст: GPT-3
🔥70👍6😢4👎3❤2
🤖 День рождения GPT-3 — два года! YouTube лекция: «Почему GPT-3 — начало новой эпохи в Deep Learning?»
Ровно два года назад 28 мая 2020 года вышла статья GPT-3, а именно Language Models are Few-Shot Learners.
Сложно поверить, что это было всего два года назад! За это время столько всего изменилось, что кажется, что GPT-3 это какой-то старый, всем приевшийся, золотой стандарт в NLP.
🎓 Если интеренсо как работает GPT-3 и почему именно GPT-3, а не GPT-2 это начало новой эпохи в deep learning (спойлер дело тут далеко не в спарс аттеншене, который на первый взгляд отличает GPT-3 от GPT-2), то у меня для вас отличная youtube лекция про GPT-3 и прочие Few-Shot / Zero-Shot прелести!
Ровно два года назад 28 мая 2020 года вышла статья GPT-3, а именно Language Models are Few-Shot Learners.
Сложно поверить, что это было всего два года назад! За это время столько всего изменилось, что кажется, что GPT-3 это какой-то старый, всем приевшийся, золотой стандарт в NLP.
🎓 Если интеренсо как работает GPT-3 и почему именно GPT-3, а не GPT-2 это начало новой эпохи в deep learning (спойлер дело тут далеко не в спарс аттеншене, который на первый взгляд отличает GPT-3 от GPT-2), то у меня для вас отличная youtube лекция про GPT-3 и прочие Few-Shot / Zero-Shot прелести!
🔥41👍12❤6
🐨 Все уже знают: Imagen превзошёл DALL•E 2. Но что настолько?!
Я просто хочу сказать, что языковые модели — рулят. Особенно хорошо обученные энкодеры.
DALL•E 2, чтобы понять текст, должен сначала съесть его текстовой частью нейросети CLIP, потом отобразить в картиночный манифолд при помощи prior модели, и только потом отдиффузить это представление через unCLIP (который только на унимодально с изображениями работал) и через все апскейл каскады (которые уже совсем оторваны от текста) в пространство пикселей.
Давайте просто посмотрим, наладимся и вдумаемся — насколько глубокое понимание текста у нейросети Imagen! Все гениальное — просто.
Картинка слева: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods is all you need’, внизу в растерянности стоят несколько котят»
Картинка справа: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods’, внизу в растерянности стоят несколько котят»
mishin_learning
Я просто хочу сказать, что языковые модели — рулят. Особенно хорошо обученные энкодеры.
DALL•E 2, чтобы понять текст, должен сначала съесть его текстовой частью нейросети CLIP, потом отобразить в картиночный манифолд при помощи prior модели, и только потом отдиффузить это представление через unCLIP (который только на унимодально с изображениями работал) и через все апскейл каскады (которые уже совсем оторваны от текста) в пространство пикселей.
Давайте просто посмотрим, наладимся и вдумаемся — насколько глубокое понимание текста у нейросети Imagen! Все гениальное — просто.
Картинка слева: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods is all you need’, внизу в растерянности стоят несколько котят»
Картинка справа: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods’, внизу в растерянности стоят несколько котят»
mishin_learning
❤40👍24🔥5👎3
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Задачу генерации картинок из текста можно считать решенной — поэтому исследователи постепенно переходят к задаче «А давайте генерировать целые гифки по текстовому описанию».
Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.
Кода пока нет, но по видимому будет тут.
У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками
@Denis
Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.
Кода пока нет, но по видимому будет тут.
У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками
@Denis
❤31👍15👎2🔥2
Forwarded from Neural Shit
Развлекаю себя как могу: сижу и генерирую Ктулхуризированные советские плакаты. Принес сюда, пусть тут тоже будут
❤47👍18🔥8👎3