This media is not supported in your browser
VIEW IN TELEGRAM
👾 arXiv DOOM: Reject ‘Em ALL
Шел 2021 год. На arXiv каждый день появлялись новые статьи! Скоро их станет слишком много! Экспоненциально много!
Вы боец спецподразделения ДСР: Двойного Слепого Рецензирования!
Вам позволено бороться с сотней самых последних статей в категории cs. CV!
Главное зареджектить новый пейпер Яна ЛеКуна!
👹 arXiv DOOM Играй прямо в браузере!
Шел 2021 год. На arXiv каждый день появлялись новые статьи! Скоро их станет слишком много! Экспоненциально много!
Вы боец спецподразделения ДСР: Двойного Слепого Рецензирования!
Вам позволено бороться с сотней самых последних статей в категории cs. CV!
Главное зареджектить новый пейпер Яна ЛеКуна!
👹 arXiv DOOM Играй прямо в браузере!
Forwarded from Denis Sexy IT 🤖
Помните я как-то писал про нейронку из Китая CogView, которая генерирует любой текст в картинки, и делает это на довольно крутом уровне?
Так вот, с того момента чуваки передали интерфейс и ей наконец-то стало возможно нормально пользоваться:
1) Переходите по ссылке
2) Нажимаете "English Display" 🌚
3) Вводите ваш запрос в "Image Description"
4) Нажимаете кнопку с иероглифом перевода и стрелочку вправо
5) Та-да, вы прекрасны
Я поигрался немного, вот вам коллекция котиков за офисными задачами.
P.S. Если лень придумывать запросы на английском, то вот классный переводчик с русского на английский.
Так вот, с того момента чуваки передали интерфейс и ей наконец-то стало возможно нормально пользоваться:
1) Переходите по ссылке
2) Нажимаете "English Display" 🌚
3) Вводите ваш запрос в "Image Description"
4) Нажимаете кнопку с иероглифом перевода и стрелочку вправо
5) Та-да, вы прекрасны
Я поигрался немного, вот вам коллекция котиков за офисными задачами.
P.S. Если лень придумывать запросы на английском, то вот классный переводчик с русского на английский.
MixNMatch: Декомпозиция Стиля, Позы, Формы и «культурного» Бэкграунда
Изображения x пропускают через 4 энкодера:
▪️Ez(x) - кодирует латентщину
▪️Eb(x) - задник (бекнраунд)
▪️Ep(x) - позу
▪️Ec(x) - стиль, текстуру
Затем взад-назад. Из z, b, p, c генерят картинки:
▪️сначала из b, z - задник
▪️потом на него наносят маску позы из z, p
▪️а потом стильно полируют текстурой из z, c
на все три стейджа - 3 лосса
При этом ещё 4 адверсариал лосса учат истинность и ложность пар изображения и их кодировок.
📰 папир 💻 имплементация
Изображения x пропускают через 4 энкодера:
▪️Ez(x) - кодирует латентщину
▪️Eb(x) - задник (бекнраунд)
▪️Ep(x) - позу
▪️Ec(x) - стиль, текстуру
Затем взад-назад. Из z, b, p, c генерят картинки:
▪️сначала из b, z - задник
▪️потом на него наносят маску позы из z, p
▪️а потом стильно полируют текстурой из z, c
на все три стейджа - 3 лосса
При этом ещё 4 адверсариал лосса учат истинность и ложность пар изображения и их кодировок.
📰 папир 💻 имплементация
Эволюция AI мемов и few-shot для самых маленьких
С мемов про detection и котика, распознанного как пса, к мемам про few-shot learning.
Это говорит о том, что zero-shot / few-shot (обучение без ‘обучения’) входит в общественное сознание, возможно не терминологически, а именно концептуально.
p.s. протестил на GPT-J-6B. Работает, хоть и не идеально.. теперь понимаю почему страдают jun’ы
🧠 GPT-J-6B опробовать GPT с 6,000,000,000 параметров самому онлайн
С мемов про detection и котика, распознанного как пса, к мемам про few-shot learning.
Это говорит о том, что zero-shot / few-shot (обучение без ‘обучения’) входит в общественное сознание, возможно не терминологически, а именно концептуально.
p.s. протестил на GPT-J-6B. Работает, хоть и не идеально.. теперь понимаю почему страдают jun’ы
🧠 GPT-J-6B опробовать GPT с 6,000,000,000 параметров самому онлайн
Forwarded from Derp Learning
AMD has joined the game.
Microsoft вместе с PyTorch выкатили новый бэкенд - DirectML.
Позволяет крутить эти ваши нейронки на любых DirectX12-совместимых девайсах и в WSL, без танцев с CUDA.
Наконец-то AMD сможет полноценно ворваться в гонку, хоспаде.
Набор операторов пока очень ограничен, но это отличный вектор развития.
Юзается легко - просто заменяете device с 'cuda' на 'dml'.
гит
пост
Microsoft вместе с PyTorch выкатили новый бэкенд - DirectML.
Позволяет крутить эти ваши нейронки на любых DirectX12-совместимых девайсах и в WSL, без танцев с CUDA.
Наконец-то AMD сможет полноценно ворваться в гонку, хоспаде.
Набор операторов пока очень ограничен, но это отличный вектор развития.
Юзается легко - просто заменяете device с 'cuda' на 'dml'.
гит
пост
📣🤗 T0 — Быстрее, умнее и легче GPT-3 в 16 раз + собрал Colab | Zero-Shot NLP
Объясню разницу между T0 и GPT-3 через аналогию:
▪️ GPT-3 — ребенка заперли в большой библиотеке и сказали: читай. GPT-3 училась предсказывать следующие слова в текстах.
▪️ T0 — ребенка помладше посадили в библиотеку, но уже с преподавателем, который натаскивал его к олимпиадам. Взяв 62 датасета, дообучили T5 (11B) на специальных задачах.
T0 в 16x меньше GPT-3 и обходит GPT-3 на 9 из 11 сетах!
Создал сolab (3B, 100ms) для быстрого решения многих nlp задач, ведь T0 и GPT-3 — нейросети, которые можно не дообучать!
▫️Суммаризация начала “Generation П”:
“In the seventies, the Soviet Union was a country of children who drank Pe”
▫️Суммаризация абстракта DALL·E:
“A computer program has been trained to create a wide range of images from text”
▫️“Самое большое здание в мире?”:
“The Burj Khalifa”
▫️“А - сын дяди Б. Каковы семейные отношения между А и Б?”:
“B is A's cousin.”
📰 Paper 🤗 demo 🔮 T0 Colab от @mishin_learning
Объясню разницу между T0 и GPT-3 через аналогию:
▪️ GPT-3 — ребенка заперли в большой библиотеке и сказали: читай. GPT-3 училась предсказывать следующие слова в текстах.
▪️ T0 — ребенка помладше посадили в библиотеку, но уже с преподавателем, который натаскивал его к олимпиадам. Взяв 62 датасета, дообучили T5 (11B) на специальных задачах.
T0 в 16x меньше GPT-3 и обходит GPT-3 на 9 из 11 сетах!
Создал сolab (3B, 100ms) для быстрого решения многих nlp задач, ведь T0 и GPT-3 — нейросети, которые можно не дообучать!
▫️Суммаризация начала “Generation П”:
“In the seventies, the Soviet Union was a country of children who drank Pe”
▫️Суммаризация абстракта DALL·E:
“A computer program has been trained to create a wide range of images from text”
▫️“Самое большое здание в мире?”:
“The Burj Khalifa”
▫️“А - сын дяди Б. Каковы семейные отношения между А и Б?”:
“B is A's cousin.”
📰 Paper 🤗 demo 🔮 T0 Colab от @mishin_learning