Мишин Лернинг 🇺🇦🇮🇱
7.9K subscribers
1.17K photos
141 videos
4 files
634 links
Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта.
Download Telegram
Forwarded from Neural Shit
О, тут выкатили веб интерфейс Stylegan-Nada, можно потестить прям онлайн. Работает быстро (но под нагрузкой может и тупить). На прикреплённом фото пример с Ельциным и всеми поддерживаемыми стилями

Понажимать можно тут: https://replicate.ai/rinongal/stylegan-nada

Ежели под нагрузкой будет тупить, а вам не лень пердолиться с колабом, то вот ссылка

Если получится что-то годное, делитесь в личку
This media is not supported in your browser
VIEW IN TELEGRAM
⚠️🎓 Лекция от Kha Vu, Microsoft | Deep Metric Learning

В этот четверг мы ждем тебя на крутейшем вебинаре!

Лектор: Kha Vu, Microsoft
🔍 Отвечает за поисковой движок и ранжирование изображений в Bing Image Search
📇 Блог Kha Vu

Что будет на лекции:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are their limitations?
▪️Contrastive, Triplet, and N-Pair losses
▪️Angular margin approaches
▪️In which cases are they better than Contrastive approaches?
▪️ArcFace, CosFace, and other SOTA methods
▪️A survey of how Metric Learning is used to solve real-world and Kaggle problems

Ссылки и полезные материалы придут по почте по итогам лекции

📅 19-30 (этот четверг) 7 октября
🎓 Онлайн и бесплатно (по регистрации)
👉 ссылка на лекцию в Transformer
Персонажи игры Sims 5 по мнению CLIP и StyleGAN-NADA
🎓 Курс по Geometric Deep Learning (AMMI 2021)

Собрал ссылки на видео (доступ только по ссылке) и слайды с отличного курса для тех, кто хотел современной теории и геометрического глубокого облучения головного мозга.

L1: Introduction
📼 Recording 📇 Slides

L2: High-Dimensional Learning
📼 Recording 📇 Slides

L3: Geometric Priors I
📼 Recording 📇 Slides

L4: Geometric Priors II
📼 Recording 📇 Slides

L5: Graphs & Sets
📼 Recording 📇 Slides

L6: Graphs & Sets II
📼 Recording 📇 Slides

L7: Grids
📼 Recording 📇 Slides

L8: Groups
📼 Recording 📇 Slides

L9: Geodesics & Manifolds
📼 Recording 📇 Slides

L10: Gauges
📼 Recording 📇 Slides

L11: Sequences & Time
📼 Recording 📇 Slides

L12: Conclusions
📼 Recording 📇 Slides

upd: проапдейчу, как зальют остальные слайды и записи

p.s.: Спасибо Ивану Слобожану за подгон!
🧬🏆 Deep Mind создал AlphaFold-Multimer для нейросетевого прогнозирование целых белковых комплексов!

Хотя подавляющее большинство одиночных белковых третичных конфигураций теперь можно предсказать с высокой точностью благодаря недавней модели AlphaFold, предсказание многоцепочечных белковых комплексов во большенстве случаев остается проблемой.

Deep Mind представили AlphaFold-Multimer, модель AlphaFold, специально обученную для мультимерных входных данных, которая может предсказывать структуру многоцепочечных белковых комплексов с повышенной точностью.

В основе большинства биологических процессов лежит образование белковых комплексов, поэтому знание того, какую конфигурацию они образуют, является ключевым шагом к пониманию их функции. Deep Mind считает, что эта работа позволит биологам еще сильнее ускорить недавний прогресс в структурной биоинформатике!

📰 paper
Forwarded from Denis Sexy IT 🤖
Наткнулся на полезную нейронку для экспериментаторов умеющих в программирование – она возвращает координаты поз людей, лиц, эмоций, рук, пальцев и все это по одной картинки.

Раньше нужно было 3-4 разных алгоритма для этого, а теперь вот достаточно одного.

Вдруг кому-то полезно будет, а еще этим способом можно генерировать клевые иллюстрации к статьям про ИИ 🌚

Онлайн демо | Код
This media is not supported in your browser
VIEW IN TELEGRAM
🕺Keypoint Communities (human/object pose estimation)

Быстрый метод, который в один прогон обнаруживает более 100 ключевых точек на людях или объектах, для задачи human/object pose estimation.

Эксперименты показывают, что метод превосходит все предыдущие оценки позs человека с детальными аннотациями ключевых точек на лице, руках и ногах (всего 133 ключевых точек).

Метод подходит и для на оценки “позы” (ориентации) автомобилей.

📰 paper 💻 code 🤗 demo
This media is not supported in your browser
VIEW IN TELEGRAM
🎓 Сегодня в 19-30 | Deep Metric Learning | Microsoft | Transformer

Must have лекция по Metric Learning:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are their limitations?
▪️Contrastive, Triplet, and N-Pair losses
▪️Angular margin approaches
▪️In which cases are they better than Contrastive approaches?
▪️ArcFace, CosFace, and other SOTA methods
▪️A survey of how Metric Learning is used to solve real-world and Kaggle problems

Я скину ссылку на лекцию в 17-30, и сделаю напоминание перед началом. До встречи вечером!

на лекцию
This media is not supported in your browser
VIEW IN TELEGRAM
🏆 Facebook AI представили две крутейшие 3D нейронки на ICCV2021: 3DETR и DepthContrast

Понимание 3D на основе трансформера и self-supervised learning’a. И да, есть код и обученные модели!

▪️DepthContrast:
Супервайзд претрейн на огромных датасетах стал основным инструментом для разработки моделей компьютерного зрения. Хотя подход отлично работает для многих доменов, он не получил широкого распространения для задач 3D распознавания.

🛋 Пример: ’определение местоположения дивана на трехмерном скане гостиной’.

Собрать и разметить огромный 3D датасет — колоссальная работа. DepthContrast self-supervised претрейн, предложенный FAIR, не требует аннотации.

▪️3DETR:
An End-to-End Transformer Model for 3D Object Detection (3D DEtection TRansformer) без inductive bias.

🗺 На gif‘ке показана карта внимания декодера трансформера 3DETR, изолирующая отдельный объекты. Декодер юзает в основном эту инфу при предсказании 3D-bbox’ов.

📇 подробнее на блоге FAIR

3DETR: 📰 paper 💻 code
DepthContrast: 📰 paper 💻 code
This media is not supported in your browser
VIEW IN TELEGRAM
🤖⚡️ Лекция Speeding Up ML Pipelines от «Мишин Лернинг» | Иван Слобожан, Sr Researcher at SQUAD

Must have для всех, кто жаждет серьезной ML практики от топового ml инженера и ресерчера Ивана Слобожана!

Что будет на лекции Speeding UP machine learning pipelines part I:

▪️Pipeline performance analysis using TF Profiler
▪️Optimizing data pipeline using tf. data API
▪️Preprocessing vs Model bottleneck
▪️Accelerating data preprocessing using DALI
▪️Distributed training using Horovod

Please, note, this will be a more practical lecture with examples rather than theoretical.

Ссылки и материалы придут по почте по итогам лекции

📅 19-30 (этот четверг) 14 октября
🎓 Онлайн и бесплатно (по регистрации)
👉 ссылка на лекцию в Transformer
🏆 MT-NLG от NVIDIA (2021) в 3x раза больше GPT-3 от OpenAI (2020)

Наследник Turing NLG 17B и Megatron-LM, MT-NLG имеет в 3 раза больше параметров (530B) по сравнению с крупнейшей языковой моделью этого типа (GPT-3, 175B) и показывает превосходную точность в широком наборе задач естественного языка, таких как:

▪️Продолжение текста
▪️Понимание прочитанного
▪️Обоснование
▪️Вывод на естественном языке
▪️Устранение неоднозначности в смысле слов

105-слойный трансформер MT-NLG, обученный благодаря коллаборация между NVIDIA Megatron-LM и Microsoft DeepSpeed (эффективное масштабирование и 3D параллелизм) бьет SOTA в zero- one- few-shot learning’е оставляя в прошлом, известную всеми, GPT-3.

📇 подробнее: blog NVIDIA
Media is too big
VIEW IN TELEGRAM
🎴 NVIDIA выкатили StyleGAN3

Сегодня NVIDIA выложила в доступ код и модели сети StyleGAN3, которую описали 23 июня 2021 в пейпере Alias-Free Generative Adversarial Networks.

Имя StyleGAN3 планировали дать в день публикации кода и моделей.

⚠️ Проблема StyleGAN
В процессе иерархического синтеза StyleGAN’ами изображений возникает нездоровая зависимость паттернов от абсолютных пиксельных координат. Это проявляется, например, в том, что текстура кажется приклеенной к координатам изображения, а не к поверхностям изображаемых объектов.

Решение или основная идея StyleGAN3
Ресерчеры из NVIDIA и Aalto University нашли основную причину из-за которой возникает aliasing в сети генератора, и добились “эквивариантности за счет непрерывной интерпретации сигнала”. По факту перешли из дискретных репрезентаций в континуальные [смотри видео к посту]. Спасибо Клоду Шеннону и теореме Котельникова!

Результаты открывают путь для GAN’ов к качественной и стабильной генерации видеоконтента.

🤖 сайт 💻 код 📰 paper 🔮 colab
This media is not supported in your browser
VIEW IN TELEGRAM
StyleGAN3 одновременно выигрывает и определенно страдает от перехода на континуальные периодические функции для внутренних репрезентаций

Как говорил Фридрих Ницше: “Новым GANам нужны новые артефакты“, иначе процесс встанет. Ну теперь знаем что улучшать, хотя змеиный периодический паттерн достаточно логичный артефакт для новой архитектуры.
Хотим попробовать новый формат: одна лекция - один пейпер. По какой нейронной сети / пейперу была бы интересна лекция от “Мишин Лернинг” в transformer.community?
Anonymous Poll
45%
CLIP
17%
ResNet Strikes Back
6%
SimVLM
49%
StyleGAN3
11%
StyleGAN-NADA
11%
Real-ESRGAN
22%
Swin Transformer
16%
CoAtNet
15%
MLP Mixer
25%
Self-training with Noisy Student