Forwarded from Neural Shit
О, тут выкатили веб интерфейс Stylegan-Nada, можно потестить прям онлайн. Работает быстро (но под нагрузкой может и тупить). На прикреплённом фото пример с Ельциным и всеми поддерживаемыми стилями
Понажимать можно тут: https://replicate.ai/rinongal/stylegan-nada
Ежели под нагрузкой будет тупить, а вам не лень пердолиться с колабом, то вот ссылка
Если получится что-то годное, делитесь в личку
Понажимать можно тут: https://replicate.ai/rinongal/stylegan-nada
Ежели под нагрузкой будет тупить, а вам не лень пердолиться с колабом, то вот ссылка
Если получится что-то годное, делитесь в личку
This media is not supported in your browser
VIEW IN TELEGRAM
⚠️🎓 Лекция от Kha Vu, Microsoft | Deep Metric Learning
В этот четверг мы ждем тебя на крутейшем вебинаре!
Лектор: Kha Vu, Microsoft
🔍 Отвечает за поисковой движок и ранжирование изображений в Bing Image Search
📇 Блог Kha Vu
Что будет на лекции:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are their limitations?
▪️Contrastive, Triplet, and N-Pair losses
▪️Angular margin approaches
▪️In which cases are they better than Contrastive approaches?
▪️ArcFace, CosFace, and other SOTA methods
▪️A survey of how Metric Learning is used to solve real-world and Kaggle problems
Ссылки и полезные материалы придут по почте по итогам лекции
📅 19-30 (этот четверг) 7 октября
🎓 Онлайн и бесплатно (по регистрации)
👉 ссылка на лекцию в Transformer
В этот четверг мы ждем тебя на крутейшем вебинаре!
Лектор: Kha Vu, Microsoft
🔍 Отвечает за поисковой движок и ранжирование изображений в Bing Image Search
📇 Блог Kha Vu
Что будет на лекции:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are their limitations?
▪️Contrastive, Triplet, and N-Pair losses
▪️Angular margin approaches
▪️In which cases are they better than Contrastive approaches?
▪️ArcFace, CosFace, and other SOTA methods
▪️A survey of how Metric Learning is used to solve real-world and Kaggle problems
Ссылки и полезные материалы придут по почте по итогам лекции
📅 19-30 (этот четверг) 7 октября
🎓 Онлайн и бесплатно (по регистрации)
👉 ссылка на лекцию в Transformer
🎓 Курс по Geometric Deep Learning (AMMI 2021)
Собрал ссылки на видео (доступ только по ссылке) и слайды с отличного курса для тех, кто хотел современной теории и геометрического глубокого облучения головного мозга.
L1: Introduction
📼 Recording 📇 Slides
L2: High-Dimensional Learning
📼 Recording 📇 Slides
L3: Geometric Priors I
📼 Recording 📇 Slides
L4: Geometric Priors II
📼 Recording 📇 Slides
L5: Graphs & Sets
📼 Recording 📇 Slides
L6: Graphs & Sets II
📼 Recording 📇 Slides
L7: Grids
📼 Recording 📇 Slides
L8: Groups
📼 Recording 📇 Slides
L9: Geodesics & Manifolds
📼 Recording 📇 Slides
L10: Gauges
📼 Recording 📇 Slides
L11: Sequences & Time
📼 Recording 📇 Slides
L12: Conclusions
📼 Recording 📇 Slides
upd: проапдейчу, как зальют остальные слайды и записи
p.s.: Спасибо Ивану Слобожану за подгон!
Собрал ссылки на видео (доступ только по ссылке) и слайды с отличного курса для тех, кто хотел современной теории и геометрического глубокого облучения головного мозга.
L1: Introduction
📼 Recording 📇 Slides
L2: High-Dimensional Learning
📼 Recording 📇 Slides
L3: Geometric Priors I
📼 Recording 📇 Slides
L4: Geometric Priors II
📼 Recording 📇 Slides
L5: Graphs & Sets
📼 Recording 📇 Slides
L6: Graphs & Sets II
📼 Recording 📇 Slides
L7: Grids
📼 Recording 📇 Slides
L8: Groups
📼 Recording 📇 Slides
L9: Geodesics & Manifolds
📼 Recording 📇 Slides
L10: Gauges
📼 Recording 📇 Slides
L11: Sequences & Time
📼 Recording 📇 Slides
L12: Conclusions
📼 Recording 📇 Slides
upd: проапдейчу, как зальют остальные слайды и записи
p.s.: Спасибо Ивану Слобожану за подгон!
🧬🏆 Deep Mind создал AlphaFold-Multimer для нейросетевого прогнозирование целых белковых комплексов!
Хотя подавляющее большинство одиночных белковых третичных конфигураций теперь можно предсказать с высокой точностью благодаря недавней модели AlphaFold, предсказание многоцепочечных белковых комплексов во большенстве случаев остается проблемой.
Deep Mind представили AlphaFold-Multimer, модель AlphaFold, специально обученную для мультимерных входных данных, которая может предсказывать структуру многоцепочечных белковых комплексов с повышенной точностью.
В основе большинства биологических процессов лежит образование белковых комплексов, поэтому знание того, какую конфигурацию они образуют, является ключевым шагом к пониманию их функции. Deep Mind считает, что эта работа позволит биологам еще сильнее ускорить недавний прогресс в структурной биоинформатике!
📰 paper
Хотя подавляющее большинство одиночных белковых третичных конфигураций теперь можно предсказать с высокой точностью благодаря недавней модели AlphaFold, предсказание многоцепочечных белковых комплексов во большенстве случаев остается проблемой.
Deep Mind представили AlphaFold-Multimer, модель AlphaFold, специально обученную для мультимерных входных данных, которая может предсказывать структуру многоцепочечных белковых комплексов с повышенной точностью.
В основе большинства биологических процессов лежит образование белковых комплексов, поэтому знание того, какую конфигурацию они образуют, является ключевым шагом к пониманию их функции. Deep Mind считает, что эта работа позволит биологам еще сильнее ускорить недавний прогресс в структурной биоинформатике!
📰 paper
Forwarded from Denis Sexy IT 🤖
Наткнулся на полезную нейронку для экспериментаторов умеющих в программирование – она возвращает координаты поз людей, лиц, эмоций, рук, пальцев и все это по одной картинки.
Раньше нужно было 3-4 разных алгоритма для этого, а теперь вот достаточно одного.
Вдруг кому-то полезно будет, а еще этим способом можно генерировать клевые иллюстрации к статьям про ИИ 🌚
Онлайн демо | Код
Раньше нужно было 3-4 разных алгоритма для этого, а теперь вот достаточно одного.
Вдруг кому-то полезно будет, а еще этим способом можно генерировать клевые иллюстрации к статьям про ИИ 🌚
Онлайн демо | Код
This media is not supported in your browser
VIEW IN TELEGRAM
🕺Keypoint Communities (human/object pose estimation)
Быстрый метод, который в один прогон обнаруживает более 100 ключевых точек на людях или объектах, для задачи human/object pose estimation.
Эксперименты показывают, что метод превосходит все предыдущие оценки позs человека с детальными аннотациями ключевых точек на лице, руках и ногах (всего 133 ключевых точек).
Метод подходит и для на оценки “позы” (ориентации) автомобилей.
📰 paper 💻 code 🤗 demo
Быстрый метод, который в один прогон обнаруживает более 100 ключевых точек на людях или объектах, для задачи human/object pose estimation.
Эксперименты показывают, что метод превосходит все предыдущие оценки позs человека с детальными аннотациями ключевых точек на лице, руках и ногах (всего 133 ключевых точек).
Метод подходит и для на оценки “позы” (ориентации) автомобилей.
📰 paper 💻 code 🤗 demo
This media is not supported in your browser
VIEW IN TELEGRAM
🎓 Сегодня в 19-30 | Deep Metric Learning | Microsoft | Transformer
Must have лекция по Metric Learning:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are their limitations?
▪️Contrastive, Triplet, and N-Pair losses
▪️Angular margin approaches
▪️In which cases are they better than Contrastive approaches?
▪️ArcFace, CosFace, and other SOTA methods
▪️A survey of how Metric Learning is used to solve real-world and Kaggle problems
Я скину ссылку на лекцию в 17-30, и сделаю напоминание перед началом. До встречи вечером!
на лекцию
Must have лекция по Metric Learning:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are their limitations?
▪️Contrastive, Triplet, and N-Pair losses
▪️Angular margin approaches
▪️In which cases are they better than Contrastive approaches?
▪️ArcFace, CosFace, and other SOTA methods
▪️A survey of how Metric Learning is used to solve real-world and Kaggle problems
Я скину ссылку на лекцию в 17-30, и сделаю напоминание перед началом. До встречи вечером!
на лекцию
🎓 Лекция от Kha Vu, Microsoft | Deep Metric Learning
Что на лекции: Metric Learning to solve real-world and Kaggle problems, Contrastive, Triplet and N-Pair losses, Angular margin, ArcFace, CosFace и многое другое
👉 https://youtu.be/aU9yEwgrJ54
Что на лекции: Metric Learning to solve real-world and Kaggle problems, Contrastive, Triplet and N-Pair losses, Angular margin, ArcFace, CosFace и многое другое
👉 https://youtu.be/aU9yEwgrJ54
YouTube
Deep Metric Learning | Contrastive, N-Pair, Triplet Loss, ArcFace, CosFace | Kaggle | Transformer
Deep Metric Learning от Kha Vu, Microsoft. Transformer | Прогрессивное ML комьюнити
Must have лекция по Metric Learning:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are…
Must have лекция по Metric Learning:
▪️ What is Metric Learning, and why do we need it?
▪️ Contrastive approaches
▪️ When can they produce good results, and what are…
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🏆 Facebook AI представили две крутейшие 3D нейронки на ICCV2021: 3DETR и DepthContrast
Понимание 3D на основе трансформера и self-supervised learning’a. И да, есть код и обученные модели!
▪️DepthContrast:
Супервайзд претрейн на огромных датасетах стал основным инструментом для разработки моделей компьютерного зрения. Хотя подход отлично работает для многих доменов, он не получил широкого распространения для задач 3D распознавания.
🛋 Пример: ’определение местоположения дивана на трехмерном скане гостиной’.
Собрать и разметить огромный 3D датасет — колоссальная работа. DepthContrast self-supervised претрейн, предложенный FAIR, не требует аннотации.
▪️3DETR:
An End-to-End Transformer Model for 3D Object Detection (3D DEtection TRansformer) без inductive bias.
🗺 На gif‘ке показана карта внимания декодера трансформера 3DETR, изолирующая отдельный объекты. Декодер юзает в основном эту инфу при предсказании 3D-bbox’ов.
📇 подробнее на блоге FAIR
3DETR: 📰 paper 💻 code
DepthContrast: 📰 paper 💻 code
Понимание 3D на основе трансформера и self-supervised learning’a. И да, есть код и обученные модели!
▪️DepthContrast:
Супервайзд претрейн на огромных датасетах стал основным инструментом для разработки моделей компьютерного зрения. Хотя подход отлично работает для многих доменов, он не получил широкого распространения для задач 3D распознавания.
🛋 Пример: ’определение местоположения дивана на трехмерном скане гостиной’.
Собрать и разметить огромный 3D датасет — колоссальная работа. DepthContrast self-supervised претрейн, предложенный FAIR, не требует аннотации.
▪️3DETR:
An End-to-End Transformer Model for 3D Object Detection (3D DEtection TRansformer) без inductive bias.
🗺 На gif‘ке показана карта внимания декодера трансформера 3DETR, изолирующая отдельный объекты. Декодер юзает в основном эту инфу при предсказании 3D-bbox’ов.
📇 подробнее на блоге FAIR
3DETR: 📰 paper 💻 code
DepthContrast: 📰 paper 💻 code
🦑 Полезные ссылки для старта в Quantum Machine Learning
💡Концепция квантового машинного обучения
🔢 Туториал по quantum neural network (QNN) упрощенного MNIST + colab
🏞 Quantum Convolutional Neural Network: туториал + colab
📰 Paper: Classification with Quantum Neural Networks on Near Term Processors
📄 Paper: TensorFlow Quantum:
A Software Framework for Quantum Machine Learning
📚TensorFlow Quantum TFQ
📼 YouTube: TensorFlow Quantum hybrid quantum-classical machine learning
💡Концепция квантового машинного обучения
🔢 Туториал по quantum neural network (QNN) упрощенного MNIST + colab
🏞 Quantum Convolutional Neural Network: туториал + colab
📰 Paper: Classification with Quantum Neural Networks on Near Term Processors
📄 Paper: TensorFlow Quantum:
A Software Framework for Quantum Machine Learning
📚TensorFlow Quantum TFQ
📼 YouTube: TensorFlow Quantum hybrid quantum-classical machine learning
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
HeadGAN визуальный редактор.
This media is not supported in your browser
VIEW IN TELEGRAM
🤖⚡️ Лекция Speeding Up ML Pipelines от «Мишин Лернинг» | Иван Слобожан, Sr Researcher at SQUAD
Must have для всех, кто жаждет серьезной ML практики от топового ml инженера и ресерчера Ивана Слобожана!
Что будет на лекции Speeding UP machine learning pipelines part I:
▪️Pipeline performance analysis using TF Profiler
▪️Optimizing data pipeline using tf. data API
▪️Preprocessing vs Model bottleneck
▪️Accelerating data preprocessing using DALI
▪️Distributed training using Horovod
Please, note, this will be a more practical lecture with examples rather than theoretical.
Ссылки и материалы придут по почте по итогам лекции
📅 19-30 (этот четверг) 14 октября
🎓 Онлайн и бесплатно (по регистрации)
👉 ссылка на лекцию в Transformer
Must have для всех, кто жаждет серьезной ML практики от топового ml инженера и ресерчера Ивана Слобожана!
Что будет на лекции Speeding UP machine learning pipelines part I:
▪️Pipeline performance analysis using TF Profiler
▪️Optimizing data pipeline using tf. data API
▪️Preprocessing vs Model bottleneck
▪️Accelerating data preprocessing using DALI
▪️Distributed training using Horovod
Please, note, this will be a more practical lecture with examples rather than theoretical.
Ссылки и материалы придут по почте по итогам лекции
📅 19-30 (этот четверг) 14 октября
🎓 Онлайн и бесплатно (по регистрации)
👉 ссылка на лекцию в Transformer
🏆 MT-NLG от NVIDIA (2021) в 3x раза больше GPT-3 от OpenAI (2020)
Наследник Turing NLG 17B и Megatron-LM, MT-NLG имеет в 3 раза больше параметров (530B) по сравнению с крупнейшей языковой моделью этого типа (GPT-3, 175B) и показывает превосходную точность в широком наборе задач естественного языка, таких как:
▪️Продолжение текста
▪️Понимание прочитанного
▪️Обоснование
▪️Вывод на естественном языке
▪️Устранение неоднозначности в смысле слов
105-слойный трансформер MT-NLG, обученный благодаря коллаборация между NVIDIA Megatron-LM и Microsoft DeepSpeed (эффективное масштабирование и 3D параллелизм) бьет SOTA в zero- one- few-shot learning’е оставляя в прошлом, известную всеми, GPT-3.
📇 подробнее: blog NVIDIA
Наследник Turing NLG 17B и Megatron-LM, MT-NLG имеет в 3 раза больше параметров (530B) по сравнению с крупнейшей языковой моделью этого типа (GPT-3, 175B) и показывает превосходную точность в широком наборе задач естественного языка, таких как:
▪️Продолжение текста
▪️Понимание прочитанного
▪️Обоснование
▪️Вывод на естественном языке
▪️Устранение неоднозначности в смысле слов
105-слойный трансформер MT-NLG, обученный благодаря коллаборация между NVIDIA Megatron-LM и Microsoft DeepSpeed (эффективное масштабирование и 3D параллелизм) бьет SOTA в zero- one- few-shot learning’е оставляя в прошлом, известную всеми, GPT-3.
📇 подробнее: blog NVIDIA
Media is too big
VIEW IN TELEGRAM
🎴 NVIDIA выкатили StyleGAN3
Сегодня NVIDIA выложила в доступ код и модели сети StyleGAN3, которую описали 23 июня 2021 в пейпере Alias-Free Generative Adversarial Networks.
Имя StyleGAN3 планировали дать в день публикации кода и моделей.
⚠️ Проблема StyleGAN
В процессе иерархического синтеза StyleGAN’ами изображений возникает нездоровая зависимость паттернов от абсолютных пиксельных координат. Это проявляется, например, в том, что текстура кажется приклеенной к координатам изображения, а не к поверхностям изображаемых объектов.
✅ Решение или основная идея StyleGAN3
Ресерчеры из NVIDIA и Aalto University нашли основную причину из-за которой возникает aliasing в сети генератора, и добились “эквивариантности за счет непрерывной интерпретации сигнала”. По факту перешли из дискретных репрезентаций в континуальные [смотри видео к посту]. Спасибо Клоду Шеннону и теореме Котельникова!
Результаты открывают путь для GAN’ов к качественной и стабильной генерации видеоконтента.
🤖 сайт 💻 код 📰 paper 🔮 colab
Сегодня NVIDIA выложила в доступ код и модели сети StyleGAN3, которую описали 23 июня 2021 в пейпере Alias-Free Generative Adversarial Networks.
Имя StyleGAN3 планировали дать в день публикации кода и моделей.
⚠️ Проблема StyleGAN
В процессе иерархического синтеза StyleGAN’ами изображений возникает нездоровая зависимость паттернов от абсолютных пиксельных координат. Это проявляется, например, в том, что текстура кажется приклеенной к координатам изображения, а не к поверхностям изображаемых объектов.
✅ Решение или основная идея StyleGAN3
Ресерчеры из NVIDIA и Aalto University нашли основную причину из-за которой возникает aliasing в сети генератора, и добились “эквивариантности за счет непрерывной интерпретации сигнала”. По факту перешли из дискретных репрезентаций в континуальные [смотри видео к посту]. Спасибо Клоду Шеннону и теореме Котельникова!
Результаты открывают путь для GAN’ов к качественной и стабильной генерации видеоконтента.
🤖 сайт 💻 код 📰 paper 🔮 colab
This media is not supported in your browser
VIEW IN TELEGRAM
StyleGAN3 одновременно выигрывает и определенно страдает от перехода на континуальные периодические функции для внутренних репрезентаций
Как говорил Фридрих Ницше: “Новым GANам нужны новые артефакты“, иначе процесс встанет. Ну теперь знаем что улучшать, хотя змеиный периодический паттерн — достаточно логичный артефакт для новой архитектуры.
Как говорил Фридрих Ницше: “Новым GANам нужны новые артефакты“, иначе процесс встанет. Ну теперь знаем что улучшать, хотя змеиный периодический паттерн — достаточно логичный артефакт для новой архитектуры.
Хотим попробовать новый формат: одна лекция - один пейпер. По какой нейронной сети / пейперу была бы интересна лекция от “Мишин Лернинг” в transformer.community?
Anonymous Poll
45%
CLIP
17%
ResNet Strikes Back
6%
SimVLM
49%
StyleGAN3
11%
StyleGAN-NADA
11%
Real-ESRGAN
22%
Swin Transformer
16%
CoAtNet
15%
MLP Mixer
25%
Self-training with Noisy Student