Классная идея использовать генеративные сетки для репрезентативного обучения:
Project
Но подозреваю что тренировать этого монстра очень и очень сложно.
#ContrastiveLearning #generative #GAN
Project
Но подозреваю что тренировать этого монстра очень и очень сложно.
#ContrastiveLearning #generative #GAN
Сам такой хотел когда-то написать, но руки так и не дошли. Код который помогает расчитать размеры сверток
#CNN
#CNN
Twitter
François Fleuret
I wrote a piece of code that, given an input and output tensor sizes and a depth, computes all the sequences of kernel sizes / strides that do it! No padding. I hate paddings. fleuret.org/git-extract/py… @PyTorch
Не уверен, насколько человек сделал верно обучение и тд, надо чекать, если это вообще возможно.
Но идея сделать датасет с наборами текстов от разных писателей/разных тем и на таком датасете показывать некоторые примеры для гумов кажется приятноф
Colab
#NLP
Но идея сделать датасет с наборами текстов от разных писателей/разных тем и на таком датасете показывать некоторые примеры для гумов кажется приятноф
Colab
#NLP
Google
Копия блокнота
Colaboratory notebook
Дипфейки шагнули на новый уровень. Теперь можно подделать почерк по одному слову.
Twitter пост
#generative #nlp
Twitter пост
#generative #nlp
Twitter
Facebook AI
Today, we’re introducing TextStyleBrush, the first self-supervised AI model that replaces text in existing images of both scenes and handwriting — in one shot — using just a single example word: ai.facebook.com/blog/ai-can-no…
Forwarded from эйай ньюз
Китайцы очень любят делать объёмные обзоры той или иной подобласти машинного обучения с перечислением основных работ и главными прорывными идеями. Статей выходит очень много каждый день, и невозможно все прочесть. Поэтому такие обзоры ценны (если качественно написаны, конечно, что довольно редко).
Недавно вышла очень неплохая статья-обзор различных вариантов Трансформеров с фокусом на моделировании языка (NLP). Это мастр-рид для всех, кто начинает работать с NLP и интересуется Трансформерами. В статье рассматриваются базовые принципы работы self-attention и такие подробности современных вариантов Трансформеров как модификации архитектуры, претрейнинг и их приложения.
Статья: A Survey of Transformers.
Недавно вышла очень неплохая статья-обзор различных вариантов Трансформеров с фокусом на моделировании языка (NLP). Это мастр-рид для всех, кто начинает работать с NLP и интересуется Трансформерами. В статье рассматриваются базовые принципы работы self-attention и такие подробности современных вариантов Трансформеров как модификации архитектуры, претрейнинг и их приложения.
Статья: A Survey of Transformers.
Блог известный, но тут еще ссылку на него не кидали вродь.
Статьи интересные и дают вопросы "на понимание".
https://dyakonov.org/
#resources
Статьи интересные и дают вопросы "на понимание".
https://dyakonov.org/
#resources
Анализ малых данных
КвазиНаучный блог Александра Дьяконова
Майкрософтовские задачки по питону.
Вообще их GPT-3 решает, но какие-то можно на отборочном использовать
#Отборочные
Вообще их GPT-3 решает, но какие-то можно на отборочном использовать
#Отборочные
mybinder.org
GitHub: microsoft/PythonProgrammingPuzzles/main
Click to run this interactive environment. From the Binder Project: Reproducible, sharable, interactive computing environments.
Хороший гитхаб и блог на медиум.
Например, он там разбирает модифицию LIME для интерпретации моделей. И много чего еще интересного
GitHub
Medium
#resources
Например, он там разбирает модифицию LIME для интерпретации моделей. И много чего еще интересного
GitHub
Medium
#resources
GitHub
GitHub - dipanjanS/practical-machine-learning-with-python: Master the essential skills needed to recognize and solve complex real…
Master the essential skills needed to recognize and solve complex real-world problems with Machine Learning and Deep Learning by leveraging the highly popular Python Machine Learning Eco-system. - ...
был очень хороший доклад. Когда появится на канале сберлоги на ютубе - надо будет скинуть сюда. Куча примеров из науки. Для лекций по разным конволюциям, сегментации, детекции, interpetation