Ещё один сборник всего на свете, связанного с deep learning-ом.
В основном предобученные модели для разных фреймворков с поиском, но есть и библиотеки.
https://modelzoo.co/
  В основном предобученные модели для разных фреймворков с поиском, но есть и библиотеки.
https://modelzoo.co/
Ооочень подробная статья о том, как работают однопроходные (single-shot) детекторы на примере Yolo и SSD:
https://machinethink.net/blog/object-detection/
  
  https://machinethink.net/blog/object-detection/
machinethink.net
  
  One-stage object detection
  An in-depth look at how fast object detection models are trained
  https://github.com/Microsoft/VoTT
Microsoft открыли инструмент для разметки объектов на видео и картинках на electron-е с поддержкой трекинга. Vatic больше не нужон.
  
  Microsoft открыли инструмент для разметки объектов на видео и картинках на electron-е с поддержкой трекинга. Vatic больше не нужон.
GitHub
  
  GitHub - microsoft/VoTT: Visual Object Tagging Tool: An electron app for building end to end Object Detection Models from Images…
  Visual Object Tagging Tool: An electron app for building end to end Object Detection Models from Images and Videos.  - GitHub - microsoft/VoTT: Visual Object Tagging Tool: An electron app for build...
  Фейсбук выложил DensePose на гитхаб.
Там и модели, и код, и примеры, и данные - всё на свете.
https://research.fb.com/facebook-open-sources-densepose/
  
  Там и модели, и код, и примеры, и данные - всё на свете.
https://research.fb.com/facebook-open-sources-densepose/
Facebook Research
  
  Facebook open sources DensePose
  Today, Facebook AI Research (FAIR) open sourced DensePose, our real-time approach for mapping all human pixels of 2D RGB images…
  https://youtu.be/MjViy6kyiqs
Nvidia Research показали демку super-slowmotion алгоритма, который из обычных видео синтезирует 240 fps. Результаты выглядят нечеловечески красиво.
Кода или демки, к сожалению, нет, зато есть статья:
https://arxiv.org/pdf/1712.00080.pdf
  
  Nvidia Research показали демку super-slowmotion алгоритма, который из обычных видео синтезирует 240 fps. Результаты выглядят нечеловечески красиво.
Кода или демки, к сожалению, нет, зато есть статья:
https://arxiv.org/pdf/1712.00080.pdf
YouTube
  
  Research at NVIDIA: Transforming Standard Video Into Slow Motion with AI
  Researchers from NVIDIA developed a deep learning-based system that can produce high-quality slow-motion videos from a 30-frame-per-second video, outperforming various state-of-the-art methods that aim to do the same.
Learn more: https://nvda.ws/2Mr2ZPt…
  Learn more: https://nvda.ws/2Mr2ZPt…
Астрологи объявили неделю NVidia:
Они выпустили 2 библиотеки:
DALI для аугментации картинок на гпу
и её компонент - nvJPEG для декодинга
https://github.com/NVIDIA/dali
Для DALI есть обвязка для MXNet, TensorFlow и PyTorch
  
  Они выпустили 2 библиотеки:
DALI для аугментации картинок на гпу
и её компонент - nvJPEG для декодинга
https://github.com/NVIDIA/dali
Для DALI есть обвязка для MXNet, TensorFlow и PyTorch
GitHub
  
  GitHub - NVIDIA/DALI: A GPU-accelerated library containing highly optimized building blocks and an execution engine for data processing…
  A GPU-accelerated library containing highly optimized building blocks and an execution engine for data processing to accelerate deep learning training and inference applications. - GitHub - NVIDIA/...
  https://paperswithcode.com/ Здесь даются одновременно ссылки на статьи и на код к ним. Видно сразу какой используется фреймворк и сколько «звёзд» поставили пользователи.
  
  huggingface.co
  
  Trending Papers - Hugging Face
  Your daily dose of AI research from AK
  Вы, конечно же, помните бота от OpenAI, который крушил профессионалов 1х1 на прошлом The International (это главный турнир по Dota 2 с призовым фондом $24.7M). Тогда они не открыли того, как работает их бот, но обещали, что будут работать над алгоритмом, который играет за всю команду. 
И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
  И вот, в преддверии нового TI, OpenAI доставляет: https://blog.openai.com/openai-five/. По ссылке статья с объяснением алгоритма с очень красивыми визуализациями.
Новый бот уже способен победить команду средних игроков!
Как же они душат: https://youtu.be/UZHTNBMAfAA
Очень жду, когда покажут бота, который играет в Starcraft 2 (его тоже уже делают).
image_2018-06-26_10-26-47.png
    429.7 KB
  hardmaru выложил картинку с архитектурой модели
  В статье, оказывается, очень много ссылок:
1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
  
  
  
  
  
  1) Архитектура: https://d4mucfpksywv.cloudfront.net/research-covers/openai-five/network-architecture.pdf
2) Документация награды: https://gist.github.com/dfarhi/66ec9d760ae0c49a5c492c9fae93984a
У агентов нет прямой связи друг с другом, она осуществляется через Team Spirit - коэффициент при средней награде всей команды, который в процессе обучения меняется от 0 до 1
Если вам приходится использовать Tensorflow, то вот отличная статья из самых недр Гугл Брейна о том, как понять неочевидные (все) части Tensorflow:  
https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
  https://jacobbuckman.com/post/tensorflow-the-confusing-parts-1/
анимированная схема о том, как работает обратное распространение ошибки https://google-developers.appspot.com/machine-learning/crash-course/backprop-scroll/
  https://thomas-tanay.github.io/post--L2-regularization/
Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
  
  Статья с очень красивой визуализацией того, что такое adversarial examples и как они живут с L2-регуляризацией на примере линейного классификатора.
Обсуждение на реддите:
https://www.reddit.com/r/MachineLearning/comments/8vhyak/r_a_new_angle_on_l2_regularization/
reddit
  
  r/MachineLearning - [R] A New Angle on L2 Regularization
  59 votes and 8 so far on reddit
  Прекрасный конспект докладов с CVPR2018
https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
  
  https://olgalitech.wordpress.com/2018/06/30/cvpr-2018-recap-notes-and-trends/
Random ML&Datascience musing
  
  CVPR 2018 — recap, notes and trends
  This year CVPR (Computer Vision and Pattern Recognition) conference has accepted 900+ papers. This blog post has overview of some of them. Here you can find notes that we captured together with my …
  Facebook AI Research разработали генеративно-состязательную нейросеть (GAN) для восстановления закрытых глаз на фотографии. Обычно GAN генерируют изображения, основываясь только на данных из обучающего набора, а в ExGAN разработчики добавили второй источник информации — ещё одно фото того же человека, полученное в другое время или в другой позе. Однако, вместо того, чтобы просто скопировать пиксели со второй фотографии, сеть учится использовать эту информацию в качестве семантического руководства для создания правдоподобных результатов. Подробнее о том, как сеть научилась открывать ваши глаза, читайте по ссылке:
https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
  
  https://medium.com/@neurohive/facebook-ai-research-presents-eye-in-painting-with-exemplar-gan-32cec575ba65
Medium
  
  Eye In-Painting with Exemplar Generative Adversarial Networks
  Nowadays, it is pretty common for people to share their pictures of social media. a large percentage of them featuring people-centric…
  На прошлой неделе вышла новая статья про ГАНы, которую одобрил Гудфеллоу: The relativistic discriminator: a key element missing from standard GAN.
В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
  
  В ней авторка предлагает переформулировать задачу дискриминатора: вместо того, чтобы просто различать real и fake данные, пусть он оценивает вероятность того, что real пример выглядит более настоящим, чем fake. (или то же самое, но в среднем)
Выглядят дискриминаторы примерно так:
обычный:
D(x) = sigmoid(C(x))
относительный:D(x_r, x_f) = sigmoid(C(x_r) - C(x_f))
Предлагается 3 объяснения, зачем всё это нужно, из которых я понял только то, что с картинкой. Это изменение дискриминатора позволяет сделать так, чтобы он действительно минимизировал Jensen–Shannon divergence, которую мы и хотели бы минимизировать на самом деле.В результате ГАНы получаются гораздо более стабильными и даже обычный ГАН начинает генерировать картинки 256х256.
А ещё в статье можно посмотреть на корги:
Статья
Обсуждение на реддите
Код
Twitter
  
  Ian Goodfellow
  This new family of GAN loss functions looks promising! I'm especially excited about Fig 4-6, where we see that the new loss results in much faster learning during the first several iterations of training. I implemented the RSGAN loss on a toy problem and…
  Статья от Убера о простом трюке, который позволяет сверточной сети с точностью до пикселя предсказывать положения объектов на картинке: надо всего лишь добавить на вход слоя 2 дополнительных канала: с x и y координатами.
Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
  
  Эта штука должна быть полезна в задачах, где определение точного положения объекта важно: в object detection, генеративных моделях и RL.
Посмотрите прекрасное видео:
https://youtu.be/8yFQc6elePA
Uber Blog
  
  An Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution | Uber Blog
  As powerful and widespread as convolutional neural networks are in deep learning, AI Labs’ latest research reveals both an underappreciated failing and a simple fix.
  Очередная работа от OpenAI, в которой исследователи создали систему Dactyl для управления роборукой, у которой 24 степеней свободы. В качестве входа используются изображения с 3х RGB камер. При обучении использовалась тот же фреймворк Rapid, что и для обучения OpenAI Five для игры в Доту 2. Dactyl состоит из 2 основных частей, первая, сверточная, предсказывает положение объекта, вторая, рекуррентная, предсказывает какое действие нужно совершить манипулятору. Для обучения использовалось 3D симуляция роборуки с помощью Unity. Интересный факт, который отмечают исследователи, что добавление несимулированных данных из реального мира никак не влияет на производительность системы.
Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
  Посмотрите видео в статье и порадуйтесь очередному шагу в робототехнике, который приближает нас к победе машин.
https://aicups.ru/ - соревнования по искусственному интелеекту от Mail.Ru. Недавно стартовал Mini AI Cup #3, по мотивам игры Drive Ahead. Продлится до 22го сентября, так что время еще есть. Подробное описание соревнования -  https://habr.com/company/mailru/blog/421397/.
  
  Хабр
  
  Запускаем Mini AI Cup #3. Битва машин в тесных закрытых пространствах
  С 2012 года проводим ежегодное соревнование по программированию искусственного интеллекта Russian AI Cup. В этом году оно начнётся немного позже — не в ноябре,...