Neural Networks | Нейронные сети
11.6K subscribers
803 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​New interesting paper to read, on face generation(faster then GANs)
https://arxiv.org/abs/1906.00446

🔗 Generating Diverse High-Fidelity Images with VQ-VAE-2
We explore the use of Vector Quantized Variational AutoEncoder (VQ-VAE) models for large scale image generation. To this end, we scale and enhance the autoregressive priors used in VQ-VAE to generate synthetic samples of much higher coherence and fidelity than possible before. We use simple feed-forward encoder and decoder networks, making our model an attractive candidate for applications where the encoding and/or decoding speed is critical. Additionally, VQ-VAE requires sampling an autoregressive model only in the compressed latent space, which is an order of magnitude faster than sampling in the pixel space, especially for large images. We demonstrate that a multi-scale hierarchical organization of VQ-VAE, augmented with powerful priors over the latent codes, is able to generate samples with quality that rivals that of state of the art Generative Adversarial Networks on multifaceted datasets such as ImageNet, while not suffering from GAN's known shortcomings such as mode collapse and lack of diversity.
https://youtu.be/pgaEE27nsQw

Кто нибудь знает название пироги, либо аналоги в свободном доступе ?

🔗 Flexible Muscle-Based Locomotion for Bipedal Creatures
We present a control method for simulated bipeds, in which natural gaits are discovered through optimization. No motion capture or key frame animation was used in any of the results. For more information, see https://goatstream.com/research/papers/SA2013
🎥 How to Structure Testing of Deep Learning Systems
👁 1 раз 412 сек.
Sergey Karayev (https://twitter.com/sergeykarayev) shares a framework for thinking about the different modules of a deep learning production system, and the types of tests they require.

Recorded during the Spring 2019 Full Stack Deep Learning Bootcamp (https://fullstackdeeplearning.com/march2019).
https://www.youtube.com/watch?v=tDvqb4Q5NhI
как

🎥 Practice of Machine Learning - Google AI Impact Challenge Accelerator
👁 3 раз 914 сек.
Peter Norvig, Google AI Director of Research at Google, discusses how machine learning fits into changing the world.

The Google AI Impact Challenge Accelerator brings together organizations from around the world to submit their ideas on how to use AI for social good.

Watch the whole playlist → https://goo.gle/2QUFHnU

Subscribe to Launchpad to learn all about startups → https://goo.gle/GDevLaunchpad
🎥 Types of Machine Learning 2
👁 1 раз 409 сек.
This lecture gives an overview of the main categories of machine learning, including supervised, un-supervised, and semi-supervised techniques, depending on the availability of expert labels. We also discuss the different methods to handle discrete versus continuous labels.

Book website: https://databookuw.com/
Steve Brunton's website: eigensteve.com
🎥 Machine Learning Goals
👁 2 раз 465 сек.
This lecture discusses the high-level goals of machine learning, and what we want out of our models. Goals include speed and accuracy, along with interpretability, generalizability, explainability, certifiability.

Book website: https://databookuw.com/
Steve Brunton's website: eigensteve.com
​Построение автоматической системы модерации сообщений

Автоматические системы модерации внедряются в веб-сервисы и приложения, где необходимо обрабатывать большое количество сообщений пользователей. Такие системы позволяют сократить издержки на ручную модерацию, ускорить её и обрабатывать все сообщения пользователей в real-time. В статье поговорим про построение автоматической системы модерации для обработки английского языка с использованием алгоритмов машинного обучения. Обсудим весь пайплайн работы от исследовательских задач и выбора ML алгоритмов до выкатки в продакшен. Посмотрим, где искать готовые датасеты и как собрать данные для задачи самостоятельно.
https://habr.com/ru/post/454628/

🔗 Построение автоматической системы модерации сообщений
Автоматические системы модерации внедряются в веб-сервисы и приложения, где необходимо обрабатывать большое количество сообщений пользователей. Такие системы по...
​Отличаем символы от мусора: как построить устойчивые нейросетевые модели в задачах OCR

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Искусственный интеллект
В последнее время мы в группе распознавания компании ABBYY всё больше применяем нейронные сети в различных задачах. Очень хорошо они зарекомендовали себя в первую очередь для сложных видов письменности. В прошлых постах мы рассказывали о том, как мы используем нейронные сети для распознавания японской, китайской и корейской письменности.

image Пост про распознавания японских и китайских иероглифов
image Пост про распознавание корейских символов

В обоих случаях мы использовали нейронные сети с целью полной замены метода классификации отдельного символа. Во всех подходах фигурировало множество различных сетей, и в задачи некоторых из них входила необходимость адекватно работать на изображениях, которые не являются символами. Модель в этих ситуациях должна как-то сигнализировать о том, что перед нами не символ. Сегодня мы как раз расскажем о том, зачем это в принципе может быть нужно, и о подходах, с помощью которых можно добиться желаемого эффекта.

Мотивация

А в чём вообще проблема? Зачем нужно работать на изображениях, которые не являются отдельными символами? Казалось бы, можно разделить фрагмент строки на символы, классифицировать их все и собрать из этого результат, как, например, на картинке ниже.
https://habr.com/ru/company/abbyy/blog/449524/

🔗 Отличаем символы от мусора: как построить устойчивые нейросетевые модели в задачах OCR
В последнее время мы в группе распознавания компании ABBYY всё больше применяем нейронные сети в различных задачах. Очень хорошо они зарекомендовали себя в перву...
🎥 Flexible systems are the next frontier of machine learning
👁 1 раз 4184 сек.
Machine learning is moving toward an important advance: the development of flexible systems that can learn to perform multiple tasks and then use what they have learned to solve new problems on their own.

While substantial progress has been made, significant improvements to hardware, software and system design remain to be made before truly flexible systems are developed.

Two important contributors to the field of artificial intelligence and machine learning – Jeff Dean, head of Google AI and the co-found
🎥 Reality Lab Lecture: Andrew Rabinovich
👁 1 раз 4647 сек.
The Reality Lab Lectures - Tuesday, April 23, 2019
TALK TITLE: Multi Task Learning for Computer Vision
SPEAKER: Andrew Rabinovich (Director of Deep Learning, Head of AI / Magic Leap)

TALK ABSTRACT: Deep multitask networks, in which one neural network produces multiple predictive outputs, are more scalable and often better regularized than their single-task counterparts. Such advantages can potentially lead to gains in both speed and performance, but multitask networks are also difficult to train without f
🎥 Machine Learning Tutorial Chap 5| Part-3 L2 Regularization in Machine Learning | GreyAtom
👁 1 раз 939 сек.
Welcome to the #DataScienceFridays Rohit Ghosh, a deep learning scientist, and an Instructor at GreyAtom will take us through polynomial regression in machine learning through a simple introduction series.

Regularization is a way to avoid overfitting by penalizing high-valued regression coefficients. In simple terms, it reduces parameters and shrinks (simplifies) the model. This more streamlined, more parsimonious model will likely perform better at predictions. Regularization adds penalties to more compl
🎥 JOTB19 - Getting started with Deep Reinforcement Learning by Nicolas Kuhaupt
👁 1 раз 2429 сек.
Reinforcement Learning is a hot topic in Artificial Intelligence (AI) at the moment with the most prominent example of AlphaGo Zero. It shifted the boundaries of what was believed to be possible with AI. In this talk, we will have a look into Reinforcement Learning and its implementation.

Reinforcement Learning is a class of algorithms which trains an agent to act optimally in an environment. The most prominent example is AlphaGo Zero, where the agent is trained to place tokens on the board of Go in order