40 лучших курсов по математике для программистов
Программистам нужно развивать логическое мышление и сообразительность, поэтому мы подобрали для вас 40 лучших курсов по математике.
Читать
@machinelearning_ru
Программистам нужно развивать логическое мышление и сообразительность, поэтому мы подобрали для вас 40 лучших курсов по математике.
Читать
@machinelearning_ru
Библиотека программиста
40 лучших курсов по математике для программистов
Программистам нужно развивать логическое мышление и сообразительность, поэтому мы подобрали для вас 40 лучших курсов по математике.
Реализация RCNN на настраиваемом набор данных!
Читать
Код: https://github.com/jackfrost1411/MaskRCNN
@machinelearning_ru
Читать
Код: https://github.com/jackfrost1411/MaskRCNN
@machinelearning_ru
Профессор искусственного интеллекта Юрген Шмидхубер о программе, которая может совершенствовать саму себя
https://www.youtube.com/watch?v=YNCxfFIIrB8
@machinelearning_ru
https://www.youtube.com/watch?v=YNCxfFIIrB8
@machinelearning_ru
YouTube
Машина Гёделя — Юрген Шмидхубер / ПостНаука
Профессор искусственного интеллекта Юрген Шмидхубер о программе, которая может совершенствовать саму себя
Эта лекция — часть курса «Глубокое обучение», который мы делаем вместе с организаторами технологического конкурса UpGreat ПРО//ЧТЕНИЕ: https://ai.upgreat.one/…
Эта лекция — часть курса «Глубокое обучение», который мы делаем вместе с организаторами технологического конкурса UpGreat ПРО//ЧТЕНИЕ: https://ai.upgreat.one/…
Как Яндекс решает задачу ранжирования с помощью больших нейросетей – Александр Готманов, Яндекс
Смотреть
@machinelearning_ru
Смотреть
@machinelearning_ru
YouTube
Как Яндекс решает задачу ранжирования с помощью больших нейросетей – Александр Готманов, Яндекс
Слайды: https://yadi.sk/i/NANb8OrztWDkeg
Поговорим о том, почему ранжирование Яндекса всё больше определяется нейросетями: как они учатся предсказывать экспертные оценки, почему хорошие оценки стоят дорого и их мало. Углубимся в историю: посмотрим на нейросети…
Поговорим о том, почему ранжирование Яндекса всё больше определяется нейросетями: как они учатся предсказывать экспертные оценки, почему хорошие оценки стоят дорого и их мало. Углубимся в историю: посмотрим на нейросети…
🔥1
Курс Прикладные задачи анализа данных.
Видео
https://github.com/Dyakonov/PZAD/blob/master/README.md
@machinelearning_ru
Видео
https://github.com/Dyakonov/PZAD/blob/master/README.md
@machinelearning_ru
A.I. Duet
Нейронка AI Duet подыгрывает вам на пианино, пытаясь угадать и продолжить мотив мелодии. Можно просто начать играть мелодию, а ИИ продолжит.
Исходники, кстати, открыты:
https://experiments.withgoogle.com/ai/ai-duet/view/
Нейронка AI Duet подыгрывает вам на пианино, пытаясь угадать и продолжить мотив мелодии. Можно просто начать играть мелодию, а ИИ продолжит.
Исходники, кстати, открыты:
https://experiments.withgoogle.com/ai/ai-duet/view/
Withgoogle
A.I. DUET
AI DUET
Learning from others' mistakes: Avoiding dataset biases without modeling them
Sanh et al. [Hugging Face]
Статья
В больших датасетах вроде MNLI с моделями случаются плохие вещи из-за низкого качества данных. Многие примеры можно правильно классифицировать с помощью эвристик, не имеющих ничего общего с задачей. Например, наличие слова “no” очень повышает вероятность класса “противоречие”.
Эту проблему можно решить очисткой датасета или нахождением конкретных эвристик и построением adversarial примеров для них. Но авторы этой статьи предложили метод, который не требует никакой ручной работы для исправления этой проблемы.
Идея в том, что в начале вы тренируете небольшую модель для классификации w, например TinyBERT из двух слоёв. Она выучивает самые простые зависимости в данных. Далее вы замораживаете эту модель и учите большую модель b на вот таком лоссе:
Идея в том, что градиенты для тех примеров, где простая модель ошибается будут большими, а там, где простая модель справля
Sanh et al. [Hugging Face]
Статья
В больших датасетах вроде MNLI с моделями случаются плохие вещи из-за низкого качества данных. Многие примеры можно правильно классифицировать с помощью эвристик, не имеющих ничего общего с задачей. Например, наличие слова “no” очень повышает вероятность класса “противоречие”.
Эту проблему можно решить очисткой датасета или нахождением конкретных эвристик и построением adversarial примеров для них. Но авторы этой статьи предложили метод, который не требует никакой ручной работы для исправления этой проблемы.
Идея в том, что в начале вы тренируете небольшую модель для классификации w, например TinyBERT из двух слоёв. Она выучивает самые простые зависимости в данных. Далее вы замораживаете эту модель и учите большую модель b на вот таком лоссе:
CrossEntropy(p_w * p_b, label).Идея в том, что градиенты для тех примеров, где простая модель ошибается будут большими, а там, где простая модель справля
🐍 Анимация градиентного спуска и ландшафта функции потерь на Python
Демонстрация работающих примеров визуализации ландшафта функции потерь и анимации процесса градиентного спуска.
Читать
@machinelearning_ru
Демонстрация работающих примеров визуализации ландшафта функции потерь и анимации процесса градиентного спуска.
Читать
@machinelearning_ru
Библиотека программиста
🐍 Анимация градиентного спуска и ландшафта функции потерь на Python
Демонстрация работающих примеров визуализации ландшафта функции потерь и анимации процесса градиентного спуска.
Разработка и развёртывание приложения машинного обучения: полное руководство
Читать
@machinelearning_ru
Читать
@machinelearning_ru