Understanding the generalization of ‘lottery tickets’ in neural networks
https://ai.facebook.com/blog/understanding-the-generalization-of-lottery-tickets-in-neural-networks/
One ticket to win them all: generalizing lottery ticket initializations across datasets and optimizers
https://arxiv.org/pdf/1906.02773.pdf
https://arxiv.org/pdf/1906.02768.pdf
🔗 Understanding the generalization of ‘lottery tickets’ in neural networks
The lottery ticket hypothesis suggests that by training DNNs from “lucky” initializations, we can train networks which are 10-100x smaller with minimal performance losses. In new work, we extend our understanding of this phenomenon in several ways.
  
  https://ai.facebook.com/blog/understanding-the-generalization-of-lottery-tickets-in-neural-networks/
One ticket to win them all: generalizing lottery ticket initializations across datasets and optimizers
https://arxiv.org/pdf/1906.02773.pdf
https://arxiv.org/pdf/1906.02768.pdf
🔗 Understanding the generalization of ‘lottery tickets’ in neural networks
The lottery ticket hypothesis suggests that by training DNNs from “lucky” initializations, we can train networks which are 10-100x smaller with minimal performance losses. In new work, we extend our understanding of this phenomenon in several ways.
Facebook
  
  Understanding the generalization of ‘lottery tickets’ in neural networks
  The lottery ticket hypothesis suggests that by training DNNs from “lucky” initializations, we can train networks which are 10-100x smaller with minimal performance losses. In new work, we extend our understanding of this phenomenon in several ways.
  Второй чемпионат по программированию: разбираем задачи ML-трека
В октябре состоялся второй чемпионат по программированию. Мы получили 12 500 заявок, более 6000 человек попробовали свои силы в соревнованиях. В этот раз участники могли выбрать один из следующих треков: бэкенд, фронтенд, мобильную разработку и машинное обучение. В каждом треке требовалось пройти квалификационный этап и финал.
По традиции мы опубликуем разборы треков на Хабре. Начнём с задач квалификационного этапа по машинному обучению. Команда подготовила пять таких задач, из которых составила два варианта по три задачи: в первом варианте были задачи A1, B1 и C, во втором — A2, B2 и C. Варианты случайно распределялись между участниками. Автор задачи C — наш разработчик Павел Пархоменко, остальные задачи составил его коллега Никита Сендерович.
За первую простую алгоритмическую задачу (A1/A2) участники могли получить 50 баллов, правильно реализовав перебор по ответу. За вторую задачу (B1/B2) мы давали от 10 до 100 баллов — в зависимости от эффективности решения. Чтобы получить 100 баллов, требовалось реализовать метод динамического программирования. Третья задача была посвящена построению кликовой модели по предоставленным обучающим данным. В ней требовалось применить методы работы с категориальными признаками и воспользоваться нелинейной моделью обучения (например, градиентным бустингом). За задачу можно было получить до 150 баллов — в зависимости от значения функции потерь на тестовой выборке.
🔗 Второй чемпионат по программированию: разбираем задачи ML-трека
В октябре состоялся второй чемпионат по программированию. Мы получили 12 500 заявок, более 6000 человек попробовали свои силы в соревнованиях. В этот раз участни...
  
  В октябре состоялся второй чемпионат по программированию. Мы получили 12 500 заявок, более 6000 человек попробовали свои силы в соревнованиях. В этот раз участники могли выбрать один из следующих треков: бэкенд, фронтенд, мобильную разработку и машинное обучение. В каждом треке требовалось пройти квалификационный этап и финал.
По традиции мы опубликуем разборы треков на Хабре. Начнём с задач квалификационного этапа по машинному обучению. Команда подготовила пять таких задач, из которых составила два варианта по три задачи: в первом варианте были задачи A1, B1 и C, во втором — A2, B2 и C. Варианты случайно распределялись между участниками. Автор задачи C — наш разработчик Павел Пархоменко, остальные задачи составил его коллега Никита Сендерович.
За первую простую алгоритмическую задачу (A1/A2) участники могли получить 50 баллов, правильно реализовав перебор по ответу. За вторую задачу (B1/B2) мы давали от 10 до 100 баллов — в зависимости от эффективности решения. Чтобы получить 100 баллов, требовалось реализовать метод динамического программирования. Третья задача была посвящена построению кликовой модели по предоставленным обучающим данным. В ней требовалось применить методы работы с категориальными признаками и воспользоваться нелинейной моделью обучения (например, градиентным бустингом). За задачу можно было получить до 150 баллов — в зависимости от значения функции потерь на тестовой выборке.
🔗 Второй чемпионат по программированию: разбираем задачи ML-трека
В октябре состоялся второй чемпионат по программированию. Мы получили 12 500 заявок, более 6000 человек попробовали свои силы в соревнованиях. В этот раз участни...
Хабр
  
  Второй чемпионат по программированию: разбираем задачи ML-трека
  В октябре состоялся второй чемпионат по программированию. Мы получили 12 500 заявок, более 6000 человек попробовали свои силы в соревнованиях. В этот раз участники могли выбрать один из следующих...
  Data Engineer – самая сексуальная профессия XXI века
Недавно в разговоре с HR’ами одной крупной компании прозвучало «Каждый data engineer, приходящий к нам на интервью, мечтает стать data scientist’ом». Меня это тогда сильно удивило и стало очень обидно за дата инженера, честно говоря.
Мы здесь (и не только) уже публиковали несколько материалов про data engineer’ов и их ценность для бизнеса – например, интервью с Николаем Марковым или «4 причины стать data engineer», но это было давно. Время идет, материал накапливается, мир развивается, поэтому есть что рассказать.
Возможно, надо сначала коротко напомнить, из чего складывается круг задач дата инженера (плюс-минус, конечно, т.к. каждая компания может добавлять что-то свое\ что-то из перечисленного может выполняться другими сотрудниками):
🔗 Data Engineer – самая сексуальная профессия XXI века
Недавно в разговоре с HR’ами одной крупной компании прозвучало «Каждый data engineer, приходящий к нам на интервью, мечтает стать data scientist’ом». Меня это то...
  
  Недавно в разговоре с HR’ами одной крупной компании прозвучало «Каждый data engineer, приходящий к нам на интервью, мечтает стать data scientist’ом». Меня это тогда сильно удивило и стало очень обидно за дата инженера, честно говоря.
Мы здесь (и не только) уже публиковали несколько материалов про data engineer’ов и их ценность для бизнеса – например, интервью с Николаем Марковым или «4 причины стать data engineer», но это было давно. Время идет, материал накапливается, мир развивается, поэтому есть что рассказать.
Возможно, надо сначала коротко напомнить, из чего складывается круг задач дата инженера (плюс-минус, конечно, т.к. каждая компания может добавлять что-то свое\ что-то из перечисленного может выполняться другими сотрудниками):
🔗 Data Engineer – самая сексуальная профессия XXI века
Недавно в разговоре с HR’ами одной крупной компании прозвучало «Каждый data engineer, приходящий к нам на интервью, мечтает стать data scientist’ом». Меня это то...
Хабр
  
  Data Engineer – самая сексуальная профессия XXI века
  Недавно в разговоре с HR’ами одной крупной компании прозвучало «Каждый data engineer, приходящий к нам на интервью, мечтает стать data scientist’ом». Меня это тогда сильно удивило и стало очень обидно...
  Вертикальная и горизонтальная карьера в сфере Data Science
В любой сфере деятельности, как правило, выделяют два типа карьеры: вертикальная и горизонтальная. Вертикальная означает, что человек все меньше делает что-либо руками, а занимается организационными задачами. Горизонтальная означает, что человек растет как специалист, разбираясь во все большем количестве вещей и/или как можно глубже. В этом посте мы пообщались с различными экспертами о тех или иных ролях и позициях, чтобы показать весь ландшафт карьеры сфере Data Science.
🔗 Вертикальная и горизонтальная карьера в сфере Data Science
В любой сфере деятельности, как правило, выделяют два типа карьеры: вертикальная и горизонтальная. Вертикальная означает, что человек все меньше делает что-либо...
  
  В любой сфере деятельности, как правило, выделяют два типа карьеры: вертикальная и горизонтальная. Вертикальная означает, что человек все меньше делает что-либо руками, а занимается организационными задачами. Горизонтальная означает, что человек растет как специалист, разбираясь во все большем количестве вещей и/или как можно глубже. В этом посте мы пообщались с различными экспертами о тех или иных ролях и позициях, чтобы показать весь ландшафт карьеры сфере Data Science.
🔗 Вертикальная и горизонтальная карьера в сфере Data Science
В любой сфере деятельности, как правило, выделяют два типа карьеры: вертикальная и горизонтальная. Вертикальная означает, что человек все меньше делает что-либо...
Хабр
  
  Вертикальная и горизонтальная карьера в сфере Data Science
  В любой сфере деятельности, как правило, выделяют два типа карьеры: вертикальная и горизонтальная. Вертикальная означает, что человек все меньше делает что-либо руками, а занимается организационными...
  Выставка SPS-2019 в выставочном центре Нюрнберга
Всем интересующимся хотелось бы сообщить или просто напомнить, что сегодня (во вторник 26.11.19) в выставочном центре г. Нюрнберг стартует одна из самых крупных международных выставок в сфере автоматизации промышленности — SPS-2019.
🔗 Выставка SPS-2019 в выставочном центре Нюрнберга
Всем интересующимся хотелось бы сообщить или просто напомнить, что сегодня (во вторник 26.11.19) в выставочном центре г. Нюрнберг стартует одна из самых крупных...
  
  Всем интересующимся хотелось бы сообщить или просто напомнить, что сегодня (во вторник 26.11.19) в выставочном центре г. Нюрнберг стартует одна из самых крупных международных выставок в сфере автоматизации промышленности — SPS-2019.
🔗 Выставка SPS-2019 в выставочном центре Нюрнберга
Всем интересующимся хотелось бы сообщить или просто напомнить, что сегодня (во вторник 26.11.19) в выставочном центре г. Нюрнберг стартует одна из самых крупных...
Хабр
  
  Выставка SPS-2019 в выставочном центре Нюрнберга
  Всем интересующимся хотелось бы сообщить или просто напомнить, что сегодня (во вторник 26.11.19) в выставочном центре г. Нюрнберг стартует одна из самых крупных международных выставок в сфере...
  Наблюдения о применении ML в бизнесе на акции ŽijemeIT
Несколько недель назад я посетил акцию для студентов Технического университета в Брно (Чехия) под названием ŽijemeIT. Это ежегодная миниконференция для студентов, на которой ряд крупных и известных ИТ компаний города Брно представляют обзорные презентации о своей деятельности, интересных направлениях и проектах. В этом году была заметна тенденция компаний по использованию машинного обучения и искусственного интеллекта для решения различных бизнес задач. В этом кратком обзоре я бы хотел поделиться некоторыми интересными наблюдениями на эту тему. Кому интересно, прошу под кат
🔗 Наблюдения о применении ML в бизнесе на акции ŽijemeIT
Несколько недель назад я посетил акцию для студентов Технического университета в Брно (Чехия) под названием ŽijemeIT. Это ежегодная миниконференция для студентов...
  
  Несколько недель назад я посетил акцию для студентов Технического университета в Брно (Чехия) под названием ŽijemeIT. Это ежегодная миниконференция для студентов, на которой ряд крупных и известных ИТ компаний города Брно представляют обзорные презентации о своей деятельности, интересных направлениях и проектах. В этом году была заметна тенденция компаний по использованию машинного обучения и искусственного интеллекта для решения различных бизнес задач. В этом кратком обзоре я бы хотел поделиться некоторыми интересными наблюдениями на эту тему. Кому интересно, прошу под кат
🔗 Наблюдения о применении ML в бизнесе на акции ŽijemeIT
Несколько недель назад я посетил акцию для студентов Технического университета в Брно (Чехия) под названием ŽijemeIT. Это ежегодная миниконференция для студентов...
Хабр
  
  Наблюдения о применении ML в бизнесе на акции ŽijemeIT
  Несколько недель назад я посетил акцию для студентов Технического университета в Брно (Чехия) под названием ŽijemeIT. Это ежегодная миниконференция для студентов, на которой ряд крупных и известных ИТ...
  Functional RL with Keras and Tensorflow Eager
🔗 Functional RL with Keras and Tensorflow Eager
The BAIR Blog
  
  🔗 Functional RL with Keras and Tensorflow Eager
The BAIR Blog
The Berkeley Artificial Intelligence Research Blog
  
  Functional RL with Keras and Tensorflow Eager
  The BAIR Blog
  Fast Sparse ConvNets. 
https://arxiv.org/abs/1911.09723
🔗 Fast Sparse ConvNets
Historically, the pursuit of efficient inference has been one of the driving forces behind research into new deep learning architectures and building blocks. Some recent examples include: the squeeze-and-excitation module, depthwise separable convolutions in Xception, and the inverted bottleneck in MobileNet v2. Notably, in all of these cases, the resulting building blocks enabled not only higher efficiency, but also higher accuracy, and found wide adoption in the field. In this work, we further expand the arsenal of efficient building blocks for neural network architectures; but instead of combining standard primitives (such as convolution), we advocate for the replacement of these dense primitives with their sparse counterparts. While the idea of using sparsity to decrease the parameter count is not new, the conventional wisdom is that this reduction in theoretical FLOPs does not translate into real-world efficiency gains. We aim to correct this misconception by introducing a family of efficient sparse kern
  
  
  
  
  
  https://arxiv.org/abs/1911.09723
🔗 Fast Sparse ConvNets
Historically, the pursuit of efficient inference has been one of the driving forces behind research into new deep learning architectures and building blocks. Some recent examples include: the squeeze-and-excitation module, depthwise separable convolutions in Xception, and the inverted bottleneck in MobileNet v2. Notably, in all of these cases, the resulting building blocks enabled not only higher efficiency, but also higher accuracy, and found wide adoption in the field. In this work, we further expand the arsenal of efficient building blocks for neural network architectures; but instead of combining standard primitives (such as convolution), we advocate for the replacement of these dense primitives with their sparse counterparts. While the idea of using sparsity to decrease the parameter count is not new, the conventional wisdom is that this reduction in theoretical FLOPs does not translate into real-world efficiency gains. We aim to correct this misconception by introducing a family of efficient sparse kern
Detecting Heart Arrhythmias with Deep Learning in Keras with Dense, CNN, and LSTM
🔗 Detecting Heart Arrhythmias with Deep Learning in Keras with Dense, CNN, and LSTM
Let’s detect abnormal heart beats from a single ECG signal!
  
  🔗 Detecting Heart Arrhythmias with Deep Learning in Keras with Dense, CNN, and LSTM
Let’s detect abnormal heart beats from a single ECG signal!
Medium
  
  Detecting Heart Arrhythmias with Deep Learning in Keras with Dense, CNN, and LSTM
  Let’s detect abnormal heart beats from a single ECG signal!
  🎥 Синтез речи на Python + pyttsx3
👁 1 раз ⏳ 522 сек.
  
  👁 1 раз ⏳ 522 сек.
Как синтезировать речь с помощью Python, SAPI 5, и pyttsx3
https://github.com/solkogan/tts_test
https://cloud.mail.ru/public/3NBP26GRC42z/AcapelaGroup_Alena_Nvda.ru.rar
https://github.com/Olga-Yakovleva/RHVoice/wiki/Latest-versionVk
  
  Синтез речи на Python + pyttsx3
  Как синтезировать речь с помощью Python, SAPI 5, и pyttsx3
https://github.com/solkogan/tts_test
https://cloud.mail.ru/public/3NBP26GRC42z/AcapelaGroup_Alena_Nvda.ru.rar
https://github.com/Olga-Yakovleva/RHVoice/wiki/Latest-version
  https://github.com/solkogan/tts_test
https://cloud.mail.ru/public/3NBP26GRC42z/AcapelaGroup_Alena_Nvda.ru.rar
https://github.com/Olga-Yakovleva/RHVoice/wiki/Latest-version
🎥 Байесовские методы в машинном обучении. Лекция 10
👁 1 раз ⏳ 4917 сек.
  
  👁 1 раз ⏳ 4917 сек.
Лектор: профессор Ветров Дмитрий ПетровичVk
  
  Байесовские методы в машинном обучении. Лекция 10
  Лектор: профессор Ветров Дмитрий Петрович
  Множественные эксперименты: теория и практика
В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроектировать A/B, рассчитать и интерпретировать его результаты. Иногда нам требуется тестирование более чем для двух групп. В этой статье мы рассмотрим как раз такой случай — множественное тестирование:
— поговорим о том, когда и зачем следует проводить множественные тесты;
— рассмотрим основные методы расчёта результатов тестов и математические принципы, на которых основаны методы;
— приведём примеры программной реализации методов; эти примеры вы сможете использовать в своих проектах.
Итак, приступим.
🔗 Множественные эксперименты: теория и практика
В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроекти...
  
  В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроектировать A/B, рассчитать и интерпретировать его результаты. Иногда нам требуется тестирование более чем для двух групп. В этой статье мы рассмотрим как раз такой случай — множественное тестирование:
— поговорим о том, когда и зачем следует проводить множественные тесты;
— рассмотрим основные методы расчёта результатов тестов и математические принципы, на которых основаны методы;
— приведём примеры программной реализации методов; эти примеры вы сможете использовать в своих проектах.
Итак, приступим.
🔗 Множественные эксперименты: теория и практика
В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроекти...
Хабр
  
  Множественные эксперименты: теория и практика
  В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроектировать A/B, рассчитать и...
  Машинное обучение
Больше видео в альбоме: https://vk.cc/a40mNQ
 
#video #ai
🎥 Лекция 1 | Машинное обучение | Сергей Николенко | Лекториум
👁 28 раз ⏳ 5396 сек.
🎥 Лекция 2 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 4251 сек.
🎥 Лекция 3 | Машинное обучение | Сергей Николенко | Лекториум
👁 3 раз ⏳ 3352 сек.
🎥 Лекция 4 | Машинное обучение | Сергей Николенко | Лекториум
👁 3 раз ⏳ 6109 сек.
🎥 Лекция 5 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 5170 сек.
🎥 Лекция 6 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 5297 сек.
🎥 Лекция 7 | Машинное обучение | Сергей Николенко | Лекториум
👁 5 раз ⏳ 2860 сек.
🎥 Лекция 8 | Машинное обучение | Сергей Николенко | Лекториум
👁 3 раз ⏳ 2317 сек.
🎥 Лекция 9 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 3029 сек.
🎥 Лекция 10 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 6184 сек.
  
  Больше видео в альбоме: https://vk.cc/a40mNQ
#video #ai
🎥 Лекция 1 | Машинное обучение | Сергей Николенко | Лекториум
👁 28 раз ⏳ 5396 сек.
Лекция 1 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 2 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 4251 сек.
Лекция 2 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 3 | Машинное обучение | Сергей Николенко | Лекториум
👁 3 раз ⏳ 3352 сек.
Лекция 3 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 4 | Машинное обучение | Сергей Николенко | Лекториум
👁 3 раз ⏳ 6109 сек.
Лекция 4 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 5 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 5170 сек.
Лекция 5 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 6 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 5297 сек.
Лекция 6 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 7 | Машинное обучение | Сергей Николенко | Лекториум
👁 5 раз ⏳ 2860 сек.
Лекция 7 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 8 | Машинное обучение | Сергей Николенко | Лекториум
👁 3 раз ⏳ 2317 сек.
Лекция 8 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 9 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 3029 сек.
Лекция 9 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 10 | Машинное обучение | Сергей Николенко | Лекториум
👁 2 раз ⏳ 6184 сек.
Лекция 10 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это вид...Vk
  
  Лекция 1 | Машинное обучение | Сергей Николенко | Лекториум
  Лекция 1 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ Смотрите это виде...
  A Unique Method for Machine Learning Interpretability: Game Theory & Shapley Values!
🔗 A Unique Method for Machine Learning Interpretability: Game Theory & Shapley Values!
Overview
  
  🔗 A Unique Method for Machine Learning Interpretability: Game Theory & Shapley Values!
Overview
Medium
  
  A Unique Method for Machine Learning Interpretability: Game Theory & Shapley Values!
  Overview
  Kaggle Recursion Cellular Image Classification — Артем Кравчук
🔗 Kaggle Recursion Cellular Image Classification — Артем Кравчук
Артем Кравчук рассказывает про соревнование Recursion Cellular Image Classification. Это первое соревнование на Kaggle, в котором он решил серьезно поучаствовать и вместе с командой заработал свою первую серебряную медаль. Узнать о текущих соревнованиях можно на сайте https://mltrainings.ru/ Узнать о новых тренировках и видео можно из групп: ВКонтакте https://vk.com/mltrainings Facebook https://www.facebook.com/mltrainings.moscow Telegram https://t.iss.one/mltrainings Чат ML тренировок https://t.iss.one/mltrainings_
  
  🔗 Kaggle Recursion Cellular Image Classification — Артем Кравчук
Артем Кравчук рассказывает про соревнование Recursion Cellular Image Classification. Это первое соревнование на Kaggle, в котором он решил серьезно поучаствовать и вместе с командой заработал свою первую серебряную медаль. Узнать о текущих соревнованиях можно на сайте https://mltrainings.ru/ Узнать о новых тренировках и видео можно из групп: ВКонтакте https://vk.com/mltrainings Facebook https://www.facebook.com/mltrainings.moscow Telegram https://t.iss.one/mltrainings Чат ML тренировок https://t.iss.one/mltrainings_
YouTube
  
  Kaggle Recursion Cellular Image Classification — Артем Кравчук
  Артем Кравчук рассказывает про соревнование Recursion Cellular Image Classification. Это первое соревнование на Kaggle, в котором он решил серьезно поучаствовать и вместе с командой заработал свою первую серебряную медаль.
Узнать о текущих соревнованиях…
  Узнать о текущих соревнованиях…
As it turns out, Wang Ling was way ahead of the curve re NLP's muppet craze (see slides from LxMLS '16 & Oxford #NLP course '17 below).
https://github.com/oxford-cs-deepnlp-2017/lectures
🔗 oxford-cs-deepnlp-2017/lectures
Oxford Deep NLP 2017 course. Contribute to oxford-cs-deepnlp-2017/lectures development by creating an account on GitHub.
  
  https://github.com/oxford-cs-deepnlp-2017/lectures
🔗 oxford-cs-deepnlp-2017/lectures
Oxford Deep NLP 2017 course. Contribute to oxford-cs-deepnlp-2017/lectures development by creating an account on GitHub.
GitHub
  
  GitHub - oxford-cs-deepnlp-2017/lectures: Oxford Deep NLP 2017 course
  Oxford Deep NLP 2017 course. Contribute to oxford-cs-deepnlp-2017/lectures development by creating an account on GitHub.
  Is Machine Learning Really AI?
🔗 Is Machine Learning Really AI?
There isn’t a well-accepted delineation between what is definitely AI and what is definitely not AI. This is because there isn’t a well-accepted and standard definition of what is artificial intelligence. Indeed, there isn’t a standard definition of intelligence, period.
  
  🔗 Is Machine Learning Really AI?
There isn’t a well-accepted delineation between what is definitely AI and what is definitely not AI. This is because there isn’t a well-accepted and standard definition of what is artificial intelligence. Indeed, there isn’t a standard definition of intelligence, period.
Forbes
  
  Is Machine Learning Really AI?
  There isn’t a well-accepted delineation between what is definitely AI and what is definitely not AI. This is because there isn’t a well-accepted and standard definition of what is artificial intelligence. Indeed, there isn’t a standard definition of intelligence…
  🎥 Random Forest in Python - Machine Learning From Scratch 10 - Python Tutorial
👁 2 раз ⏳ 799 сек.
  
  👁 2 раз ⏳ 799 сек.
In this Machine Learning from Scratch Tutorial, we are going to implement a Random Forest algorithm using only built-in Python modules and numpy. We will also learn about the concept and the math behind this popular ML algorithm.
If you enjoyed this video, please subscribe to the channel!
The code can be found here:
https://github.com/python-engineer/MLfromscratch
You can find me here:
Website: https://www.python-engineer.com
Twitter: https://twitter.com/python_engineer
GitHub: https://github.com/python-Vk
  
  Random Forest in Python - Machine Learning From Scratch 10 - Python Tutorial
  In this Machine Learning from Scratch Tutorial, we are going to implement a Random Forest algorithm using only built-in Python modules and numpy. We will also learn about the concept and the math behind this popular ML algorithm.
If you enjoyed this video…
  If you enjoyed this video…