#news
Disney обучил алгоритм читать сценарии и снимать по ним видео
Исследователи из Disney Research разработали алгоритм, который создает анимационные ролики по предложенному сценарию. Генерация изображений происходит в Unreal Engine — это игровой движок, который также используют для создания компьютерной 3D графики в мультфильмах и кино.
Почему важно: тут Disney не первый, но пока лучший — алгоритмы, создающие ролики по текстам, уже существуют. У них есть недостаток — они плохо понимают естественный язык и справляются только с простыми короткими предложениями, да и оценить качество их работы сложно. Disney же решил большинство проблем.
Получилось это благодаря созданию системы из трех модулей. Первый, модуль обработки языка, разбивает сложные предложения на простые, заменяет слова на понятные синонимы. К примеру, из предложения «я бегаю по утрам и ем кашу на завтрак» получается «я бегаю по утрам & я ем кашу на завтрак». Второй, модуль синтаксического анализа текста, извлекает смысл из предложения для видео. И третий модуль генерации анимации, собственно, создает картинку.
Идея Disney в том, что можно написать сценарий, отрисовать героев, а за их движения пусть уже отвечает нейросеть. Пока технология отдает сыростью, но начало положено. Представьте студию, где вместо сотни аниматоров и сценаристов сидит один человек. В окружении компьютеров он лениво листает утреннюю газету, пока ИИ пишет свой очередной шедевр и претворяет его в жизнь.
Disney обучил алгоритм читать сценарии и снимать по ним видео
Исследователи из Disney Research разработали алгоритм, который создает анимационные ролики по предложенному сценарию. Генерация изображений происходит в Unreal Engine — это игровой движок, который также используют для создания компьютерной 3D графики в мультфильмах и кино.
Почему важно: тут Disney не первый, но пока лучший — алгоритмы, создающие ролики по текстам, уже существуют. У них есть недостаток — они плохо понимают естественный язык и справляются только с простыми короткими предложениями, да и оценить качество их работы сложно. Disney же решил большинство проблем.
Получилось это благодаря созданию системы из трех модулей. Первый, модуль обработки языка, разбивает сложные предложения на простые, заменяет слова на понятные синонимы. К примеру, из предложения «я бегаю по утрам и ем кашу на завтрак» получается «я бегаю по утрам & я ем кашу на завтрак». Второй, модуль синтаксического анализа текста, извлекает смысл из предложения для видео. И третий модуль генерации анимации, собственно, создает картинку.
Идея Disney в том, что можно написать сценарий, отрисовать героев, а за их движения пусть уже отвечает нейросеть. Пока технология отдает сыростью, но начало положено. Представьте студию, где вместо сотни аниматоров и сценаристов сидит один человек. В окружении компьютеров он лениво листает утреннюю газету, пока ИИ пишет свой очередной шедевр и претворяет его в жизнь.
Привет всем! Этот канал родился из обсуждений новостей об ИИ у офисного кулера. В какой-то момент нам стало этого мало — так появилась идея делиться инфоповодами не только друг с другом, но и со всеми желающими.
Перед запуском мы изучили разные медиа (Телеграм в том числе) и сегодня делимся с вами русскоязычными каналам об ИИ, которые с удовольствием читаем сами:
1. Если хотите стать дата-сайентистом, вам в data root labs
Зачем читать: канал ведет команда data root labs — курсов по изучению Data Science и Engineering. Помимо бесплатных обучающих материалов, доступных каждому, здесь собраны последние новости из мира ИИ. Как бонус: авторы часто разбавляют статьи локальными мемами, которые понятны и простым смертным.
2. Если вы не хотите тренировать нейросетки, но хотите о них читать, вам в Hey Machine Learning
Зачем читать: канал от инженеров Hey Machine Learning — компании, разрабатывающей решения в области ИИ. Ребята пишут не только об искусственном интеллекте, но и о технологиях в целом. Главное преимущество канала — еженедельные подборки новостей, короткие и информативные.
3. Если вы в поиске глубокой аналитики ИИ кейсов, вам в NeuroHive - Нейронные сети
Зачем читать: канал от разработчиков из NeuroHive. Здесь нет новостей с кричащими заголовками в стиле “ИИ вот-вот заберет работу у людей”, админы публикуют только реально работающие кейсы и последние исследования в области нейронных сетей.
Перед запуском мы изучили разные медиа (Телеграм в том числе) и сегодня делимся с вами русскоязычными каналам об ИИ, которые с удовольствием читаем сами:
1. Если хотите стать дата-сайентистом, вам в data root labs
Зачем читать: канал ведет команда data root labs — курсов по изучению Data Science и Engineering. Помимо бесплатных обучающих материалов, доступных каждому, здесь собраны последние новости из мира ИИ. Как бонус: авторы часто разбавляют статьи локальными мемами, которые понятны и простым смертным.
2. Если вы не хотите тренировать нейросетки, но хотите о них читать, вам в Hey Machine Learning
Зачем читать: канал от инженеров Hey Machine Learning — компании, разрабатывающей решения в области ИИ. Ребята пишут не только об искусственном интеллекте, но и о технологиях в целом. Главное преимущество канала — еженедельные подборки новостей, короткие и информативные.
3. Если вы в поиске глубокой аналитики ИИ кейсов, вам в NeuroHive - Нейронные сети
Зачем читать: канал от разработчиков из NeuroHive. Здесь нет новостей с кричащими заголовками в стиле “ИИ вот-вот заберет работу у людей”, админы публикуют только реально работающие кейсы и последние исследования в области нейронных сетей.
#news
Google представил нейросеть, которая оптимизирует работу других нейросетей — делает их быстрее, легче и продуктивнее
Исследователи из Google представили модель MorphNet, которая способна оптимизировать работу любой нейросети благодаря циклу сокращающихся и расширяющихся фаз. Сначала MorphNet выявляет неэффективные нейроны и удаляет их из сети, затем перераспределяет вычислительные ресурсы из менее эффективных частей сети в более эффективные.
Почему важно: Бытует мнение, что чем больше размер нейросети, тем лучше будет решение на выходе. Но проблема в том, что подобные модели тяжело обучить — они требуют тонну данных и много вычислительных мощностей. Поэтому часто после того, как получен первый результат, запускается процесс дистилляции — передачи знаний от большой нейронной сети маленькой. Обычно это долгий кропотливый процесс. И, главное, не факт, что все получится.
Решение от Google — это попытка оптимизировать работу нейросети при помощи другой нейросети. Если верить статье, вполне удачная: MorphNet показала высокий процент успеха. К тому же радужный поисковик решил задачу, которую никто прежде не осилил. Он сделал возможным сохранение переобучаемости модели. Другими словами, после сжатия сети можно взять новые данные и интегрировать их в свежее решение.
Мы все ждали, когда робот начнет собирать других роботов, но, кажется, ИИ гораздо ближе — нейросеткам мы уже почти не нужны.
Google представил нейросеть, которая оптимизирует работу других нейросетей — делает их быстрее, легче и продуктивнее
Исследователи из Google представили модель MorphNet, которая способна оптимизировать работу любой нейросети благодаря циклу сокращающихся и расширяющихся фаз. Сначала MorphNet выявляет неэффективные нейроны и удаляет их из сети, затем перераспределяет вычислительные ресурсы из менее эффективных частей сети в более эффективные.
Почему важно: Бытует мнение, что чем больше размер нейросети, тем лучше будет решение на выходе. Но проблема в том, что подобные модели тяжело обучить — они требуют тонну данных и много вычислительных мощностей. Поэтому часто после того, как получен первый результат, запускается процесс дистилляции — передачи знаний от большой нейронной сети маленькой. Обычно это долгий кропотливый процесс. И, главное, не факт, что все получится.
Решение от Google — это попытка оптимизировать работу нейросети при помощи другой нейросети. Если верить статье, вполне удачная: MorphNet показала высокий процент успеха. К тому же радужный поисковик решил задачу, которую никто прежде не осилил. Он сделал возможным сохранение переобучаемости модели. Другими словами, после сжатия сети можно взять новые данные и интегрировать их в свежее решение.
Мы все ждали, когда робот начнет собирать других роботов, но, кажется, ИИ гораздо ближе — нейросеткам мы уже почти не нужны.
ИИ vs человек: кто лучше диагностирует рак?
Нейросеть и сотня радиологов проверили десятки тысяч маммограмм на наличие уплотнений и поражений мягких тканей. В среднем система оказалась эффективней в определении рака груди, но проиграла опытным врачам в некоторых кейсах.
Почему важно: Результаты исследования предсказуемы — нейросетка работает лучше, чем врач из районной поликлиники хотя бы потому, что за короткую жизнь увидела гораздо больше материала. Почему же тогда она уступила светилам медицины?
Во-первых, тестирование врачей выполнялось не на случайных снимках, а на конкретных кейсах из их практики. Это означает, что у людей больше контекста, чем у алгоритма, — они знали историю болезни.
Во-вторых, чтобы обучить нейросеть необходимы правильные ответы. Проблема в том, что в одной поликлинике вам скажут, что насморк — от простуды, в другой вас отправят на аллергопробы. Мнения врачей расходятся, и на многие болезни приходится десяток диагнозов. Порой узнать, какой из них правильный, поможет только вскрытие. Это отражается на точности алгоритма: его «верно/не верно» строится на расплывчатых ответах, полученных от врачей.
Даже если алгоритм можно дообучить, возникает вопрос — когда мы увидим ИИ в больницах? Если коротко — когда государство научится централизованно хранить данные в едином формате и анонимизировать их (клятву Гиппократа никто не отменял). Как только это произойдет, уровень доступности медицины вырастет, особенно в регионах, где катастрофически не хватает специалистов.
Нейросеть и сотня радиологов проверили десятки тысяч маммограмм на наличие уплотнений и поражений мягких тканей. В среднем система оказалась эффективней в определении рака груди, но проиграла опытным врачам в некоторых кейсах.
Почему важно: Результаты исследования предсказуемы — нейросетка работает лучше, чем врач из районной поликлиники хотя бы потому, что за короткую жизнь увидела гораздо больше материала. Почему же тогда она уступила светилам медицины?
Во-первых, тестирование врачей выполнялось не на случайных снимках, а на конкретных кейсах из их практики. Это означает, что у людей больше контекста, чем у алгоритма, — они знали историю болезни.
Во-вторых, чтобы обучить нейросеть необходимы правильные ответы. Проблема в том, что в одной поликлинике вам скажут, что насморк — от простуды, в другой вас отправят на аллергопробы. Мнения врачей расходятся, и на многие болезни приходится десяток диагнозов. Порой узнать, какой из них правильный, поможет только вскрытие. Это отражается на точности алгоритма: его «верно/не верно» строится на расплывчатых ответах, полученных от врачей.
Даже если алгоритм можно дообучить, возникает вопрос — когда мы увидим ИИ в больницах? Если коротко — когда государство научится централизованно хранить данные в едином формате и анонимизировать их (клятву Гиппократа никто не отменял). Как только это произойдет, уровень доступности медицины вырастет, особенно в регионах, где катастрофически не хватает специалистов.
Краткость — сестра таланта. Как нейросеть от «Вконтакте» упростит жизнь пользователям?
Компания «Вконтакте» представила нейросеть, которая генерирует новостные заголовки на русском и английском языках. Для этого она читает текст новости, а дальше формулирует заголовок, соблюдая правила грамматики. Обучение проходило на материалах «РИА Новости» и «The New York Times».
Почему важно: Генератор заголовков от ВК получает семантический смысл крупных блоков текста и выносит из него главную мысль. Как всегда непростой этап в решении подобных задач — это оценить качество на выходе. Хороший получился заголовок или плохой? Чтобы ответить на этот вопрос «Вконтакте» проверил нейросеть на фокус-группе. Около 45% опрошенных отметили, что человеческий и машинный заголовки ничем не отличаются, 15% сказали, что алгоритм справился лучше. Оставшиеся 40% отметили, что нейросеть пока рано устраивать в штат Нью-Йорк Таймс. Вероятно, разработчики сделают работу над ошибками и дообучат алгоритм.
Эту pазработку нужно развивать не только из-за заголовков. Мы живем во времена, когда от количества нотификейшенов дергается глаз, и потоки информации — уже не потоки, а ураганы, сбивающие с ног. Алгоритм, который способен сократить простыню текста до пары строк, не потеряв смысл по дороге, сэкономит кучу времени — и журналистам и нам, читателям.
Компания «Вконтакте» представила нейросеть, которая генерирует новостные заголовки на русском и английском языках. Для этого она читает текст новости, а дальше формулирует заголовок, соблюдая правила грамматики. Обучение проходило на материалах «РИА Новости» и «The New York Times».
Почему важно: Генератор заголовков от ВК получает семантический смысл крупных блоков текста и выносит из него главную мысль. Как всегда непростой этап в решении подобных задач — это оценить качество на выходе. Хороший получился заголовок или плохой? Чтобы ответить на этот вопрос «Вконтакте» проверил нейросеть на фокус-группе. Около 45% опрошенных отметили, что человеческий и машинный заголовки ничем не отличаются, 15% сказали, что алгоритм справился лучше. Оставшиеся 40% отметили, что нейросеть пока рано устраивать в штат Нью-Йорк Таймс. Вероятно, разработчики сделают работу над ошибками и дообучат алгоритм.
Эту pазработку нужно развивать не только из-за заголовков. Мы живем во времена, когда от количества нотификейшенов дергается глаз, и потоки информации — уже не потоки, а ураганы, сбивающие с ног. Алгоритм, который способен сократить простыню текста до пары строк, не потеряв смысл по дороге, сэкономит кучу времени — и журналистам и нам, читателям.
В открытом доступе: как страховые компании оценивают ваше благосостояние и надежность при помощи карт Google
Появилась нейросеть, которая предсказывает, с какой вероятностью будущий клиент страховой компании попадет в автомобильную аварию. Все, что ей нужно, — это фотография его дома в Google Street View.
Как это было: Исследователи собрали датасет из 20 тысяч страховых случаев, ввели адрес каждого страхователя в гугл-карты и загрузили изображение домов. Затем классифицировали их в соответствии с типом (отдельный дом, таунхаус, многоквартирное здание) и состоянием. Полученные результаты сравнили с уже существующей моделью риска, которая основана на более громоздком датасете (какой пол, возраст, банковские обращения) — новая система уступила всего на 8%.
Почему важно: Если вы хоть раз в жизни занимали деньги у банка, то знаете, что такое скоринг. На всякий случай напомню — это система, которую используют банки для проверки вашей платежеспособности. Другими словами, она решает, выдавать вам кредит или нет.
Скоринговые системы — это чуть ли не первая прибыльная история в машинном обучении. Для точного рейтинга в ход идут любые средства: ваши смс, банковские транзакции и даже приложения на вашем телефоне — это часть скоринга. Например, наличие Тиндера говорит о том, что вы готовы тратиться на рестораны и не только.
Создание нейронки, оценивающей вас по жилплощади, — следующий шаг. Сейчас банки и страховые знают по индексу, что вы живете в Хамовниках. Но скоро обученная на открытых данных нейронка проанализирует адрес и вычислит, что это пятиэтажка под снос, и понизит ваш рейтинг в системе, увеличив стоимость страховки.
Появилась нейросеть, которая предсказывает, с какой вероятностью будущий клиент страховой компании попадет в автомобильную аварию. Все, что ей нужно, — это фотография его дома в Google Street View.
Как это было: Исследователи собрали датасет из 20 тысяч страховых случаев, ввели адрес каждого страхователя в гугл-карты и загрузили изображение домов. Затем классифицировали их в соответствии с типом (отдельный дом, таунхаус, многоквартирное здание) и состоянием. Полученные результаты сравнили с уже существующей моделью риска, которая основана на более громоздком датасете (какой пол, возраст, банковские обращения) — новая система уступила всего на 8%.
Почему важно: Если вы хоть раз в жизни занимали деньги у банка, то знаете, что такое скоринг. На всякий случай напомню — это система, которую используют банки для проверки вашей платежеспособности. Другими словами, она решает, выдавать вам кредит или нет.
Скоринговые системы — это чуть ли не первая прибыльная история в машинном обучении. Для точного рейтинга в ход идут любые средства: ваши смс, банковские транзакции и даже приложения на вашем телефоне — это часть скоринга. Например, наличие Тиндера говорит о том, что вы готовы тратиться на рестораны и не только.
Создание нейронки, оценивающей вас по жилплощади, — следующий шаг. Сейчас банки и страховые знают по индексу, что вы живете в Хамовниках. Но скоро обученная на открытых данных нейронка проанализирует адрес и вычислит, что это пятиэтажка под снос, и понизит ваш рейтинг в системе, увеличив стоимость страховки.
Привет!
Новостей, про которые хочется рассказывать, много. А времени на то, чтобы их освещать, — мало. Но есть идея — делать короткий дайджест самых интересных новостей из мира ИИ и публиковать его раз в неделю. Допустим, по пятницам. Как вам?
Новостей, про которые хочется рассказывать, много. А времени на то, чтобы их освещать, — мало. Но есть идея — делать короткий дайджест самых интересных новостей из мира ИИ и публиковать его раз в неделю. Допустим, по пятницам. Как вам?
Что происходило в мире ИИ на этой неделе:
1. Недавно мы писали, что в Сан-Франциско хотят запретить распознавание лиц на улицах. Так вот — запретили. Важная деталь: закон распространяется только на полицию. Частные компании могут и дальше использовать технологию.
2. Свежий выпуск журнала Esquire в Сингапуре частично написал ИИ: алгоритм сгенерировал 4 статьи и письмо редактора. Задача была ответить на вопрос, можно ли заменить журналистов на искусственный интеллект. Получилось или нет — решать читателям.
3. Nvidia научила нейросеть менять класс объекта на изображении. Казалось бы, ничего нового. Но отличие от других сеток в том, что алгоритму FUNIT нужен минимальный объем данных. Для того, чтобы сделать из кошечки собачку, нейросети понадобится лишь пару примеров — и никаких громоздких датасетов.
4. Google представил синхронный переводчик. Сейчас алгоритмы Google Translate распознают речь, генерируют текст, затем выполняют перевод и только потом — вновь преобразовывают в звук. Новая разработка пропускает этап транскрипции: она обрабатывает исходный голос и сразу синтезирует перевод голосом. Однако пока перевод хуже.
5. И, наконец, пример успешного кейса на базе ИИ: стартап применил глубокое обучение для поиска брака у деревянных досок. С помощью технологи удается за секунду выявить следы огня, наличие смолы и сколов. Все получилось — ИИ уже внедряют на лесопильных заводах.
1. Недавно мы писали, что в Сан-Франциско хотят запретить распознавание лиц на улицах. Так вот — запретили. Важная деталь: закон распространяется только на полицию. Частные компании могут и дальше использовать технологию.
2. Свежий выпуск журнала Esquire в Сингапуре частично написал ИИ: алгоритм сгенерировал 4 статьи и письмо редактора. Задача была ответить на вопрос, можно ли заменить журналистов на искусственный интеллект. Получилось или нет — решать читателям.
3. Nvidia научила нейросеть менять класс объекта на изображении. Казалось бы, ничего нового. Но отличие от других сеток в том, что алгоритму FUNIT нужен минимальный объем данных. Для того, чтобы сделать из кошечки собачку, нейросети понадобится лишь пару примеров — и никаких громоздких датасетов.
4. Google представил синхронный переводчик. Сейчас алгоритмы Google Translate распознают речь, генерируют текст, затем выполняют перевод и только потом — вновь преобразовывают в звук. Новая разработка пропускает этап транскрипции: она обрабатывает исходный голос и сразу синтезирует перевод голосом. Однако пока перевод хуже.
5. И, наконец, пример успешного кейса на базе ИИ: стартап применил глубокое обучение для поиска брака у деревянных досок. С помощью технологи удается за секунду выявить следы огня, наличие смолы и сколов. Все получилось — ИИ уже внедряют на лесопильных заводах.
Меткий манипулятор: как робот, точно бросающий предметы, упростит нам жизнь
Американские инженеры разработали алгоритм для манипулятора, который научил его точно захватывать и бросать предметы в заданную точку. Во время работы алгоритм рассчитывает параметры броска с помощью физического симулятора, а также нейросети, которая вносит свои корректировки. Как это работает — смотрите видео.
Почему важно: Научить манипулятора меткости — сложная задача. Даже человек со всеми его способностями вынужден стыдливо бежать до мусорки, подбирая бумажку, которую не получилось выбросить с первого раза. Что уж говорить о машине. Однако создатели робота применили к задаче нестандартный подход: научили его ловить предмет и кидать, чтобы попасть в заданную область. Другими словами, они решили объединить захват и бросок в единую задачу.
Система самообучаема. Это значит, что робота можно натренировать в новой среде. Дайте ему 10 тысяч попыток (что для него — ничего), и он сможет кидать нужные вам вещи, всегда попадая в цель. Представьте, что вы забираете посылку с Почты России, и она совсем не помята. Представьте чемодан, который выкатывается на багажную ленту, и его круглые бока не впали от удара об землю. Заботливые руки робота сохранят ваш груз лучше, чем человеческие.
Американские инженеры разработали алгоритм для манипулятора, который научил его точно захватывать и бросать предметы в заданную точку. Во время работы алгоритм рассчитывает параметры броска с помощью физического симулятора, а также нейросети, которая вносит свои корректировки. Как это работает — смотрите видео.
Почему важно: Научить манипулятора меткости — сложная задача. Даже человек со всеми его способностями вынужден стыдливо бежать до мусорки, подбирая бумажку, которую не получилось выбросить с первого раза. Что уж говорить о машине. Однако создатели робота применили к задаче нестандартный подход: научили его ловить предмет и кидать, чтобы попасть в заданную область. Другими словами, они решили объединить захват и бросок в единую задачу.
Система самообучаема. Это значит, что робота можно натренировать в новой среде. Дайте ему 10 тысяч попыток (что для него — ничего), и он сможет кидать нужные вам вещи, всегда попадая в цель. Представьте, что вы забираете посылку с Почты России, и она совсем не помята. Представьте чемодан, который выкатывается на багажную ленту, и его круглые бока не впали от удара об землю. Заботливые руки робота сохранят ваш груз лучше, чем человеческие.
Чем отличился ИИ на этой неделе?
1. Нейросеть от Самсунга генерирует видео из пары снимков человека. Советую посмотреть ролик, демонстрирующий силу алгоритма. Хотя бы ради анимированного Достоевского — получилось пугающе реалистично.
2. Кстати, недавно с того света при помощи нейронок вернули Сальвадора Дали. В Америке он фотографируется с посетителями музея. Для создания образа создатели взяли 6 тысяч архивных кадров из интервью с Дали и алгоритм Deepfake. Движение модели обеспечивали актеры, чьи лица заменили на художника, а озвучку — артист с характерным испанским акцентом.
3. Помните пост о нейросети GPT-2, которая пишет фейковые новости слишком хорошо? Тогда лаборатория OpenAI отказалась выкладывать программный код в открытый доступ — побоялась, что разработкой будут пользоваться скамеры. На этой неделе создатели выложили более открытую версию (хотя по-прежнему не полную). Но даже она впечатляет: из пары строк алгоритм сочиняет меланхоличные стихотворения и пишет правдоподобные статьи. Кажется, не только люди способны творить.
4. Новости о Facebook. В компании есть ИИ-отдел, который создает и обучает роботов. На этой неделе разработчики представили нейросеть, которая учит шестилапого помощника Daisy ходьбе без предварительных данных. В робота встроены датчики, которые учитывают баланс и положение в пространстве при ходьбе. Говорят, Facebook не планирует внедрение разработок в сервисы. Кажется, главная соцсеть создает ИИ просто потому, что может.
1. Нейросеть от Самсунга генерирует видео из пары снимков человека. Советую посмотреть ролик, демонстрирующий силу алгоритма. Хотя бы ради анимированного Достоевского — получилось пугающе реалистично.
2. Кстати, недавно с того света при помощи нейронок вернули Сальвадора Дали. В Америке он фотографируется с посетителями музея. Для создания образа создатели взяли 6 тысяч архивных кадров из интервью с Дали и алгоритм Deepfake. Движение модели обеспечивали актеры, чьи лица заменили на художника, а озвучку — артист с характерным испанским акцентом.
3. Помните пост о нейросети GPT-2, которая пишет фейковые новости слишком хорошо? Тогда лаборатория OpenAI отказалась выкладывать программный код в открытый доступ — побоялась, что разработкой будут пользоваться скамеры. На этой неделе создатели выложили более открытую версию (хотя по-прежнему не полную). Но даже она впечатляет: из пары строк алгоритм сочиняет меланхоличные стихотворения и пишет правдоподобные статьи. Кажется, не только люди способны творить.
4. Новости о Facebook. В компании есть ИИ-отдел, который создает и обучает роботов. На этой неделе разработчики представили нейросеть, которая учит шестилапого помощника Daisy ходьбе без предварительных данных. В робота встроены датчики, которые учитывают баланс и положение в пространстве при ходьбе. Говорят, Facebook не планирует внедрение разработок в сервисы. Кажется, главная соцсеть создает ИИ просто потому, что может.
Samsung представил алгоритм для отслеживания людей на видео — при чем тут Star Wars и Smart home
В Samsung AI разработали нейросеть, которая отслеживает положение человека на видео. Благодаря синхронному видеонаблюдению с нескольких камер система определяет положение человека в трехмерном пространстве и выставляет на нем точки. На каждой отметке времени нейросеть ищет положение тела заново.
Почему важно: представьте, что Samsung осуществит самую заветную мечту фанатов Star Wars — создаст способ связи, при котором вы видите не голову собеседника на мониторе, а его проекцию, — прямо на совещании. Тут Skype почувствовал тяжелое дыхание на затылке.
Новый алгоритм от южнокорейской компании обучен на крупном датасете по распознаванию положения в трехмерном пространстве — Human 3.6M. По сравнению с другими решениями, обученных на том же Хьюмане, Самсунг работает намного точнее.
Помимо красивого решения для видеосвязи, технологии Самсунга могут спасти вам жизнь. У компании есть SmartThings — система для связки всех устройств дома в одну сеть. Это пока не умный дом, а только отдельные предметы. Но трекинг позы человека — это наработка на будущее, в котором неловкое падение на кухне не закончится летальным исходом. Ведь Smart home вовремя распознал беду и вызвал скорую. И заодно открыл входную дверь для прибывших врачей.
В Samsung AI разработали нейросеть, которая отслеживает положение человека на видео. Благодаря синхронному видеонаблюдению с нескольких камер система определяет положение человека в трехмерном пространстве и выставляет на нем точки. На каждой отметке времени нейросеть ищет положение тела заново.
Почему важно: представьте, что Samsung осуществит самую заветную мечту фанатов Star Wars — создаст способ связи, при котором вы видите не голову собеседника на мониторе, а его проекцию, — прямо на совещании. Тут Skype почувствовал тяжелое дыхание на затылке.
Новый алгоритм от южнокорейской компании обучен на крупном датасете по распознаванию положения в трехмерном пространстве — Human 3.6M. По сравнению с другими решениями, обученных на том же Хьюмане, Самсунг работает намного точнее.
Помимо красивого решения для видеосвязи, технологии Самсунга могут спасти вам жизнь. У компании есть SmartThings — система для связки всех устройств дома в одну сеть. Это пока не умный дом, а только отдельные предметы. Но трекинг позы человека — это наработка на будущее, в котором неловкое падение на кухне не закончится летальным исходом. Ведь Smart home вовремя распознал беду и вызвал скорую. И заодно открыл входную дверь для прибывших врачей.
Как искусственный интеллект в персональном помощнике от Google оказался не таким уж и искусственным
В прошлом году Google представил Google Duplex — бесплатный сервис, который звонит в ресторан и бронирует столик своему пользователю. Столкнувшиеся с роботом-ассистентом работники общепита признаются, что отличить живой голос от искусственного почти невозможно. Однако на этой неделе компания призналась, что в четверти случаев звонит не бот, а живой сотрудник колл-центра.
Почему важно: Прошлым летом, когда на презентации Google представили бота-ассистента, все испытали восторг — наконец будущее наступило. Интроверты выдохнули — больше не нужно звонить в рестораны и парикмахерские. Duplex копировал человеческий голос вплоть до интонации и почти не терялся при разговоре. Да, иногда его вводили в заблуждение, но ничего страшного — Google доработает.
И вот прошел год. Пару дней назад в главном поисковике мира признались, что четверть звонков выполняют люди. Они подключаются, когда бот не справляется. Скептики скажут, что той революции, которую рекламировал Google, не случилось. Но если закрыть глаза на радужный маркетинг, ясно — компания далеко продвинулась. Все-таки прежде чем звонить в ресторан Duplex проверяет, нельзя ли сделать это через интернет. И звонит только в том случае, если такой возможности нет. Это уже неплохо.
Чтобы исключить участие человека боту нужно много данных. Кто сказал, что Google не получает их из звонков сотрудников колл-центра для дальнейшего обучения нейросеток? Да, это ИИ только на ¾ , но он учится и совершенствует голосовое распознавание благодаря человеку. И Google пошел дальше — он уже тренирует бота принимать звонки вместо владельца и записывать, что тому передать. Так что будущее наступило, это мы перестали удивляться.
В прошлом году Google представил Google Duplex — бесплатный сервис, который звонит в ресторан и бронирует столик своему пользователю. Столкнувшиеся с роботом-ассистентом работники общепита признаются, что отличить живой голос от искусственного почти невозможно. Однако на этой неделе компания призналась, что в четверти случаев звонит не бот, а живой сотрудник колл-центра.
Почему важно: Прошлым летом, когда на презентации Google представили бота-ассистента, все испытали восторг — наконец будущее наступило. Интроверты выдохнули — больше не нужно звонить в рестораны и парикмахерские. Duplex копировал человеческий голос вплоть до интонации и почти не терялся при разговоре. Да, иногда его вводили в заблуждение, но ничего страшного — Google доработает.
И вот прошел год. Пару дней назад в главном поисковике мира признались, что четверть звонков выполняют люди. Они подключаются, когда бот не справляется. Скептики скажут, что той революции, которую рекламировал Google, не случилось. Но если закрыть глаза на радужный маркетинг, ясно — компания далеко продвинулась. Все-таки прежде чем звонить в ресторан Duplex проверяет, нельзя ли сделать это через интернет. И звонит только в том случае, если такой возможности нет. Это уже неплохо.
Чтобы исключить участие человека боту нужно много данных. Кто сказал, что Google не получает их из звонков сотрудников колл-центра для дальнейшего обучения нейросеток? Да, это ИИ только на ¾ , но он учится и совершенствует голосовое распознавание благодаря человеку. И Google пошел дальше — он уже тренирует бота принимать звонки вместо владельца и записывать, что тому передать. Так что будущее наступило, это мы перестали удивляться.
Сегодня в дайджесте новостей будет лишь одно, но главное для нас событие!
Благодаря партнерству с Яндекс.Толокой Dbrain создал OCR с точностью распознавания 99%
Последние полтора года мы в Dbrain создавали собственное OCR-решение (Docr). Эта технология позволяет извлекать цифровую версию текста из любого документа: паспорта, водительского удостоверения, страхового полиса и т.д.
Теперь мы умеем:
— распознавать документы точнее, чем рядовой сотрудник компании;
— распознавать нестандартные документы;
— распознавать меньше чем за минуту абсолютное большинство документов;
— распознавать документы в real time в любой пик нагрузки 24/7.
Допустим, вы хотите взять самокат, но сначала необходимо подтвердить свою личность в приложении. В тот момент, когда вы отправляете документы на проверку, в работу вступаем мы — те, кто быстро распознает нужную для сервиса информацию. И вы сможете прокатиться с ветерком уже через пару минут — без долгого ожидания верификации аккаунта.
Причем здесь Яндекс:
Мы объединили машинное обучение и людей для распознавания документов. Принцип простой: алгоритм ошибся — человек поправит. С каждой ошибкой нейросеть дообучается и совершенствуется в реальном времени — то есть издержки остаются прежними, а качество растет. Всё это было бы невозможно без партнерства с Яндекс.Толокой: только миллионы разметчиков могут уверенно обеспечить ликвидность, а мы в Dbrain обеспечиваем качественный ML и, конечно, защиту персональных данных наших клиентов.
Благодаря партнерству с Яндекс.Толокой Dbrain создал OCR с точностью распознавания 99%
Последние полтора года мы в Dbrain создавали собственное OCR-решение (Docr). Эта технология позволяет извлекать цифровую версию текста из любого документа: паспорта, водительского удостоверения, страхового полиса и т.д.
Теперь мы умеем:
— распознавать документы точнее, чем рядовой сотрудник компании;
— распознавать нестандартные документы;
— распознавать меньше чем за минуту абсолютное большинство документов;
— распознавать документы в real time в любой пик нагрузки 24/7.
Допустим, вы хотите взять самокат, но сначала необходимо подтвердить свою личность в приложении. В тот момент, когда вы отправляете документы на проверку, в работу вступаем мы — те, кто быстро распознает нужную для сервиса информацию. И вы сможете прокатиться с ветерком уже через пару минут — без долгого ожидания верификации аккаунта.
Причем здесь Яндекс:
Мы объединили машинное обучение и людей для распознавания документов. Принцип простой: алгоритм ошибся — человек поправит. С каждой ошибкой нейросеть дообучается и совершенствуется в реальном времени — то есть издержки остаются прежними, а качество растет. Всё это было бы невозможно без партнерства с Яндекс.Толокой: только миллионы разметчиков могут уверенно обеспечить ликвидность, а мы в Dbrain обеспечиваем качественный ML и, конечно, защиту персональных данных наших клиентов.
Ты узнаешь его по голосу: нейросеть Speech2Face генерирует портрет человека по аудиозаписи — и это впечатляет
В лаборатории MIT создали нейросеть, которая генерирует портрет человека по голосу. Speech2Face обучалась на видеозаписях с YouTube: на первом этапе она делала числовой вектор из голоса, на втором превращала его в картинку.
Почему важно: В машинном обучении популярен антропоморфический подход к решению задач, то есть работу нейросети строят по человеческому подобию. В то же время есть другой подход к обучению, нестандартный, — он интересен куда больше. Вспомните, как алгоритмы от лаборатории OpenAI сразились с лучшими игроками Dota 2 — после тысячи часов симуляций машина разработала стратегию, которая разительно отличалась от тактики живых противников, поэтому и выиграла.
Что мы видим в кейсе Speech2Face? Нейросеть смогла решить задачу, которая нашему мозгу непосильна. Да, мы можем отличить по голосу, кто на другом конце провода — мужчина или женщина, прикинуть возраст. Но нарисовать точный портрет вплоть до цвета волос — это идея для нового героя киновселенной Marvel, а не навыки, доступные простому смертному.
А Speech2Face смогла: она преобразовала звук в спектрограмму (aka визуальное представление аудиоволн), выдала вектор с характеристиками лица человека, чтобы затем подогнать его под стандартный анфас и сгенерировать финальный портрет. Теперь с помощью образца голоса можно составить примерный фоторобот — и кто сказал, что он не станет точнее в будущем.
В лаборатории MIT создали нейросеть, которая генерирует портрет человека по голосу. Speech2Face обучалась на видеозаписях с YouTube: на первом этапе она делала числовой вектор из голоса, на втором превращала его в картинку.
Почему важно: В машинном обучении популярен антропоморфический подход к решению задач, то есть работу нейросети строят по человеческому подобию. В то же время есть другой подход к обучению, нестандартный, — он интересен куда больше. Вспомните, как алгоритмы от лаборатории OpenAI сразились с лучшими игроками Dota 2 — после тысячи часов симуляций машина разработала стратегию, которая разительно отличалась от тактики живых противников, поэтому и выиграла.
Что мы видим в кейсе Speech2Face? Нейросеть смогла решить задачу, которая нашему мозгу непосильна. Да, мы можем отличить по голосу, кто на другом конце провода — мужчина или женщина, прикинуть возраст. Но нарисовать точный портрет вплоть до цвета волос — это идея для нового героя киновселенной Marvel, а не навыки, доступные простому смертному.
А Speech2Face смогла: она преобразовала звук в спектрограмму (aka визуальное представление аудиоволн), выдала вектор с характеристиками лица человека, чтобы затем подогнать его под стандартный анфас и сгенерировать финальный портрет. Теперь с помощью образца голоса можно составить примерный фоторобот — и кто сказал, что он не станет точнее в будущем.
Конец рабочей недели — время вспомнить главные события в мире машинного обучения:
1. Помните историю ИИ, cпроектировавшего стулья с минимальным расходом? У него появился коллега-архитектор, которого создал выпускник Гарвардского университета. Его нейросеть изучает реальные планировки зданий и генерирует свои. До Захи Хадид ему еще далеко, но выступать в роли помощника может уже сейчас.
2. Twitter купил лондонский стартап Fabula AI, чьи алгоритмы обучены искать фейкньюс. Проблема актуальная — благодаря тем же твитам новости распространяются быстрее, чем мы успеваем их проверить. У компании глобальные планы по интеграции технологии в платформы всех желающих.
3. Google запустил обновление главного алгоритма. Британская газета “Daily Mail” в гневе — их дневной трафик упал на 50% (на секундочку — 5 млн. читателей). Падение произошло по всем вертикалям, устройствам, AMP- и стандартным версиям. В поисковике заверили, что обновление еще в процессе, и бросаться камнями пока рано.
4. Сверточная нейросеть EDVR восстанавливает резкость при приближении кадра из видео и устраняет размытие. Примеры впечатляют!
5. Пять профи из мира ИИ пришли сюда создать стартап и перевернуть индустрию роботехники. Как видите — стартап у них уже есть. В числе участников: фаундер iRobot (Роберт Брукс) и главный инженер Redwood Robotics (Энтони Джулз). Звездная пятерка загорелась идеей сдвинуть роботехнику с мертвой точки — избавить механических работяг от неповоротливости и, наконец, адаптировать их к среде.
1. Помните историю ИИ, cпроектировавшего стулья с минимальным расходом? У него появился коллега-архитектор, которого создал выпускник Гарвардского университета. Его нейросеть изучает реальные планировки зданий и генерирует свои. До Захи Хадид ему еще далеко, но выступать в роли помощника может уже сейчас.
2. Twitter купил лондонский стартап Fabula AI, чьи алгоритмы обучены искать фейкньюс. Проблема актуальная — благодаря тем же твитам новости распространяются быстрее, чем мы успеваем их проверить. У компании глобальные планы по интеграции технологии в платформы всех желающих.
3. Google запустил обновление главного алгоритма. Британская газета “Daily Mail” в гневе — их дневной трафик упал на 50% (на секундочку — 5 млн. читателей). Падение произошло по всем вертикалям, устройствам, AMP- и стандартным версиям. В поисковике заверили, что обновление еще в процессе, и бросаться камнями пока рано.
4. Сверточная нейросеть EDVR восстанавливает резкость при приближении кадра из видео и устраняет размытие. Примеры впечатляют!
5. Пять профи из мира ИИ пришли сюда создать стартап и перевернуть индустрию роботехники. Как видите — стартап у них уже есть. В числе участников: фаундер iRobot (Роберт Брукс) и главный инженер Redwood Robotics (Энтони Джулз). Звездная пятерка загорелась идеей сдвинуть роботехнику с мертвой точки — избавить механических работяг от неповоротливости и, наконец, адаптировать их к среде.
История о том, как ваша новая аватарка в Facebook учит нейросеть, или почему нельзя защитить персональные данные в интернете
Microsoft удалил открытый датасет из 10 миллионов лиц. Снимки компания брала из открытых источников в интернете без согласия авторов. Датасет был доступен с 2016 года и неоднократно использовался всеми желающими для тренировки нейронных сетей.
Почему важно: Когда Microsoft говорил, что лица из датасета MS Celeb принадлежат только известным личностям, он, конечно, лукавил. На самом деле там много фотографий рядовых пользователей социальных сетей. Никто не спрашивал, хотят ли они участвовать в тренировке нейросетей или нет. А надо ли?
При создании датасета у компании есть два с половиной пути. Первый — собрать данные с ее сайта или приложения. Второй — ходить по открытым источникам и собирать датку из профилей Инстаграма. Еще один путь — платить копейку работникам Amazon Mechanical Turk или Яндекс.Толоки, чтобы те делали нужные для задачи снимки и отправляли компании. Не надо быть специалистом по машинному обучению, чтобы понять, какой из способов дешевле и легче.
Все технологии распознавания лиц собраны из наших снимков — вот мы гуляем в парке, сидим в баре с друзьями (много разных лиц в кадре — это хорошо), отдыхаем на море. Тысячи фотографий нашей жизни идут на обучение будущего ИИ. Да, вы можете воспользоваться правом на забвение — удалить персональные данные из поисковых запросов. Но выпилиться из датасетов, увы, не выйдет. На них закон не распространяется. Даже официально удаленный MS Celeb, понятное дело, остался в сети — у тех, кто скачал его за три года.
Возникает вопрос — а что делать? Вероятно, закон будет развиваться — сейчас он только частично оберегает персональные данные. Скоро маленькое разрешение на сбор куков на сайте расширится до огромной формы, в которой будут подробно рассказывать, чем вам грозит пребывание на сайте. Но все же стоит понимать, что интернет — самое свободное место на Земле, где вся собственность — общая, в том числе и наше “я”.
Microsoft удалил открытый датасет из 10 миллионов лиц. Снимки компания брала из открытых источников в интернете без согласия авторов. Датасет был доступен с 2016 года и неоднократно использовался всеми желающими для тренировки нейронных сетей.
Почему важно: Когда Microsoft говорил, что лица из датасета MS Celeb принадлежат только известным личностям, он, конечно, лукавил. На самом деле там много фотографий рядовых пользователей социальных сетей. Никто не спрашивал, хотят ли они участвовать в тренировке нейросетей или нет. А надо ли?
При создании датасета у компании есть два с половиной пути. Первый — собрать данные с ее сайта или приложения. Второй — ходить по открытым источникам и собирать датку из профилей Инстаграма. Еще один путь — платить копейку работникам Amazon Mechanical Turk или Яндекс.Толоки, чтобы те делали нужные для задачи снимки и отправляли компании. Не надо быть специалистом по машинному обучению, чтобы понять, какой из способов дешевле и легче.
Все технологии распознавания лиц собраны из наших снимков — вот мы гуляем в парке, сидим в баре с друзьями (много разных лиц в кадре — это хорошо), отдыхаем на море. Тысячи фотографий нашей жизни идут на обучение будущего ИИ. Да, вы можете воспользоваться правом на забвение — удалить персональные данные из поисковых запросов. Но выпилиться из датасетов, увы, не выйдет. На них закон не распространяется. Даже официально удаленный MS Celeb, понятное дело, остался в сети — у тех, кто скачал его за три года.
Возникает вопрос — а что делать? Вероятно, закон будет развиваться — сейчас он только частично оберегает персональные данные. Скоро маленькое разрешение на сбор куков на сайте расширится до огромной формы, в которой будут подробно рассказывать, чем вам грозит пребывание на сайте. Но все же стоит понимать, что интернет — самое свободное место на Земле, где вся собственность — общая, в том числе и наше “я”.
В эфире пятничная подборка новостей из мира ИИ:
1. Пока Facebook пытается искоренить фейковые новости, активисты собирают тысячи просмотров в Инстаграме с помощью фальшивого Цукерберга. С технологией deepfake (алгоритм благодаря фото делает реалистичное видео) они создали основателя социальной сети, чтобы проверить, насколько эффективно работает модерация контента. Вывод печальный — видео, где Цукерберг рассуждает о контроле над миллионами людей и выдвигает конспирологические теориии, по-прежнему доступно.
2. И вновь Сан-Франциско: на этот раз ИИ будет трудиться в офисе окружного прокурора. Алгоритмы обучены исключать из отчетов полиции данные о расе и внешности подсудимых, чтобы убрать расовые предрассудки при предъявлении обвинений. А они есть: по статистике в СФ на афроамериканцев приходится 41% арестов, более того — в решениях судов нашли «существенные расовые и этнические различия».
3. Теперь о медицине: американские разработчики представили нейросеть, которая снизит дозу рентгеновского излучения (в 10 раз!) при проведении компьютерной томографии. Главное — без вреда для результата. Сверточной нейронной сети для обучения дали одинаковые КТ-изображения, полученные при стандартной и низкой дозе излучения. На каждом слое она понемногу улучшает качество и снижает шум.
4. И еще одна нейросеть: главная проблема, с которой сталкиваются разработчики детекторов, это классификация похожих объектов. Например, в кадре голубь и ворона. Детектор знает, что это птицы, но какие именно — сказать не может. Для этого и нужна Reasoning-RCNN — нейросеть, которая позволяет к любой другой нейросети добавить дополнительную классификацию для более точного анализа объекта.
1. Пока Facebook пытается искоренить фейковые новости, активисты собирают тысячи просмотров в Инстаграме с помощью фальшивого Цукерберга. С технологией deepfake (алгоритм благодаря фото делает реалистичное видео) они создали основателя социальной сети, чтобы проверить, насколько эффективно работает модерация контента. Вывод печальный — видео, где Цукерберг рассуждает о контроле над миллионами людей и выдвигает конспирологические теориии, по-прежнему доступно.
2. И вновь Сан-Франциско: на этот раз ИИ будет трудиться в офисе окружного прокурора. Алгоритмы обучены исключать из отчетов полиции данные о расе и внешности подсудимых, чтобы убрать расовые предрассудки при предъявлении обвинений. А они есть: по статистике в СФ на афроамериканцев приходится 41% арестов, более того — в решениях судов нашли «существенные расовые и этнические различия».
3. Теперь о медицине: американские разработчики представили нейросеть, которая снизит дозу рентгеновского излучения (в 10 раз!) при проведении компьютерной томографии. Главное — без вреда для результата. Сверточной нейронной сети для обучения дали одинаковые КТ-изображения, полученные при стандартной и низкой дозе излучения. На каждом слое она понемногу улучшает качество и снижает шум.
4. И еще одна нейросеть: главная проблема, с которой сталкиваются разработчики детекторов, это классификация похожих объектов. Например, в кадре голубь и ворона. Детектор знает, что это птицы, но какие именно — сказать не может. Для этого и нужна Reasoning-RCNN — нейросеть, которая позволяет к любой другой нейросети добавить дополнительную классификацию для более точного анализа объекта.
Я тебя породил, я тебя и убью — как Adobe создал алгоритм, который находит Photoshop на фото, и зачем он это сделал?
Компания Adobe представила алгоритм, который находит признаки использования Фотошопа на снимке с точностью в 99,4%. Пока нейросеть определяет только апгрейды, сделанные при помощи фильтра Liquify (корректирует форму лица и меняет мимику). В будущем создатели хотят расширить функции алгоритма, подключив распознавания Фотошопа не только на лице, но и на теле.
Почему важно: Прошла только половина 2019 года, но уже сейчас его можно назвать годом фейков. Нейросети генерируют фейковые видео, человеческие голоса и лица, домашних питомцев, стартапы, новости. И это не предел — технология будет развиваться, и дальше обрастая механическими фальсификаторами.
Но если фейки в интернете кто-то создает, значит, кому-то нужно с ними бороться. Забавно, что одним из первых, кто вышел на тропу войны с фальшивым контентом, стал Adobe — отец Фотошопа. С чем, если не с Adobe Photoshop мы ассоциируем цифровую подделку? Развивая технологию фейков еще до того, как это стало мейнстримом, сейчас компания работает над “антивирусом”, чтобы в будущем сделать коммерческий продукт.
Закончится год фейков и начнётся год борьбы с ними. Главные компании мира уже готовятся к схватке: Twitter купил стартап, который распознает фейк-ньюс, Adobe обучает нейросети, на очереди YouTube и прочие. Пройдет еще немного времени, и наряду с «made in China» компании будут обязаны писать «made by AI», — к этому и готовится Adobe.
Компания Adobe представила алгоритм, который находит признаки использования Фотошопа на снимке с точностью в 99,4%. Пока нейросеть определяет только апгрейды, сделанные при помощи фильтра Liquify (корректирует форму лица и меняет мимику). В будущем создатели хотят расширить функции алгоритма, подключив распознавания Фотошопа не только на лице, но и на теле.
Почему важно: Прошла только половина 2019 года, но уже сейчас его можно назвать годом фейков. Нейросети генерируют фейковые видео, человеческие голоса и лица, домашних питомцев, стартапы, новости. И это не предел — технология будет развиваться, и дальше обрастая механическими фальсификаторами.
Но если фейки в интернете кто-то создает, значит, кому-то нужно с ними бороться. Забавно, что одним из первых, кто вышел на тропу войны с фальшивым контентом, стал Adobe — отец Фотошопа. С чем, если не с Adobe Photoshop мы ассоциируем цифровую подделку? Развивая технологию фейков еще до того, как это стало мейнстримом, сейчас компания работает над “антивирусом”, чтобы в будущем сделать коммерческий продукт.
Закончится год фейков и начнётся год борьбы с ними. Главные компании мира уже готовятся к схватке: Twitter купил стартап, который распознает фейк-ньюс, Adobe обучает нейросети, на очереди YouTube и прочие. Пройдет еще немного времени, и наряду с «made in China» компании будут обязаны писать «made by AI», — к этому и готовится Adobe.
Без сна и отдыха: что делал ИИ на этой неделе?
1. В Facebook придумали нейросеть, которая создает голоса людей (пока только знаменитостей). Для генерации аудиосигналов исследователи использовали спектрограммы — это визуальное представление аудиосигналов в 2D, которое отражает изменения голосе в тайм-лайне. А для датасета взяли аудиокниги и пятьсот часов программы TED — с оживленной манерой речи, необходимой для обучения нейросети. Забавно, что компания не стала имитировать Цукерберга, которого на прошлой неделе «дипфейкнули» активисты, вместо этого ИИ игрался с голосом Билла Гейтса.
2. Кстати, про Microsoft: в новой версии PowerPoint можно репетировать выступление перед ИИ. Ваш единственный слушатель примостится в нижнем углу экрана и даст подсказки во время речи, укажет на слова-паразиты, а также упрекнет в использовании избитых фраз. Также в обновлении появится еще одна нейросеть: ее задача — проанализировать корпоративный стиль и предложить подходящий шрифт и цвет для презентации. Ждем релиза!
3. Помните алгоритм GauGAN от NVIDIA, которая превращает примитивную картинку в шедевр фотографии? Коротко — это генеративно-состязательная нейронная сеть для обработки сегментированных изображений. Ее обучили на фотографиях реальных мест, поэтому сетка учитывает тени, текстуры и детали. А новость в том, что теперь любой может опробовать технологию. Осторожно — затягивает.
1. В Facebook придумали нейросеть, которая создает голоса людей (пока только знаменитостей). Для генерации аудиосигналов исследователи использовали спектрограммы — это визуальное представление аудиосигналов в 2D, которое отражает изменения голосе в тайм-лайне. А для датасета взяли аудиокниги и пятьсот часов программы TED — с оживленной манерой речи, необходимой для обучения нейросети. Забавно, что компания не стала имитировать Цукерберга, которого на прошлой неделе «дипфейкнули» активисты, вместо этого ИИ игрался с голосом Билла Гейтса.
2. Кстати, про Microsoft: в новой версии PowerPoint можно репетировать выступление перед ИИ. Ваш единственный слушатель примостится в нижнем углу экрана и даст подсказки во время речи, укажет на слова-паразиты, а также упрекнет в использовании избитых фраз. Также в обновлении появится еще одна нейросеть: ее задача — проанализировать корпоративный стиль и предложить подходящий шрифт и цвет для презентации. Ждем релиза!
3. Помните алгоритм GauGAN от NVIDIA, которая превращает примитивную картинку в шедевр фотографии? Коротко — это генеративно-состязательная нейронная сеть для обработки сегментированных изображений. Ее обучили на фотографиях реальных мест, поэтому сетка учитывает тени, текстуры и детали. А новость в том, что теперь любой может опробовать технологию. Осторожно — затягивает.
Все-таки пригодилась: почему ИИ обыграл китайцев в Доту, но завалил школьный тест по математике?
Исследователи из DeepMind проанализировали математические способности нейронных сетей на примере собственного алгоритма. Обучив его на наборе данных, состоящих из математических задач, создатели заставили алгоритм решать тест из школьной программы. ИИ экзамен провалил.
Причем тут математика? Благодаря теоретической науке развиваются технологии — от космоса до ИИ. Она не несет практического смысла сама по себе, но выступает инструментом для других наук. А иногда подставляет палки в колеса: в математике полно нерешенных задач. Например, теория струн (М-теория) по-прежнему находится в начале пути из-за ограниченности математического аппарата.
Почему важно? Есть маленькое, но быстро растущее направление, где люди учат нейросети понимать и решать математические задачи. Пока упражнения по сложности не выходят за рамки школьного курса, но алгоритмы уже самостоятельно переводят задачу с человеческого языка на свой родной без посторонней помощи.
Почему нейросеть завалила контрольную по математике? Первая причина — даже если алгоритм решает широкий спектр задач с точностью в 99%, он все равно не прав. Представьте, что вы решаете пример у доски: в ответе получилось 4,99, а надо 5. Учитель поставит двойку и будет прав, потому что приближенное вычисление не равно правильное. Вторая проблема — это интерпретируемость. Другими словами, если надо решить сложную задачу из последней части ЕГЭ, и вы написали только ответ, никто вам не поверит. Всегда нужно пошаговое объяснение, как вы пришли к такому результату.
Что дальше? Мы точно доживем до времен, когда алгоритм научится проверять домашнее задание не только на уровне “правильно/неправильно”, но и анализировать предоставленное решение. Что касается сложных задач — может, именно ИИ найдет подтверждение теории струн, а не человек. А пока пусть делает работу над ошибками.
Исследователи из DeepMind проанализировали математические способности нейронных сетей на примере собственного алгоритма. Обучив его на наборе данных, состоящих из математических задач, создатели заставили алгоритм решать тест из школьной программы. ИИ экзамен провалил.
Причем тут математика? Благодаря теоретической науке развиваются технологии — от космоса до ИИ. Она не несет практического смысла сама по себе, но выступает инструментом для других наук. А иногда подставляет палки в колеса: в математике полно нерешенных задач. Например, теория струн (М-теория) по-прежнему находится в начале пути из-за ограниченности математического аппарата.
Почему важно? Есть маленькое, но быстро растущее направление, где люди учат нейросети понимать и решать математические задачи. Пока упражнения по сложности не выходят за рамки школьного курса, но алгоритмы уже самостоятельно переводят задачу с человеческого языка на свой родной без посторонней помощи.
Почему нейросеть завалила контрольную по математике? Первая причина — даже если алгоритм решает широкий спектр задач с точностью в 99%, он все равно не прав. Представьте, что вы решаете пример у доски: в ответе получилось 4,99, а надо 5. Учитель поставит двойку и будет прав, потому что приближенное вычисление не равно правильное. Вторая проблема — это интерпретируемость. Другими словами, если надо решить сложную задачу из последней части ЕГЭ, и вы написали только ответ, никто вам не поверит. Всегда нужно пошаговое объяснение, как вы пришли к такому результату.
Что дальше? Мы точно доживем до времен, когда алгоритм научится проверять домашнее задание не только на уровне “правильно/неправильно”, но и анализировать предоставленное решение. Что касается сложных задач — может, именно ИИ найдет подтверждение теории струн, а не человек. А пока пусть делает работу над ошибками.
На дворе очередная пятница — самое время пройтись по новостям из мира ИИ:
1. Самая обсуждаемая нейросетка недели — DeepNude. Как понятно из названия, она полностью раздевает женщин на фото, дорисовывая скрытые участки тела. После того, как приложением воспользовались больше полумиллиона пользователей, создатели проекта объявили о закрытии. Сказали, мир пока не готов к подобной технологии. Другой вопрос — зачем нужна технология, которая в один миг оставит вас без одежды, хотите вы этого или нет.
2. Астрофизики сделали нейросеть для 3D-симуляции Вселенной. Цель была поиграться с параметрами и посмотреть, как развивается космос при различных сценариях. Например, алгоритм умеет моделировать изменение гравитационной силы и процент темной материи. А теперь забавный факт — нейросеть создаёт симуляцию меньше чем за секунду с погрешностью менее 3 процентов. Создатели сетки не могут объяснить, как ей это удалось.
3. Компания Walmart призналась, что ловит воров в магазине с помощью компьютерного зрения. Камеры отслеживают не людей, а продукты — ИИ определяет товары, которые покупатели положили в сумку без пробивания на кассе. Технологию уже внедрили в тысячу магазинов в надежде, что это поможет снизить убытки — из-за краж они достигают 4 миллиардов долларов в год.
1. Самая обсуждаемая нейросетка недели — DeepNude. Как понятно из названия, она полностью раздевает женщин на фото, дорисовывая скрытые участки тела. После того, как приложением воспользовались больше полумиллиона пользователей, создатели проекта объявили о закрытии. Сказали, мир пока не готов к подобной технологии. Другой вопрос — зачем нужна технология, которая в один миг оставит вас без одежды, хотите вы этого или нет.
2. Астрофизики сделали нейросеть для 3D-симуляции Вселенной. Цель была поиграться с параметрами и посмотреть, как развивается космос при различных сценариях. Например, алгоритм умеет моделировать изменение гравитационной силы и процент темной материи. А теперь забавный факт — нейросеть создаёт симуляцию меньше чем за секунду с погрешностью менее 3 процентов. Создатели сетки не могут объяснить, как ей это удалось.
3. Компания Walmart призналась, что ловит воров в магазине с помощью компьютерного зрения. Камеры отслеживают не людей, а продукты — ИИ определяет товары, которые покупатели положили в сумку без пробивания на кассе. Технологию уже внедрили в тысячу магазинов в надежде, что это поможет снизить убытки — из-за краж они достигают 4 миллиардов долларов в год.