Пробежимся по новостям из области ИИ — массовая слежка, русские студенты покоряют Google, подкасты и пользовательские соглашения:
➖ Команда из МФТИ стала призером конкурса от Google. В ежегодном соревновании Powered by TF Challenge приняли участие более 600 команд. Побеждает тот, кто представит лучшую разработку области ИИ на основе гугловской библиотеки TensorFlow. Русские разработчики показали библиотеку DeepPavlov и вошли в топ-5 лучших решений.
➖ Массовое распознавание лиц из Китая перекочевало в Индию. В стране нет законов о конфиденциальности, поэтому властям есть где разойтись. Планируют привязать к фейс-рекогнишну все доступные базы документов и трекать толпу 24/7. А все потому, что в стране полицейских не хватает. Зато камер скоро будет достаточно.
➖ Если вас бесит реклама в подкастах, следующий ИИ для вас. Нейросетка Adblock Radio научилась отличать рекламные вставки от простых разговоров, но пока пропускает нативную рекламу и иногда блокирует хип-хоп (понимаю ее). Автор ИИ не будет зарабатывать деньги на технологии. Все, что он хотел, это привлечь внимание создателей шоу к проблеме рекламы — ее много и она бесит. Пора что-то менять, а то придет ИИ и все заблокирует.
➖ Признайтесь честно — никто не читает пользовательские соглашения. Даже если там будет написано, что компания заберет квартиру и кота, мы жмем, потому что лень читать. Для таких людей (читай — всех) появился ИИ, который вглядывается в мелкий шрифт и коротко пересказывает содержание. Например, он говорит, что инстаграм не гарантирует безопасность опубликованного. Дальше — больше, нейросетки уже изучили бумаги всех самых популярных платформ. Там много интересного.
➖ Команда из МФТИ стала призером конкурса от Google. В ежегодном соревновании Powered by TF Challenge приняли участие более 600 команд. Побеждает тот, кто представит лучшую разработку области ИИ на основе гугловской библиотеки TensorFlow. Русские разработчики показали библиотеку DeepPavlov и вошли в топ-5 лучших решений.
➖ Массовое распознавание лиц из Китая перекочевало в Индию. В стране нет законов о конфиденциальности, поэтому властям есть где разойтись. Планируют привязать к фейс-рекогнишну все доступные базы документов и трекать толпу 24/7. А все потому, что в стране полицейских не хватает. Зато камер скоро будет достаточно.
➖ Если вас бесит реклама в подкастах, следующий ИИ для вас. Нейросетка Adblock Radio научилась отличать рекламные вставки от простых разговоров, но пока пропускает нативную рекламу и иногда блокирует хип-хоп (понимаю ее). Автор ИИ не будет зарабатывать деньги на технологии. Все, что он хотел, это привлечь внимание создателей шоу к проблеме рекламы — ее много и она бесит. Пора что-то менять, а то придет ИИ и все заблокирует.
➖ Признайтесь честно — никто не читает пользовательские соглашения. Даже если там будет написано, что компания заберет квартиру и кота, мы жмем, потому что лень читать. Для таких людей (читай — всех) появился ИИ, который вглядывается в мелкий шрифт и коротко пересказывает содержание. Например, он говорит, что инстаграм не гарантирует безопасность опубликованного. Дальше — больше, нейросетки уже изучили бумаги всех самых популярных платформ. Там много интересного.
Недавно закончился конкурс, где я просил присылать идеи ИИ, которые еще не реализованы. Многие предложили ИИ, которые, на самом деле, уже есть. Собрал их в список. Надеюсь, будет полезным:
➖ Фитнес браслет снимает данные — говорит, когда вы заболеваете:
Тут все просто — даже последние поколения Apple Watch реализуют эту функцию.
➖ Управление закупками в бизнесе и прогнозирование спроса в магазинах:
Почти все крупные сети внедрили себе подобные решения. К примеру, Ozon.
➖ Автоматизация ручного труда в офисе при работе с документами:
Почти все предложения сводились к применению RPA + OCR. Смотрим Docr и Uipath.
➖ ИИ вместо инженеров для проектирования домов:
Многие бьются над этой задачей. Например, можно почитать о генеративных сетях в архитектуре.
➖ ИИ следит за пожилыми людьми и бьет тревогу, если что не так:
Над этим трудится стартап с русскими корнями Cherry Home.
➖ ИИ анализирует снимки МРТ, КТ, УЗИ — для зубов, живота, горла и тд, и ставит диагноз:
Медицина — одна из самых активных областей в машинном обучении. Перечислить все компании, которые над этим работают, не хватит символов. Вбейте в поисковике “тип исследования + AI” и тут же найдете 5-10 стартапов. Например, Dental Ai.
➖ Автоматический скоринг людей при хайринге:
HR двигается в разных областях — две важные: прохождение тестового задания и анализ видео интервьюируемого. Пример, HumanticAi.
➖ Генерация телеведущих и врачей:
Генерация — это тренд 2019 года. Думаю, уже в 2020 мы уже будем смотреть ролики на YouTube без людей, вместо него передачу будет вести замаскированный под человека ИИ. Что-то подобное уже сделали в Китае.
➖ Фильтрация пород почвы и продукции на конвейере:
В 2017 мы создавали в стартапе Connectome ИИ, который следит за качеством работы на конвейерной линии.
➖ ИИ говорит погоду на завтра:
С прогнозом на 5-7 дней все достаточно хорошо (точность около 90%), а вот дальше начинаются проблемы. Многие вкладываются в это, например, IBM.
На этом все. Впереди нас ждут новые достижения в ИИ. Оставайтесь со мной и ничего не пропустите 😉
➖ Фитнес браслет снимает данные — говорит, когда вы заболеваете:
Тут все просто — даже последние поколения Apple Watch реализуют эту функцию.
➖ Управление закупками в бизнесе и прогнозирование спроса в магазинах:
Почти все крупные сети внедрили себе подобные решения. К примеру, Ozon.
➖ Автоматизация ручного труда в офисе при работе с документами:
Почти все предложения сводились к применению RPA + OCR. Смотрим Docr и Uipath.
➖ ИИ вместо инженеров для проектирования домов:
Многие бьются над этой задачей. Например, можно почитать о генеративных сетях в архитектуре.
➖ ИИ следит за пожилыми людьми и бьет тревогу, если что не так:
Над этим трудится стартап с русскими корнями Cherry Home.
➖ ИИ анализирует снимки МРТ, КТ, УЗИ — для зубов, живота, горла и тд, и ставит диагноз:
Медицина — одна из самых активных областей в машинном обучении. Перечислить все компании, которые над этим работают, не хватит символов. Вбейте в поисковике “тип исследования + AI” и тут же найдете 5-10 стартапов. Например, Dental Ai.
➖ Автоматический скоринг людей при хайринге:
HR двигается в разных областях — две важные: прохождение тестового задания и анализ видео интервьюируемого. Пример, HumanticAi.
➖ Генерация телеведущих и врачей:
Генерация — это тренд 2019 года. Думаю, уже в 2020 мы уже будем смотреть ролики на YouTube без людей, вместо него передачу будет вести замаскированный под человека ИИ. Что-то подобное уже сделали в Китае.
➖ Фильтрация пород почвы и продукции на конвейере:
В 2017 мы создавали в стартапе Connectome ИИ, который следит за качеством работы на конвейерной линии.
➖ ИИ говорит погоду на завтра:
С прогнозом на 5-7 дней все достаточно хорошо (точность около 90%), а вот дальше начинаются проблемы. Многие вкладываются в это, например, IBM.
На этом все. Впереди нас ждут новые достижения в ИИ. Оставайтесь со мной и ничего не пропустите 😉
Коллаборация года в IT — Microsoft разрешил Google ассистенту управлять Xbox Onе
Кто-нибудь помнит голосового помощника Cortana? Разработчики Microsoft представили его в 2014 году и, кажется, с тех пор о технологии никто не вспоминал. А ведь за эти годы Google и Apple подсадили пользователей на умных помощников — машина бронирует столики, отвечает на звонки, ведет записи и не научилась только белье из химчистки забирать (а жаль). В общем, Microsoft эту гонку проиграл.
Но это не конец — Microsoft понял, что лояльность пользователей важнее, чем попытки спасти Cortana, поэтому запустил интеграцию продуктов Google в свои системы. Начали с простого — позволили ассистенту управлять Xbox One — запускать игры, ставить на паузу, регулировать громкость. Теперь игровая приставка стала еще одним подопечным голосового помощника. Пока функция доступна в бете, но полноценный запуск назначен на эту осень.
Вероятно, это вопрос времени, когда мы сможем управлять компьютером через Google ассистента и получим полноценную поддержку помощника в Windows 10. В конце концов, какая разница через кого отдавать команды, если пользователь все равно сидит на винде.
Кто-нибудь помнит голосового помощника Cortana? Разработчики Microsoft представили его в 2014 году и, кажется, с тех пор о технологии никто не вспоминал. А ведь за эти годы Google и Apple подсадили пользователей на умных помощников — машина бронирует столики, отвечает на звонки, ведет записи и не научилась только белье из химчистки забирать (а жаль). В общем, Microsoft эту гонку проиграл.
Но это не конец — Microsoft понял, что лояльность пользователей важнее, чем попытки спасти Cortana, поэтому запустил интеграцию продуктов Google в свои системы. Начали с простого — позволили ассистенту управлять Xbox One — запускать игры, ставить на паузу, регулировать громкость. Теперь игровая приставка стала еще одним подопечным голосового помощника. Пока функция доступна в бете, но полноценный запуск назначен на эту осень.
Вероятно, это вопрос времени, когда мы сможем управлять компьютером через Google ассистента и получим полноценную поддержку помощника в Windows 10. В конце концов, какая разница через кого отдавать команды, если пользователь все равно сидит на винде.
Прочитал в Forbes статью на злободневную тему и пересказываю:
Существует технология, о который вы, возможно, слышали. Это OCR — оптическое распознавание символов. Даже если не слышали, то точно использовали, например, когда наводили камеру смартфона на текст для автоматического перевода.
Технология умеет не только это — крупные компании с помощью OCR переводят бумажные документы в цифру: обрабатывают входящие заявки от клиента и оцифровывают архивы. Но правда в том, что OCR уже давно может больше. И случилось это в тот момент, когда OCR заработал на базе ИИ.
Итак, как было раньше: OCR работает только на ограниченном наборе документов, обязательно определенного формата и качества. Он извлекает текст, но если поле хоть немного не вписывается в шаблон, результат желает оставлять лучшего. Многие компании к этому привыкли и живут дальше — в конце концов, ускорение работы на 20% уже неплохо.
Но где ИИ, там и будущее. OCR с использованием машинного обучения больше не ограничено правилами — система научилась думать. Она беспрерывно обучается в процессе, расширяя свои возможности в зависимости от нужд клиента. Если поле вдруг не подходит под стандарт (документ перевернут, на фото есть блики), алгоритмы все равно справятся с задачей — достаточно показать им примеры работы оператора в подобных ситуациях.
Однако и это еще не все. Можно выйти за рамки классического OCR и внедрить в работу системы NLP. Тогда алгоритмы учатся не только читать текст, но и понимать его. Системе не требуется подсказывать, где в тексте ФИО, дата, а где адрес человека — она уже умеет это делать, превосходя точность человека. В многостраничных документах такие функции являются необходимыми.
Развитие технологий уже повлияло на рынок — теперь мало создавать шаблоны, чтобы удержать клиента. Конкурентное преимущество за тем, кто обеспечит распознавание любых документов на уровне человека, в том числе для рукописного текста. Кстати, возможность распознавать его — тоже заслуга машинного обучения.
Существует технология, о который вы, возможно, слышали. Это OCR — оптическое распознавание символов. Даже если не слышали, то точно использовали, например, когда наводили камеру смартфона на текст для автоматического перевода.
Технология умеет не только это — крупные компании с помощью OCR переводят бумажные документы в цифру: обрабатывают входящие заявки от клиента и оцифровывают архивы. Но правда в том, что OCR уже давно может больше. И случилось это в тот момент, когда OCR заработал на базе ИИ.
Итак, как было раньше: OCR работает только на ограниченном наборе документов, обязательно определенного формата и качества. Он извлекает текст, но если поле хоть немного не вписывается в шаблон, результат желает оставлять лучшего. Многие компании к этому привыкли и живут дальше — в конце концов, ускорение работы на 20% уже неплохо.
Но где ИИ, там и будущее. OCR с использованием машинного обучения больше не ограничено правилами — система научилась думать. Она беспрерывно обучается в процессе, расширяя свои возможности в зависимости от нужд клиента. Если поле вдруг не подходит под стандарт (документ перевернут, на фото есть блики), алгоритмы все равно справятся с задачей — достаточно показать им примеры работы оператора в подобных ситуациях.
Однако и это еще не все. Можно выйти за рамки классического OCR и внедрить в работу системы NLP. Тогда алгоритмы учатся не только читать текст, но и понимать его. Системе не требуется подсказывать, где в тексте ФИО, дата, а где адрес человека — она уже умеет это делать, превосходя точность человека. В многостраничных документах такие функции являются необходимыми.
Развитие технологий уже повлияло на рынок — теперь мало создавать шаблоны, чтобы удержать клиента. Конкурентное преимущество за тем, кто обеспечит распознавание любых документов на уровне человека, в том числе для рукописного текста. Кстати, возможность распознавать его — тоже заслуга машинного обучения.
Forbes
The Future Of OCR Is Deep Learning
Users of traditional OCR services should re-evaluate their current licenses and payment terms.
История, в которой есть все — расизм, незаконный сбор данных, большая корпорация и… скидки в Starbucks.
В истории с распознаванием лиц есть один нюанс — оно работает с разным качеством для разных рас. Американское правительство выяснило, что фотографии афроамериканцев узнаются системой почти в 100 раз хуже, чем белых. Почему так — вопрос для отдельного поста. Сейчас же важно, что Google решил исправить ситуацию, однако выбрал для этого интересный, но крайне неэтичный способ.
Агентство Randstand наняло для радужной компании подрядчиков — они отправились собирать фотографии лиц на улицах Атланты, кампусах колледжей и фестивалях в Лос-Анджелесе. Фокус группа — люди с темным цветом кожи. А все потому, что распознавалка от Google, которая отвечает за разблокировку в будущем смартфоне Pixel 4, плохо на них работает.
Сотрудники предлагали прохожим поиграть с телефоном пару минут: протестировать новое приложение и сыграть в селфи-игру в обмен сертификат на $5 в Starbucks. В это время смартфон собирал сканы лиц. Среди тех, к кому подходили, бездомные и студенты, которые не подозревали, что помогают обучать нейросетки.
Персональные данные за стаканчик кофе — вот вам и технологичное будущее.
В истории с распознаванием лиц есть один нюанс — оно работает с разным качеством для разных рас. Американское правительство выяснило, что фотографии афроамериканцев узнаются системой почти в 100 раз хуже, чем белых. Почему так — вопрос для отдельного поста. Сейчас же важно, что Google решил исправить ситуацию, однако выбрал для этого интересный, но крайне неэтичный способ.
Агентство Randstand наняло для радужной компании подрядчиков — они отправились собирать фотографии лиц на улицах Атланты, кампусах колледжей и фестивалях в Лос-Анджелесе. Фокус группа — люди с темным цветом кожи. А все потому, что распознавалка от Google, которая отвечает за разблокировку в будущем смартфоне Pixel 4, плохо на них работает.
Сотрудники предлагали прохожим поиграть с телефоном пару минут: протестировать новое приложение и сыграть в селфи-игру в обмен сертификат на $5 в Starbucks. В это время смартфон собирал сканы лиц. Среди тех, к кому подходили, бездомные и студенты, которые не подозревали, что помогают обучать нейросетки.
Персональные данные за стаканчик кофе — вот вам и технологичное будущее.
Сворачивайте свои камеры и тепловизоры, надевайте шапочки из фольги. Потому что теперь понадобится только Wi-Fi или любой другой излучатель, чтобы видеть вас сквозь стены.
Исследователи научились распознавать действия по отражению волн wi-fi роутера. Алгоритм получает сырые данные и генерирует цифровую модель скелета человека. Он видит живой объект за стеной и определяет базовые действия, которые предварительно ему скормили в датасете. К примеру, рукопожатие.
Чуть-чуть теории: как работает дальномер — он отправляет волну в инфрокрасном спектре (читай, лазер) и засекает время возврата. Время умножаем на скорость света = наше расстояние. Аналогичное свойство можно делать с любой волной, например, радио.
Но чтобы построить картинку нужна очень сложная математическая модель отражения сигнала. Однако к чему это в 2019 году, если можно подрубить ИИ.
Результаты выглядят очень красиво, исследователи смогли распознать базовые действия в темноте, через стену. Потенциал огромный, главный — решение проблемы приватности. В Европе нельзя снимать людей на камеру, даже если они работают на вашем заводе, потому что это нарушает их права. А вот раздать Wi-Fi им точно можно. Скоро спрятаться можно будет только в клетке Фарадея.
Исследователи научились распознавать действия по отражению волн wi-fi роутера. Алгоритм получает сырые данные и генерирует цифровую модель скелета человека. Он видит живой объект за стеной и определяет базовые действия, которые предварительно ему скормили в датасете. К примеру, рукопожатие.
Чуть-чуть теории: как работает дальномер — он отправляет волну в инфрокрасном спектре (читай, лазер) и засекает время возврата. Время умножаем на скорость света = наше расстояние. Аналогичное свойство можно делать с любой волной, например, радио.
Но чтобы построить картинку нужна очень сложная математическая модель отражения сигнала. Однако к чему это в 2019 году, если можно подрубить ИИ.
Результаты выглядят очень красиво, исследователи смогли распознать базовые действия в темноте, через стену. Потенциал огромный, главный — решение проблемы приватности. В Европе нельзя снимать людей на камеру, даже если они работают на вашем заводе, потому что это нарушает их права. А вот раздать Wi-Fi им точно можно. Скоро спрятаться можно будет только в клетке Фарадея.
Короткий опрос подписчиков показал — многие тут не догадываются, что кроме канала про нейросетки, я еще чем-то занимаюсь. Пора познакомиться.
Короткое досье: меня зовут Леша Хахунов, я сооснователь ИТ-компании Dbrain. Уже 4 года я живу в мире машинного обучения, а последние два года мы с командой активно пилим продукт, который бы ускорил процессы, связанные с обработкой документов. Еще мы тестируем как люди могут дополнять несовершенство нейросетей и дообучать их в процессе работы.
Завтра (22 октября) в 19:00 на вебинаре я расскажу, победит ли ИИ бумажные документы, хватит ли ему нейронов, что разобрать наш почерк и многое другое. И, конечно, отвечу на вопросы, заданные во время встречи.
Присоединяйтесь — https://events.webinar.ru/15043133/DbrainOCR
Короткое досье: меня зовут Леша Хахунов, я сооснователь ИТ-компании Dbrain. Уже 4 года я живу в мире машинного обучения, а последние два года мы с командой активно пилим продукт, который бы ускорил процессы, связанные с обработкой документов. Еще мы тестируем как люди могут дополнять несовершенство нейросетей и дообучать их в процессе работы.
Завтра (22 октября) в 19:00 на вебинаре я расскажу, победит ли ИИ бумажные документы, хватит ли ему нейронов, что разобрать наш почерк и многое другое. И, конечно, отвечу на вопросы, заданные во время встречи.
Присоединяйтесь — https://events.webinar.ru/15043133/DbrainOCR
И уже постоянная рубрика о дипфейках:
Калифорния решила бороться с ИИ-подделками на законодательном уровне. Пока в двух сферах — порно и политике.
В штате запретили использовать лицо человека в создании контента без его согласия. Другими словами, если вы вдруг увидели ролик эротического содержания, в котором, очевидно, не участвовали — можно идти в суд. Второй закон запретил размещать дипфейки с политическим кандидатом за 60 дней до голосования.
Если еще не видели ролик, где Марк Цукерберг уверенным голосом заявляет, что владеет всеми нами, исправляйтесь. Марк, может, и думает так, но в реальности никогда такого не говорил.
Мое мнение — закон должен быть, вопрос в том, будет ли он действовать. Кажется, что от технологии deep fake спасет только нейронка Anti Deep Fake, которая способна увидеть обман на видео. Почти уверен что через полгода у YouTube эта функция станет нативной.
Калифорния решила бороться с ИИ-подделками на законодательном уровне. Пока в двух сферах — порно и политике.
В штате запретили использовать лицо человека в создании контента без его согласия. Другими словами, если вы вдруг увидели ролик эротического содержания, в котором, очевидно, не участвовали — можно идти в суд. Второй закон запретил размещать дипфейки с политическим кандидатом за 60 дней до голосования.
Если еще не видели ролик, где Марк Цукерберг уверенным голосом заявляет, что владеет всеми нами, исправляйтесь. Марк, может, и думает так, но в реальности никогда такого не говорил.
Мое мнение — закон должен быть, вопрос в том, будет ли он действовать. Кажется, что от технологии deep fake спасет только нейронка Anti Deep Fake, которая способна увидеть обман на видео. Почти уверен что через полгода у YouTube эта функция станет нативной.
YouTube
Watch Deepfaked Mark Zuckerberg Rant About How He Controls You
https://www.instagram.com/p/ByaVigGFP2U/
UK artists Bill Posters and Daniel Howe, with the help of ad agency Canny, just uploaded a video of a deepfaked Mark Zuckerberg to Instagram.
The video has a grim message, reminiscent of “Black Mirror”: Zuckerberg…
UK artists Bill Posters and Daniel Howe, with the help of ad agency Canny, just uploaded a video of a deepfaked Mark Zuckerberg to Instagram.
The video has a grim message, reminiscent of “Black Mirror”: Zuckerberg…
Netflix знает, что вы делитесь учеткой с друзьями, и хочет это прекратить
Аналитики стриминговой платформы знают, что мы делимся аккаунтами с близкими, чтобы сэкономить на подписке. В компании даже посчитали недобросовестных пользователей — их много, но точные цифры не разглашаются.
Как вы думаете, сколько существует способов узнать вас? Раньше для идентификации на сайте вы передавали куки. Но время шло и законы о персональных данных становились строже — так появилась потребность определять человека без жесткого идентификатора. Способ, придуманный до машинного обучения — сбор подробной информации о железе пользователя и ряд быстрых вычислений с точностью 1/100000-1/200000.
Но потом появился ИИ, который и надумал использовать Netflix. Они берут всю информацию, какую могут узнать о человеке: как он жмет на клавиатуру, в какое время заходит, какое было подключение, какие видео листал, а дальше нейросеть анализирует данные и учится различать всю компанию друзей под одним аккаунтом. К слову, такой подход уже используется для контроля человека в банковских приложениях. И чуть ли не главный критерий там — это проверка скорости ввода символов в рамках пароля.
Так что в будущем не рассчитывайте, что машина купится на то, что вы любите посмотреть «Во все тяжкие» и «Секс в большом городе» одновременно с двух экранов.
Аналитики стриминговой платформы знают, что мы делимся аккаунтами с близкими, чтобы сэкономить на подписке. В компании даже посчитали недобросовестных пользователей — их много, но точные цифры не разглашаются.
Как вы думаете, сколько существует способов узнать вас? Раньше для идентификации на сайте вы передавали куки. Но время шло и законы о персональных данных становились строже — так появилась потребность определять человека без жесткого идентификатора. Способ, придуманный до машинного обучения — сбор подробной информации о железе пользователя и ряд быстрых вычислений с точностью 1/100000-1/200000.
Но потом появился ИИ, который и надумал использовать Netflix. Они берут всю информацию, какую могут узнать о человеке: как он жмет на клавиатуру, в какое время заходит, какое было подключение, какие видео листал, а дальше нейросеть анализирует данные и учится различать всю компанию друзей под одним аккаунтом. К слову, такой подход уже используется для контроля человека в банковских приложениях. И чуть ли не главный критерий там — это проверка скорости ввода символов в рамках пароля.
Так что в будущем не рассчитывайте, что машина купится на то, что вы любите посмотреть «Во все тяжкие» и «Секс в большом городе» одновременно с двух экранов.
New York Post
Netflix may start cracking down on password sharing
Netflix may not be so chill about users piggybacking off friends and family.
Нетфликс данными не делится, но мы можем и сами проверить статистику. Делитесь аккаунтом с друзьями?
Anonymous Poll
14%
Да
22%
Нет
64%
Не плачу Netflix, по странке все качаю с торрентов 👨💻
Отдыхаете? А ИИ — нет:
➖ Хакер взломал роботов в японском отеле — искусственный персонал убирает комнаты, проверяет гостей через фейс-рекогнишн и выполняет другие задачи в стиле “принеси-подай”. Несколько месяцев назад программист предупреждал владельцев, что роботов легко хакнуть и подключиться к их камерам, если добраться до его спины. Руководство отеля его проигнорировало. В итоге неравнодушный пользователь обнародовал уязвимость и только после этого ПО роботов обновили.
➖ Программисты из компании Security Research Labs (специализируется на кибербезопасности) написали программы для голосовых помощников Amazon и Google с вредоносным ПО, суть которого — записывать разговоры 24/7. Завернули все это в простенькие приложения-гороскопы и отправили на одобрение. Хотели проверить, как корпорации заботятся о безопасности. К сожалению, лже-гороскопы легко одобрили. В конце концов, создатели сами написали в службу поддержки и рассказали об угрозе.
➖ Вышло первое за 5 лет обновление поисковика Google, в котором появилась новая система обработки естественного языка BERT — она понимает контекст поискового запроса. Алгоритм анализирует слова в запросе не одно за другим, а одновременно, получая полный контекст и учитывая союзы и предлоги. Подробности — гуглите.
➖ Google Brain Team научила нейросети слышать запахи. Понадобился датасет из 5 тысяч молекул запахов с описанием и связка их с дискрипторами. Так ИИ научился предсказывать аромат и классифицировать его. Представьте систему, которая будет предупреждать людей об утечке газа, чуять химикаты в воздухе и придумывать ароматы для парфюмеров. Она вот-вот появится.
➖ Роботизированная рука от OpenAI научилась собирать кубик Рубика, вот только никто ее этому не учил. Благодаря визуальным датчикам и алгоритмам рука сама пришла к тому, как решить головоломку. Это шаг в сторону самообучаемого ИИ, который тренирует скилы без помощи людей.
➖ Хакер взломал роботов в японском отеле — искусственный персонал убирает комнаты, проверяет гостей через фейс-рекогнишн и выполняет другие задачи в стиле “принеси-подай”. Несколько месяцев назад программист предупреждал владельцев, что роботов легко хакнуть и подключиться к их камерам, если добраться до его спины. Руководство отеля его проигнорировало. В итоге неравнодушный пользователь обнародовал уязвимость и только после этого ПО роботов обновили.
➖ Программисты из компании Security Research Labs (специализируется на кибербезопасности) написали программы для голосовых помощников Amazon и Google с вредоносным ПО, суть которого — записывать разговоры 24/7. Завернули все это в простенькие приложения-гороскопы и отправили на одобрение. Хотели проверить, как корпорации заботятся о безопасности. К сожалению, лже-гороскопы легко одобрили. В конце концов, создатели сами написали в службу поддержки и рассказали об угрозе.
➖ Вышло первое за 5 лет обновление поисковика Google, в котором появилась новая система обработки естественного языка BERT — она понимает контекст поискового запроса. Алгоритм анализирует слова в запросе не одно за другим, а одновременно, получая полный контекст и учитывая союзы и предлоги. Подробности — гуглите.
➖ Google Brain Team научила нейросети слышать запахи. Понадобился датасет из 5 тысяч молекул запахов с описанием и связка их с дискрипторами. Так ИИ научился предсказывать аромат и классифицировать его. Представьте систему, которая будет предупреждать людей об утечке газа, чуять химикаты в воздухе и придумывать ароматы для парфюмеров. Она вот-вот появится.
➖ Роботизированная рука от OpenAI научилась собирать кубик Рубика, вот только никто ее этому не учил. Благодаря визуальным датчикам и алгоритмам рука сама пришла к тому, как решить головоломку. Это шаг в сторону самообучаемого ИИ, который тренирует скилы без помощи людей.
Борьба с системами распознавания лиц набирает обороты. Тут вам и проекторы, и тату, и маски на лицо. Свежая новость — Facebook тоже взялся за цифровые трансформации, чтобы хакнуть собственный фейс-рекогнишн.
Задача ставилась так — давайте научим сеть модифицировать изображение лица с сохранением позы, света и остальных признаков, которые человек используем для распознавания личности, но допустим изменение маленьких деталей (чуть-чуть поправим нос, глаза, губы).
Этого оказалось достаточно, чтобы сломать распознавалку. Но что куда интереснее — разработчики обманули не только машину. Человеку и самому тяжело отличить человека. Особенно сильно это ощущается на примере кинозвезд: мозг замечает изменения в лице, но не может точно сказать, что не так.
Единственный способ хакнуть систему распознавания — это заточить оружие именно на этой системе. Так и сделал Facebook — он сам создал нейросеть, которая ломает фейс-рекогнишн, чтобы найти слабые места и прокачать их, пока этого не сделал какой-нибудь русский хакер. Это война аналогичная «вирус-антивирус» — одна сторона создает яд, а другая — ищет противоядие. Только в этом случае по обе стороны баррикад — одна и та же армия.
Facebook предусмотрительно готовится к будущему.
Задача ставилась так — давайте научим сеть модифицировать изображение лица с сохранением позы, света и остальных признаков, которые человек используем для распознавания личности, но допустим изменение маленьких деталей (чуть-чуть поправим нос, глаза, губы).
Этого оказалось достаточно, чтобы сломать распознавалку. Но что куда интереснее — разработчики обманули не только машину. Человеку и самому тяжело отличить человека. Особенно сильно это ощущается на примере кинозвезд: мозг замечает изменения в лице, но не может точно сказать, что не так.
Единственный способ хакнуть систему распознавания — это заточить оружие именно на этой системе. Так и сделал Facebook — он сам создал нейросеть, которая ломает фейс-рекогнишн, чтобы найти слабые места и прокачать их, пока этого не сделал какой-нибудь русский хакер. Это война аналогичная «вирус-антивирус» — одна сторона создает яд, а другая — ищет противоядие. Только в этом случае по обе стороны баррикад — одна и та же армия.
Facebook предусмотрительно готовится к будущему.
Cамый частый вопрос, который задают мне на конференциях: AI — это очередной хайп по типу крипты и виртуальной реальности или наше будущее?
Для ответа достаточно посмотреть последние презентации ИТ-гигантов — очередная из них, компании Adobe, которая отдает львиную долю выступлений на новые продукты, в которые интегрировала машинное обучение.
Теперь коротко о том, почему Adobe — это уже давно не только Photoshop. Вот чем компания занимается сейчас:
➖ About Face — уже рассказывал об этом. Отец всех поддельных фотографий делает инструмент для борьбы с ними.
➖All in — возможность совмещать несколько фотографий с общим контекстом, чтобы перестать пытаться влезать в широкоформат объектив. Штука классная, похожая на прокаченную версию панорамы.
➖Sweet Talk — упрощенный способ анимации персонажей на основе аудиодорожки. Крайне актуально для блогеров (привет, Mygap). Использовать легко — пишем голос, берем любое лицо, а дальше нейросетка решает, как это все совместить.
Но если Adobe вам мало, вспомните презентации Google, Apple, Microsoft — они все больше напоминают соревнования, у кого ML круче. И это те компании, которые должны по идее делать B2C, а значит их задача решать не узкие кейсы, а добиваться качественных результатов на задачах с большой вариативностью (представьте, сколько языков нужно выучить Siri, чтобы элементарно сказать погоду). ИИ-лаборатории, в которые они вкладываются, производят не только умных помощников, но и решают фундаментальные задачи, например, учат машину думать и анализировать мир без подсказок человека.
Отвечая на вопрос — будущее не за телефонами с тремя камерами или изогнутым экраном. Оно за ML — методом, который позволит решать задачи по-новому. Это не хайп, а медленный путь в сингулярность.
Для ответа достаточно посмотреть последние презентации ИТ-гигантов — очередная из них, компании Adobe, которая отдает львиную долю выступлений на новые продукты, в которые интегрировала машинное обучение.
Теперь коротко о том, почему Adobe — это уже давно не только Photoshop. Вот чем компания занимается сейчас:
➖ About Face — уже рассказывал об этом. Отец всех поддельных фотографий делает инструмент для борьбы с ними.
➖All in — возможность совмещать несколько фотографий с общим контекстом, чтобы перестать пытаться влезать в широкоформат объектив. Штука классная, похожая на прокаченную версию панорамы.
➖Sweet Talk — упрощенный способ анимации персонажей на основе аудиодорожки. Крайне актуально для блогеров (привет, Mygap). Использовать легко — пишем голос, берем любое лицо, а дальше нейросетка решает, как это все совместить.
Но если Adobe вам мало, вспомните презентации Google, Apple, Microsoft — они все больше напоминают соревнования, у кого ML круче. И это те компании, которые должны по идее делать B2C, а значит их задача решать не узкие кейсы, а добиваться качественных результатов на задачах с большой вариативностью (представьте, сколько языков нужно выучить Siri, чтобы элементарно сказать погоду). ИИ-лаборатории, в которые они вкладываются, производят не только умных помощников, но и решают фундаментальные задачи, например, учат машину думать и анализировать мир без подсказок человека.
Отвечая на вопрос — будущее не за телефонами с тремя камерами или изогнутым экраном. Оно за ML — методом, который позволит решать задачи по-новому. Это не хайп, а медленный путь в сингулярность.
Нейросеть сама догадалась, что мы крутимся вокруг Солнца
Ученые попытались заставить нейросеть думать в парадигме земного восприятия. Мол, вот планеты — тут Солнце, тут Марс. Мы собираем данные по ним сотни лет, скажи, что как движется. Алгоритм быстро смекнул, что люди — не центр мира, а Земля крутится вокруг Солнца.
Почему у меня смешанные чувства от этой новости — я считаю, что если уж мы начали заниматься машинным обучением, то пора бы для многих задач отказаться от интерпретируемости результатов. Зачастую мы не понимаем логику алгоритмов и пытаемся подогнать ответы под наши представления о мире. Поэтому и ждем от ИИ понятных формул в стиле “E = mc2” — потому что только так можем контролировать происходящее. К примеру, нейросети давно выиграли людей в распознавании образов. Алгоритм отличает лица без понятий “глаза, нос, уши”. Для него — это непонятные нам признаки. Он делает это по-своему и лучше людей.
Наступят времена, когда машины смогут рассчитать траекторию полета корабля на Марс и вычисления будут отличаться от того, что представляли себе люди. Для многих областей, в том числе физике, где все понятия мы придумали сами, понятных нам элементов вроде энергии или ускорения, может просто не быть.
Короче, не надо искать объяснения результатам — собрали данные, поставили задачу, а нейросеть уже сама разберется. Мы не откроем ничего нового, если заставим машину думать, как люди.
Ученые попытались заставить нейросеть думать в парадигме земного восприятия. Мол, вот планеты — тут Солнце, тут Марс. Мы собираем данные по ним сотни лет, скажи, что как движется. Алгоритм быстро смекнул, что люди — не центр мира, а Земля крутится вокруг Солнца.
Почему у меня смешанные чувства от этой новости — я считаю, что если уж мы начали заниматься машинным обучением, то пора бы для многих задач отказаться от интерпретируемости результатов. Зачастую мы не понимаем логику алгоритмов и пытаемся подогнать ответы под наши представления о мире. Поэтому и ждем от ИИ понятных формул в стиле “E = mc2” — потому что только так можем контролировать происходящее. К примеру, нейросети давно выиграли людей в распознавании образов. Алгоритм отличает лица без понятий “глаза, нос, уши”. Для него — это непонятные нам признаки. Он делает это по-своему и лучше людей.
Наступят времена, когда машины смогут рассчитать траекторию полета корабля на Марс и вычисления будут отличаться от того, что представляли себе люди. Для многих областей, в том числе физике, где все понятия мы придумали сами, понятных нам элементов вроде энергии или ускорения, может просто не быть.
Короче, не надо искать объяснения результатам — собрали данные, поставили задачу, а нейросеть уже сама разберется. Мы не откроем ничего нового, если заставим машину думать, как люди.
Вернулся с последним дайджестом этой осени:
➖ Чемпион по го решил уйти из профессии из-за непобедимого ИИ. По словам южнокорейца, алгоритмы стали настолько совершенны, что ни у кого нет шансов их одолеть. Спасибо DeepMind за это.
➖ Однако ИИ не только убивает профессии, но и создает новые. В администрации Нью-Йорка открылась вакансия уполномоченного по делам алгоритмов. Он будет отвечать за политику города по отношению к ИИ. Думаю, через пару лет придется расширяться до департамента.
➖ Так опасен ли ИИ для человека? На этот вопрос ответил Debater от IBM, задача которого побеждать в спорах. На выступлении в Кембридже ИИ сначала сказал, что у машины нет морали, поэтому человечеству крышка, а затем утешил зрителей, заявив, что технологии продвинут людей на новую ступень развития, ускорив все рабочие процессы. Правда, по словам ИИ, многие потеряют работу. Представляю реакцию студентов.
➖ Лаборатория Alphabet X создала самообучающегося робота, который выполняет повседневные задачи. Правда, пока ему доверили только сортировку мусора, чтобы прокачивать скиллы. Как бы он не эволюционировал и не двинул на создателей армией униженных сородичей.
➖ А вот робопсы из Boston Dynamics отправились служить родине. Полицейские приняли их в свои ряды и уже отправляют на задания — например, обследовать место преступления. А потом повторится сюжет «Черного зеркала» и робопсы будут охотиться за повстанцами, пережившими восстание машин.
➖ Ну и какой выпуск без Google? Вышел Smart Compose — это ИИ, который анализирует написанный текст и предлагает, как закончить предложение. Да, он понимает, о чем вы пишите, анализирует ваш стиль и предлагает лаконичные концовки. Пока только в бете и не для всех, но будем ждать релиза.
➖ Чемпион по го решил уйти из профессии из-за непобедимого ИИ. По словам южнокорейца, алгоритмы стали настолько совершенны, что ни у кого нет шансов их одолеть. Спасибо DeepMind за это.
➖ Однако ИИ не только убивает профессии, но и создает новые. В администрации Нью-Йорка открылась вакансия уполномоченного по делам алгоритмов. Он будет отвечать за политику города по отношению к ИИ. Думаю, через пару лет придется расширяться до департамента.
➖ Так опасен ли ИИ для человека? На этот вопрос ответил Debater от IBM, задача которого побеждать в спорах. На выступлении в Кембридже ИИ сначала сказал, что у машины нет морали, поэтому человечеству крышка, а затем утешил зрителей, заявив, что технологии продвинут людей на новую ступень развития, ускорив все рабочие процессы. Правда, по словам ИИ, многие потеряют работу. Представляю реакцию студентов.
➖ Лаборатория Alphabet X создала самообучающегося робота, который выполняет повседневные задачи. Правда, пока ему доверили только сортировку мусора, чтобы прокачивать скиллы. Как бы он не эволюционировал и не двинул на создателей армией униженных сородичей.
➖ А вот робопсы из Boston Dynamics отправились служить родине. Полицейские приняли их в свои ряды и уже отправляют на задания — например, обследовать место преступления. А потом повторится сюжет «Черного зеркала» и робопсы будут охотиться за повстанцами, пережившими восстание машин.
➖ Ну и какой выпуск без Google? Вышел Smart Compose — это ИИ, который анализирует написанный текст и предлагает, как закончить предложение. Да, он понимает, о чем вы пишите, анализирует ваш стиль и предлагает лаконичные концовки. Пока только в бете и не для всех, но будем ждать релиза.
Что происходит в Китае?
📹 Тотальная слежка:
Повсеместное использование распознавания лиц в Поднебесной приносит свои плоды — на днях ИИ поймал преступницу, которой удавалось скрываться от полиции 20 лет. В 90-х она грабила и убивала людей. В систему загрузили фотографию той поры и распознавание сработало моментально — преступница работала в магазине торгового центра, где камеры натыканы на каждом шагу. Ее уже задержали.
Что дальше? Фото, ДНК, голос или даже походка скоро станут главными инструментами, позволяющими найти вас за несколько часов в любой точки мира.
🎙 ИИ читает по губам:
Китайские разработчики обучили нейросеть понимать беззвучную речь. Она расставляет точки на лице и читает по губам. Пока она понимает только простые команды в стиле «включи WiFi» и предназначена для глухонемых, которые тоже хотят пользоваться голосовыми помощниками.
Что дальше? Кто сказал, что китайские власти не трудятся над подобной системой для подключения к камерам. Можно не только распознавать лица, но и записывать разговоры в моменты, когда нельзя это делать с телефона.
🚔 За дипфейк отправят в тюрьму:
В Калифорнии уже запретили имитировать чиновников с помощью технологий, теперь под угрозой и национальная безопасность Китая. Там в силу вступил закон, запрещающий распространение дипфейков без специальной пометки. Теперь это уголовное преступление.
Что будет дальше? Дипфейки — опасная штука, они могут запросто убедить человека в том, чего на самом деле не было. Поэтому появляется все больше разработок, которые разоблачают фейковые видео. Но отследить автора будет непросто — особенно если он хочет избежать наказания.
📹 Тотальная слежка:
Повсеместное использование распознавания лиц в Поднебесной приносит свои плоды — на днях ИИ поймал преступницу, которой удавалось скрываться от полиции 20 лет. В 90-х она грабила и убивала людей. В систему загрузили фотографию той поры и распознавание сработало моментально — преступница работала в магазине торгового центра, где камеры натыканы на каждом шагу. Ее уже задержали.
Что дальше? Фото, ДНК, голос или даже походка скоро станут главными инструментами, позволяющими найти вас за несколько часов в любой точки мира.
🎙 ИИ читает по губам:
Китайские разработчики обучили нейросеть понимать беззвучную речь. Она расставляет точки на лице и читает по губам. Пока она понимает только простые команды в стиле «включи WiFi» и предназначена для глухонемых, которые тоже хотят пользоваться голосовыми помощниками.
Что дальше? Кто сказал, что китайские власти не трудятся над подобной системой для подключения к камерам. Можно не только распознавать лица, но и записывать разговоры в моменты, когда нельзя это делать с телефона.
🚔 За дипфейк отправят в тюрьму:
В Калифорнии уже запретили имитировать чиновников с помощью технологий, теперь под угрозой и национальная безопасность Китая. Там в силу вступил закон, запрещающий распространение дипфейков без специальной пометки. Теперь это уголовное преступление.
Что будет дальше? Дипфейки — опасная штука, они могут запросто убедить человека в том, чего на самом деле не было. Поэтому появляется все больше разработок, которые разоблачают фейковые видео. Но отследить автора будет непросто — особенно если он хочет избежать наказания.
Дорогой канал,
Конец года выдался очень плотным. Последний месяц я не успевал делать посты для тебя, мой друг. Но я точно исправлюсь в новом году :)
Вначале января подведем итоги 2019 в мире AI - выберем самую хайповую технологию, провал года, самый обсуждаемый кейс и мой субъективный топ новостей, которые нельзя было пропустить.
В 2020 мы будем и дальше знакомить тебя с событиями в области ИИ. А пока - счастливого Нового года!
Вы не ждали, а я принес. Сегодня в дайджесте — ИИ собирает мебель из ИКЕА, Марк больше не хочет пользоваться Android и первые шаги Mozilla в разработке голосовых помощников:
— Прежде чем робот пойдет собирать мебель за людей и проклянет инструкции ИКЕА, его надо обучить. Для этого исследователи создали симулятор, который без остановки учится собирать цифровую мебель. Пока самую простую, но когда ИИ прокачает скиллы, его отправят управлять реальными роботами — а там и заживем.
— Facebook вкладывается в разработку VR-шлемов и умных экранов, для которых нужна операционная система для работы с пользователем. Сейчас на всех продуктах Марка под капотом стоит Android, но скоро это изменится. Глава социальной сети устал покупать софт у конкурентов и решил создать собственный. Давай, Марк, мы в тебя верим.
— Mozilla запустила голосового помощника для браузера с лисой — пока в бете. Для его активации надо скачать расширение и нажать большую кнопку. Машина выполняет поисковые запросы, включает видео и музыку и открывает сайты из закладок по просьбе человека. Будут тестировать на преданных юзерах, а там и до полноценного релиза недалеко.
— Прежде чем робот пойдет собирать мебель за людей и проклянет инструкции ИКЕА, его надо обучить. Для этого исследователи создали симулятор, который без остановки учится собирать цифровую мебель. Пока самую простую, но когда ИИ прокачает скиллы, его отправят управлять реальными роботами — а там и заживем.
— Facebook вкладывается в разработку VR-шлемов и умных экранов, для которых нужна операционная система для работы с пользователем. Сейчас на всех продуктах Марка под капотом стоит Android, но скоро это изменится. Глава социальной сети устал покупать софт у конкурентов и решил создать собственный. Давай, Марк, мы в тебя верим.
— Mozilla запустила голосового помощника для браузера с лисой — пока в бете. Для его активации надо скачать расширение и нажать большую кнопку. Машина выполняет поисковые запросы, включает видео и музыку и открывает сайты из закладок по просьбе человека. Будут тестировать на преданных юзерах, а там и до полноценного релиза недалеко.