AI Happens
14.6K subscribers
84 photos
9 videos
193 links
Привет! Я Леша Хахунов, основатель Dbrain.io, и это мой канал про искусственный интеллект.
Download Telegram
Подвожу итоги конкурса «Какого ИИ не хватает прямо сейчас?»

Первый победитель
@maxbesov. Он предложил нейросеть, выделяющую нужную информацию в тексте: в книгах, научных статьях, обучающих материалах. Идея отличная — мы тратим уйму времени на то, чтобы найти жемчужину в океане, пробиваясь сквозь авторский стиль (прям как вы сейчас). ИИ упростил бы нам жизнь.

Второй победитель@I3wVQb. Ему не хватает ИИ, который бы определил повреждения внутреннего двигателя по звуку. Цитата: «У каждой детали своя прочность. Какая именно требует ремонта — подскажет звук. Он может быть громче от колебания, менять тональность или “шуршать” из-за отсутствия смазочного материала. Человеческое ухо не различит повреждение на ранней стадии, а ИИ — да. И предупредит автомобилиста». От себя добавлю, что сам думал над подобной технологией и обсуждал с одной компанией: к звуку предлагал еще добавить вибрацию. Кладешь телефон на двигатель и снимаешь данные — это бы давало максимально точные показатели. Возможно в будущем удастся над этим поработать.

Поздравляю ребят с победой! Интересных идей было много, брейншторм обязательно повторим.

И еще — несколько предложенных ИИ на самом деле уже есть. Могу отдельно их назвать и указать компании, которые этим занимаются. Интересно?
​​За прошедшую неделю нейросети открыли для себя дикпики, научились генерировать игровых персонажей из селфи, озвучивать текст, переводить слова в движение и обслуживать людей в Макдоналдсе:

◼️ Одна разработчица открыла личку и увидела очередной дикпик. Тяжело вздохнув, она удалила сообщение и позвонила подруге. Вместе они решили создать нейросеть, которая бы банила чужие гениталии еще до того, как их увидит человек. Для сбора датасета девушки обратились к пользователям — вскоре фото было столько, что пришлось закрыть аккаунт в Twitter. Зато теперь ИИ распознает “дикпики обычные”, на очереди — “дикпики стеснительные”, где часть запрещенного контента прикрыта.

◼️ Китайские разработчики научились делать персонажей игры похожими на пользователей. Пока доступно только в Justice Online. Сфотографируйте лицо, и нейронки воспроизводят его в игре с учетом костной структуры. Больше не надо мучиться с настройками — достаточно селфи, чтобы оказаться в игре.

◼️ В Google Lens теперь можно прослушать текст с фото. Сначала сетки распознают каждый символ на фото, потом слова, а дальше — складывают текст целиком. Затем алгоритмы из соседнего приложения Translate переводят его и только потом подключается воспроизведение текста. Получается так себе — ошибки накапливаются на каждом этапе, и выходит почти сломанный телефон.

◼️ Алгоритм JL2P принимает входящий текст на английском и моделирует движение. Он может заставить 3D-фигурку ходить, бегать, играть на музыкальных инструментах и менять скорость передвижения — в общем, что человек скажет, то и сделает. Пока разработка на ранней стадии, но если подумать — это будущее робототехники.

◼️ Фастфудный император купил у стартапа Apprente голосовую систему, которую внедрят в “МакАвто”. Искусственного принимателя заказов уже начали тестировать на точках, дальше планируют внедрить его в приложение и киоски самообслуживания. А работникам сказать “пока”.
Привет, меня было мало на прошлых неделях, но теперь я снова с вами! Скоро покажу, какие ИИ уже существуют из того, что вы предложили в недавнем конкурсе. А пока — делюсь конференциями, где можем встретиться и пообщаться. Их две и обе крутые — Ai Stories и Pouf.conf. Первая уже завтра — так что начну с нее.

Молодым умам кажется, что запустить свое дело легко — главное, чтоб деньги были. На самом деле, подводных камней полно. Многие из них нашлись пока мы с командой делали Dbrain. C какими трудностями столкнулись и как решали — расскажу завтра на Pouf.conf. Надеюсь, мой честный рассказ о работе поможет будущим предпринимателям вырастить своего единорога.

Где? Москва
Когда? 26 сентября
Для кого? Для студентов
Регистрация? Тут

Потом поговорю с теми, кто уже играет на Hardmode. В неформальной атмосфере с ODS community и Rusbase обсудим мифы и ошибки при внедрении ИИ в бизнес. Конференция называется Ai Stories и она одна из лучших для бизнеса.

Где? Москва
Когда? 4 октября
Для кого? Бизнеса, технарей и всех заинтересованных
Билет? Тут

Увидимся!
​​Пробежимся по новостям из области ИИ — массовая слежка, русские студенты покоряют Google, подкасты и пользовательские соглашения:

Команда из МФТИ стала призером конкурса от Google. В ежегодном соревновании Powered by TF Challenge приняли участие более 600 команд. Побеждает тот, кто представит лучшую разработку области ИИ на основе гугловской библиотеки TensorFlow. Русские разработчики показали библиотеку DeepPavlov и вошли в топ-5 лучших решений.

Массовое распознавание лиц из Китая перекочевало в Индию. В стране нет законов о конфиденциальности, поэтому властям есть где разойтись. Планируют привязать к фейс-рекогнишну все доступные базы документов и трекать толпу 24/7. А все потому, что в стране полицейских не хватает. Зато камер скоро будет достаточно.

Если вас бесит реклама в подкастах, следующий ИИ для вас. Нейросетка Adblock Radio научилась отличать рекламные вставки от простых разговоров, но пока пропускает нативную рекламу и иногда блокирует хип-хоп (понимаю ее). Автор ИИ не будет зарабатывать деньги на технологии. Все, что он хотел, это привлечь внимание создателей шоу к проблеме рекламы — ее много и она бесит. Пора что-то менять, а то придет ИИ и все заблокирует.

Признайтесь честно — никто не читает пользовательские соглашения. Даже если там будет написано, что компания заберет квартиру и кота, мы жмем, потому что лень читать. Для таких людей (читай — всех) появился ИИ, который вглядывается в мелкий шрифт и коротко пересказывает содержание. Например, он говорит, что инстаграм не гарантирует безопасность опубликованного. Дальше — больше, нейросетки уже изучили бумаги всех самых популярных платформ. Там много интересного.
​​Недавно закончился конкурс, где я просил присылать идеи ИИ, которые еще не реализованы. Многие предложили ИИ, которые, на самом деле, уже есть. Собрал их в список. Надеюсь, будет полезным:

Фитнес браслет снимает данные — говорит, когда вы заболеваете:
Тут все просто — даже последние поколения Apple Watch реализуют эту функцию.

Управление закупками в бизнесе и прогнозирование спроса в магазинах:
Почти все крупные сети внедрили себе подобные решения. К примеру, Ozon.

Автоматизация ручного труда в офисе при работе с документами:
Почти все предложения сводились к применению RPA + OCR. Смотрим Docr и Uipath.

ИИ вместо инженеров для проектирования домов:
Многие бьются над этой задачей. Например, можно почитать о генеративных сетях в архитектуре.

ИИ следит за пожилыми людьми и бьет тревогу, если что не так:
Над этим трудится стартап с русскими корнями Cherry Home.

ИИ анализирует снимки МРТ, КТ, УЗИ — для зубов, живота, горла и тд, и ставит диагноз:
Медицина — одна из самых активных областей в машинном обучении. Перечислить все компании, которые над этим работают, не хватит символов. Вбейте в поисковике “тип исследования + AI” и тут же найдете 5-10 стартапов. Например, Dental Ai.

Автоматический скоринг людей при хайринге:
HR двигается в разных областях — две важные: прохождение тестового задания и анализ видео интервьюируемого. Пример, HumanticAi.

Генерация телеведущих и врачей:
Генерация — это тренд 2019 года. Думаю, уже в 2020 мы уже будем смотреть ролики на YouTube без людей, вместо него передачу будет вести замаскированный под человека ИИ. Что-то подобное уже сделали в Китае.

Фильтрация пород почвы и продукции на конвейере:
В 2017 мы создавали в стартапе Connectome ИИ, который следит за качеством работы на конвейерной линии.

ИИ говорит погоду на завтра:
С прогнозом на 5-7 дней все достаточно хорошо (точность около 90%), а вот дальше начинаются проблемы. Многие вкладываются в это, например, IBM.

На этом все. Впереди нас ждут новые достижения в ИИ. Оставайтесь со мной и ничего не пропустите 😉
​​Коллаборация года в IT — Microsoft разрешил Google ассистенту управлять Xbox Onе

Кто-нибудь помнит голосового помощника Cortana? Разработчики Microsoft представили его в 2014 году и, кажется, с тех пор о технологии никто не вспоминал. А ведь за эти годы Google и Apple подсадили пользователей на умных помощников — машина бронирует столики, отвечает на звонки, ведет записи и не научилась только белье из химчистки забирать (а жаль). В общем, Microsoft эту гонку проиграл.

Но это не конец — Microsoft понял, что лояльность пользователей важнее, чем попытки спасти Cortana, поэтому запустил интеграцию продуктов Google в свои системы. Начали с простого — позволили ассистенту управлять Xbox One — запускать игры, ставить на паузу, регулировать громкость. Теперь игровая приставка стала еще одним подопечным голосового помощника. Пока функция доступна в бете, но полноценный запуск назначен на эту осень.

Вероятно, это вопрос времени, когда мы сможем управлять компьютером через Google ассистента и получим полноценную поддержку помощника в Windows 10. В конце концов, какая разница через кого отдавать команды, если пользователь все равно сидит на винде.
Прочитал в Forbes статью на злободневную тему и пересказываю:

Существует технология, о который вы, возможно, слышали. Это OCR — оптическое распознавание символов. Даже если не слышали, то точно использовали, например, когда наводили камеру смартфона на текст для автоматического перевода.

Технология умеет не только это — крупные компании с помощью OCR переводят бумажные документы в цифру: обрабатывают входящие заявки от клиента и оцифровывают архивы. Но правда в том, что OCR уже давно может больше. И случилось это в тот момент, когда OCR заработал на базе ИИ.

Итак, как было раньше: OCR работает только на ограниченном наборе документов, обязательно определенного формата и качества. Он извлекает текст, но если поле хоть немного не вписывается в шаблон, результат желает оставлять лучшего. Многие компании к этому привыкли и живут дальше — в конце концов, ускорение работы на 20% уже неплохо.

Но где ИИ, там и будущее. OCR с использованием машинного обучения больше не ограничено правилами — система научилась думать. Она беспрерывно обучается в процессе, расширяя свои возможности в зависимости от нужд клиента. Если поле вдруг не подходит под стандарт (документ перевернут, на фото есть блики), алгоритмы все равно справятся с задачей — достаточно показать им примеры работы оператора в подобных ситуациях.

Однако и это еще не все. Можно выйти за рамки классического OCR и внедрить в работу системы NLP. Тогда алгоритмы учатся не только читать текст, но и понимать его. Системе не требуется подсказывать, где в тексте ФИО, дата, а где адрес человека — она уже умеет это делать, превосходя точность человека. В многостраничных документах такие функции являются необходимыми.

Развитие технологий уже повлияло на рынок — теперь мало создавать шаблоны, чтобы удержать клиента. Конкурентное преимущество за тем, кто обеспечит распознавание любых документов на уровне человека, в том числе для рукописного текста. Кстати, возможность распознавать его — тоже заслуга машинного обучения.
​​Думаю, вы уже догадались, в Dbrain мы пилим свой OCR — версию с пометкой АI.

О том как мы создали OCR на базе ИИ и кто наши клиенты — я расскажу на вебинаре. Это хороший повод познакомиться и поговорить. Зову тех, кто вынужден работать с докуменами, и евангелистов ИИ. В общем, всех!
Пойдете на вебинар?
Anonymous Poll
26%
Пойду
46%
Потом посмотрю
28%
Неинтересно
​​История, в которой есть все — расизм, незаконный сбор данных, большая корпорация и… скидки в Starbucks.

В истории с распознаванием лиц есть один нюанс — оно работает с разным качеством для разных рас. Американское правительство выяснило, что фотографии афроамериканцев узнаются системой почти в 100 раз хуже, чем белых. Почему так — вопрос для отдельного поста. Сейчас же важно, что Google решил исправить ситуацию, однако выбрал для этого интересный, но крайне неэтичный способ.

Агентство Randstand наняло для радужной компании подрядчиков — они отправились собирать фотографии лиц на улицах Атланты, кампусах колледжей и фестивалях в Лос-Анджелесе. Фокус группа — люди с темным цветом кожи. А все потому, что распознавалка от Google, которая отвечает за разблокировку в будущем смартфоне Pixel 4, плохо на них работает.

Сотрудники предлагали прохожим поиграть с телефоном пару минут: протестировать новое приложение и сыграть в селфи-игру в обмен сертификат на $5 в Starbucks. В это время смартфон собирал сканы лиц. Среди тех, к кому подходили, бездомные и студенты, которые не подозревали, что помогают обучать нейросетки.

Персональные данные за стаканчик кофе — вот вам и технологичное будущее.
​​Сворачивайте свои камеры и тепловизоры, надевайте шапочки из фольги. Потому что теперь понадобится только Wi-Fi или любой другой излучатель, чтобы видеть вас сквозь стены.

Исследователи научились распознавать действия по отражению волн wi-fi роутера. Алгоритм получает сырые данные и генерирует цифровую модель скелета человека. Он видит живой объект за стеной и определяет базовые действия, которые предварительно ему скормили в датасете. К примеру, рукопожатие.

Чуть-чуть теории: как работает дальномер — он отправляет волну в инфрокрасном спектре (читай, лазер) и засекает время возврата. Время умножаем на скорость света = наше расстояние. Аналогичное свойство можно делать с любой волной, например, радио.

Но чтобы построить картинку нужна очень сложная математическая модель отражения сигнала. Однако к чему это в 2019 году, если можно подрубить ИИ.

Результаты выглядят очень красиво, исследователи смогли распознать базовые действия в темноте, через стену. Потенциал огромный, главный — решение проблемы приватности. В Европе нельзя снимать людей на камеру, даже если они работают на вашем заводе, потому что это нарушает их права. А вот раздать Wi-Fi им точно можно. Скоро спрятаться можно будет только в клетке Фарадея.
​​Короткий опрос подписчиков показал — многие тут не догадываются, что кроме канала про нейросетки, я еще чем-то занимаюсь. Пора познакомиться.

Короткое досье: меня зовут Леша Хахунов, я сооснователь ИТ-компании Dbrain. Уже 4 года я живу в мире машинного обучения, а последние два года мы с командой активно пилим продукт, который бы ускорил процессы, связанные с обработкой документов. Еще мы тестируем как люди могут дополнять несовершенство нейросетей и дообучать их в процессе работы.

Завтра (22 октября) в 19:00 на вебинаре я расскажу, победит ли ИИ бумажные документы, хватит ли ему нейронов, что разобрать наш почерк и многое другое. И, конечно, отвечу на вопросы, заданные во время встречи.

Присоединяйтесь — https://events.webinar.ru/15043133/DbrainOCR
И уже постоянная рубрика о дипфейках:

Калифорния решила бороться с ИИ-подделками на законодательном уровне. Пока в двух сферах — порно и политике.

В штате запретили использовать лицо человека в создании контента без его согласия. Другими словами, если вы вдруг увидели ролик эротического содержания, в котором, очевидно, не участвовали — можно идти в суд. Второй закон запретил размещать дипфейки с политическим кандидатом за 60 дней до голосования.

Если еще не видели ролик, где Марк Цукерберг уверенным голосом заявляет, что владеет всеми нами, исправляйтесь. Марк, может, и думает так, но в реальности никогда такого не говорил.

Мое мнение — закон должен быть, вопрос в том, будет ли он действовать. Кажется, что от технологии deep fake спасет только нейронка Anti Deep Fake, которая способна увидеть обман на видео. Почти уверен что через полгода у YouTube эта функция станет нативной.
Netflix знает, что вы делитесь учеткой с друзьями, и хочет это прекратить

Аналитики стриминговой платформы знают, что мы делимся аккаунтами с близкими, чтобы сэкономить на подписке. В компании даже посчитали недобросовестных пользователей — их много, но точные цифры не разглашаются.

Как вы думаете, сколько существует способов узнать вас? Раньше для идентификации на сайте вы передавали куки. Но время шло и законы о персональных данных становились строже — так появилась потребность определять человека без жесткого идентификатора. Способ, придуманный до машинного обучения — сбор подробной информации о железе пользователя и ряд быстрых вычислений с точностью 1/100000-1/200000.

Но потом появился ИИ, который и надумал использовать Netflix. Они берут всю информацию, какую могут узнать о человеке: как он жмет на клавиатуру, в какое время заходит, какое было подключение, какие видео листал, а дальше нейросеть анализирует данные и учится различать всю компанию друзей под одним аккаунтом. К слову, такой подход уже используется для контроля человека в банковских приложениях. И чуть ли не главный критерий там — это проверка скорости ввода символов в рамках пароля.

Так что в будущем не рассчитывайте, что машина купится на то, что вы любите посмотреть «Во все тяжкие» и «Секс в большом городе» одновременно с двух экранов.
Нетфликс данными не делится, но мы можем и сами проверить статистику. Делитесь аккаунтом с друзьями?
Anonymous Poll
14%
Да
22%
Нет
64%
Не плачу Netflix, по странке все качаю с торрентов 👨‍💻
​​Отдыхаете? А ИИ — нет:

Хакер взломал роботов в японском отеле — искусственный персонал убирает комнаты, проверяет гостей через фейс-рекогнишн и выполняет другие задачи в стиле “принеси-подай”. Несколько месяцев назад программист предупреждал владельцев, что роботов легко хакнуть и подключиться к их камерам, если добраться до его спины. Руководство отеля его проигнорировало. В итоге неравнодушный пользователь обнародовал уязвимость и только после этого ПО роботов обновили.

Программисты из компании Security Research Labs (специализируется на кибербезопасности) написали программы для голосовых помощников Amazon и Google с вредоносным ПО, суть которого — записывать разговоры 24/7. Завернули все это в простенькие приложения-гороскопы и отправили на одобрение. Хотели проверить, как корпорации заботятся о безопасности. К сожалению, лже-гороскопы легко одобрили. В конце концов, создатели сами написали в службу поддержки и рассказали об угрозе.

Вышло первое за 5 лет обновление поисковика Google, в котором появилась новая система обработки естественного языка BERT — она понимает контекст поискового запроса. Алгоритм анализирует слова в запросе не одно за другим, а одновременно, получая полный контекст и учитывая союзы и предлоги. Подробности — гуглите.

Google Brain Team научила нейросети слышать запахи. Понадобился датасет из 5 тысяч молекул запахов с описанием и связка их с дискрипторами. Так ИИ научился предсказывать аромат и классифицировать его. Представьте систему, которая будет предупреждать людей об утечке газа, чуять химикаты в воздухе и придумывать ароматы для парфюмеров. Она вот-вот появится.

Роботизированная рука от OpenAI научилась собирать кубик Рубика, вот только никто ее этому не учил. Благодаря визуальным датчикам и алгоритмам рука сама пришла к тому, как решить головоломку. Это шаг в сторону самообучаемого ИИ, который тренирует скилы без помощи людей.
​​Борьба с системами распознавания лиц набирает обороты. Тут вам и проекторы, и тату, и маски на лицо. Свежая новость — Facebook тоже взялся за цифровые трансформации, чтобы хакнуть собственный фейс-рекогнишн.

Задача ставилась так — давайте научим сеть модифицировать изображение лица с сохранением позы, света и остальных признаков, которые человек используем для распознавания личности, но допустим изменение маленьких деталей (чуть-чуть поправим нос, глаза, губы).

Этого оказалось достаточно, чтобы сломать распознавалку. Но что куда интереснее — разработчики обманули не только машину. Человеку и самому тяжело отличить человека. Особенно сильно это ощущается на примере кинозвезд: мозг замечает изменения в лице, но не может точно сказать, что не так.

Единственный способ хакнуть систему распознавания — это заточить оружие именно на этой системе. Так и сделал Facebook — он сам создал нейросеть, которая ломает фейс-рекогнишн, чтобы найти слабые места и прокачать их, пока этого не сделал какой-нибудь русский хакер. Это война аналогичная «вирус-антивирус» — одна сторона создает яд, а другая — ищет противоядие. Только в этом случае по обе стороны баррикад — одна и та же армия.

Facebook предусмотрительно готовится к будущему.
​​Cамый частый вопрос, который задают мне на конференциях: AI — это очередной хайп по типу крипты и виртуальной реальности или наше будущее?

Для ответа достаточно посмотреть последние презентации ИТ-гигантов — очередная из них, компании Adobe, которая отдает львиную долю выступлений на новые продукты, в которые интегрировала машинное обучение.

Теперь коротко о том, почему Adobe — это уже давно не только Photoshop. Вот чем компания занимается сейчас:
About Face — уже рассказывал об этом. Отец всех поддельных фотографий делает инструмент для борьбы с ними.
All in — возможность совмещать несколько фотографий с общим контекстом, чтобы перестать пытаться влезать в широкоформат объектив. Штука классная, похожая на прокаченную версию панорамы.
Sweet Talk — упрощенный способ анимации персонажей на основе аудиодорожки. Крайне актуально для блогеров (привет, Mygap). Использовать легко — пишем голос, берем любое лицо, а дальше нейросетка решает, как это все совместить.

Но если Adobe вам мало, вспомните презентации Google, Apple, Microsoft — они все больше напоминают соревнования, у кого ML круче. И это те компании, которые должны по идее делать B2C, а значит их задача решать не узкие кейсы, а добиваться качественных результатов на задачах с большой вариативностью (представьте, сколько языков нужно выучить Siri, чтобы элементарно сказать погоду). ИИ-лаборатории, в которые они вкладываются, производят не только умных помощников, но и решают фундаментальные задачи, например, учат машину думать и анализировать мир без подсказок человека.

Отвечая на вопрос — будущее не за телефонами с тремя камерами или изогнутым экраном. Оно за ML — методом, который позволит решать задачи по-новому. Это не хайп, а медленный путь в сингулярность.
​​Нейросеть сама догадалась, что мы крутимся вокруг Солнца

Ученые попытались заставить нейросеть думать в парадигме земного восприятия. Мол, вот планеты — тут Солнце, тут Марс. Мы собираем данные по ним сотни лет, скажи, что как движется. Алгоритм быстро смекнул, что люди — не центр мира, а Земля крутится вокруг Солнца.

Почему у меня смешанные чувства от этой новости — я считаю, что если уж мы начали заниматься машинным обучением, то пора бы для многих задач отказаться от интерпретируемости результатов. Зачастую мы не понимаем логику алгоритмов и пытаемся подогнать ответы под наши представления о мире. Поэтому и ждем от ИИ понятных формул в стиле “E = mc2” — потому что только так можем контролировать происходящее. К примеру, нейросети давно выиграли людей в распознавании образов. Алгоритм отличает лица без понятий “глаза, нос, уши”. Для него — это непонятные нам признаки. Он делает это по-своему и лучше людей.

Наступят времена, когда машины смогут рассчитать траекторию полета корабля на Марс и вычисления будут отличаться от того, что представляли себе люди. Для многих областей, в том числе физике, где все понятия мы придумали сами, понятных нам элементов вроде энергии или ускорения, может просто не быть.

Короче, не надо искать объяснения результатам — собрали данные, поставили задачу, а нейросеть уже сама разберется. Мы не откроем ничего нового, если заставим машину думать, как люди.
​​Вернулся с последним дайджестом этой осени:

Чемпион по го решил уйти из профессии из-за непобедимого ИИ. По словам южнокорейца, алгоритмы стали настолько совершенны, что ни у кого нет шансов их одолеть. Спасибо DeepMind за это. 

Однако ИИ не только убивает профессии, но и создает новые. В администрации Нью-Йорка открылась вакансия уполномоченного по делам алгоритмов. Он будет отвечать за политику города по отношению к ИИ. Думаю, через пару лет придется расширяться до департамента. 

Так опасен ли ИИ для человека? На этот вопрос ответил Debater от IBM, задача которого побеждать в спорах. На выступлении в Кембридже ИИ сначала сказал, что у машины нет морали, поэтому человечеству крышка, а затем утешил зрителей, заявив, что технологии продвинут людей на новую ступень развития, ускорив все рабочие процессы. Правда, по словам ИИ, многие потеряют работу. Представляю реакцию студентов. 

Лаборатория Alphabet X создала самообучающегося робота, который выполняет повседневные задачи. Правда, пока ему доверили только сортировку мусора, чтобы прокачивать скиллы. Как бы он не эволюционировал и не двинул на создателей армией униженных сородичей. 

А вот робопсы из Boston Dynamics отправились служить родине. Полицейские приняли их в свои ряды и уже отправляют на задания — например, обследовать место преступления. А потом повторится сюжет «Черного зеркала» и робопсы будут охотиться за повстанцами, пережившими восстание машин. 

Ну и какой выпуск без Google? Вышел Smart Compose — это ИИ, который анализирует написанный текст и предлагает, как закончить предложение. Да, он понимает, о чем вы пишите, анализирует ваш стиль и предлагает лаконичные концовки. Пока только в бете и не для всех, но будем ждать релиза.