AI Happens
14.6K subscribers
84 photos
9 videos
193 links
Привет! Я Леша Хахунов, основатель Dbrain.io, и это мой канал про искусственный интеллект.
Download Telegram
​​Все-таки пригодилась: почему ИИ обыграл китайцев в Доту, но завалил школьный тест по математике?

Исследователи из DeepMind проанализировали математические способности нейронных сетей на примере собственного алгоритма. Обучив его на наборе данных, состоящих из математических задач, создатели заставили алгоритм решать тест из школьной программы. ИИ экзамен провалил.

Причем тут математика? Благодаря теоретической науке развиваются технологии — от космоса до ИИ. Она не несет практического смысла сама по себе, но выступает инструментом для других наук. А иногда подставляет палки в колеса: в математике полно нерешенных задач. Например, теория струн (М-теория) по-прежнему находится в начале пути из-за ограниченности математического аппарата.

Почему важно? Есть маленькое, но быстро растущее направление, где люди учат нейросети понимать и решать математические задачи. Пока упражнения по сложности не выходят за рамки школьного курса, но алгоритмы уже самостоятельно переводят задачу с человеческого языка на свой родной без посторонней помощи.

Почему нейросеть завалила контрольную по математике? Первая причина — даже если алгоритм решает широкий спектр задач с точностью в 99%, он все равно не прав. Представьте, что вы решаете пример у доски: в ответе получилось 4,99, а надо 5. Учитель поставит двойку и будет прав, потому что приближенное вычисление не равно правильное. Вторая проблема — это интерпретируемость. Другими словами, если надо решить сложную задачу из последней части ЕГЭ, и вы написали только ответ, никто вам не поверит. Всегда нужно пошаговое объяснение, как вы пришли к такому результату.

Что дальше? Мы точно доживем до времен, когда алгоритм научится проверять домашнее задание не только на уровне “правильно/неправильно”, но и анализировать предоставленное решение. Что касается сложных задач — может, именно ИИ найдет подтверждение теории струн, а не человек. А пока пусть делает работу над ошибками.
​​На дворе очередная пятница — самое время пройтись по новостям из мира ИИ:

1.
Самая обсуждаемая нейросетка недели — DeepNude. Как понятно из названия, она полностью раздевает женщин на фото, дорисовывая скрытые участки тела. После того, как приложением воспользовались больше полумиллиона пользователей, создатели проекта объявили о закрытии. Сказали, мир пока не готов к подобной технологии. Другой вопрос — зачем нужна технология, которая в один миг оставит вас без одежды, хотите вы этого или нет.

2. Астрофизики сделали нейросеть для 3D-симуляции Вселенной. Цель была поиграться с параметрами и посмотреть, как развивается космос при различных сценариях. Например, алгоритм умеет моделировать изменение гравитационной силы и процент темной материи. А теперь забавный факт — нейросеть создаёт симуляцию меньше чем за секунду с погрешностью менее 3 процентов. Создатели сетки не могут объяснить, как ей это удалось.

3. Компания Walmart призналась, что ловит воров в магазине с помощью компьютерного зрения. Камеры отслеживают не людей, а продукты — ИИ определяет товары, которые покупатели положили в сумку без пробивания на кассе. Технологию уже внедрили в тысячу магазинов в надежде, что это поможет снизить убытки — из-за краж они достигают 4 миллиардов долларов в год.
​​Почему у кота, чей хозяин — инженер из Amazon, есть персональный ИИ, а у нас — нет

Инженер из Amazon научился контролировать своего кота при помощи алгоритмов машинного зрения. Все, что ему потребовалось, — это камера Amazon DeepLens, микрокомпьютер Arduino и 23 тыс. изображений пушистого объекта. После идентификации животного система принимает решение, можно ли пускать ночного охотника домой: если тот вернулся с добычей в зубах, алгоритм блокирует дверцу на 15 минут и отправляет хозяину сообщение, если без улова — проход свободен.

Почему важно: Кажется, что парень сделал милую ML-игрушку для кота, но на деле он проделал кропотливую работу. Инженер собрал датасет из 23 тысячи изображений животного (с добычей и без) и натренировал сети с высоким процентом успеха — в 5 из 6 случаев ИИ верно среагировал на добычу.

Раз ИИ добрался до котов, то скоро и у нас будут подобные решения? К сожалению, нет. Рядовой пользователь не повторит опыт инженера: только на сбор и разметку данных уйдет тысяча долларов на той же Mturk. Благодаря скилам сотрудник Amazon выполнил типичную для B2B сегмента задачу — собрал работающее решение на основе машинного зрения. Если масштабировать его в B2C, то придется учить нейросеть различать все породы котов и их добычу — выйдет дорого и долго.

Это же задача более актуальна для бизнеса. Допустим — по контракту в пару сотен тысяч долларов вы создаете архитектуру, которая определяет активность сотрудников на заводе. Чтобы решение заработало на другом предприятии, ставите там камеры, пару недель собираете действия на записи, делаете разметку, дообучаете существующую нейросеть, и все работает. Получаете прибыль, результаты и востребованное решение на рынке.

Отсюда вывод — количество ИИ-кейсов с применением компьютерного зрения будет расти в B2B секторе, где есть заводы, а вот клиентам с лапками придется еще подождать.
1
​​Съехала от родителей — нейросеть для изучения Вселенной обошла математиков и ушла далеко за пределы того, что от нее ждали

Ученые создали нейросеть для 3D-симуляции Вселенной. Алгоритм предсказывает развитие космоса при различных сценариях, в том числе моделирует изменение гравитационной силы и процент темной материи. Последнему критерию нейросеть не обучали — создатели не могут объяснить, как она до этого дошла.

Почему об этом пишем: В пятничном дайджесте мы упомянули эту новость, но хочется рассказать о ней побольше. Сначала разберемся — зачем астрофизикам понадобилось машинное обучение? Все просто — они попытались облегчить себе жизнь и понизить уровень сложности вычислительных процессов в работе. До ML это работало так — сначала описывают математическую модель, потом суют в нее разные параметры и смотрят на результат.

У классического подхода две проблемы: первая — надо найти все параметры, которые влияют на предсказываемую среду, и затем связать их между собой. Вторая — сложные модели считаются на суперкомпьютерах, и это может занять месяцы. Получается долго, но во многих областях без кропотливых вычислений не обойтись: так создают симуляции прочности мостов, анализируют протекание ядерных реакций и отрабатывают траектории полета летательных аппаратов.

Астрофизики же применили новый способ — взяли кучу данных от точной модели, использовали их как выходные данные и обучили нейросеть. Получилось слишком хорошо. Сетка создаёт симуляцию меньше чем за секунду, но что круче — она проявила инициативу, научившись считать процент темной материи, хотя не должна была это делать. Ждем развития технологии, а математикам-астрофизикам удачи. Кажется, у них появился конкурент — осталось разобраться, как он работает.
​​Что там у ИИ — порно, страховки, вирусные ролики:

1.
В американском штате Вирджиния в законе о порномести появился новый пункт, запрещающий использовать дипфейки. Уже под запретом распространение порно без согласия бывшей, а теперь вас могут арестовать за генерацию фейкового контента (например, вы подставили ее лицо в ролик). Это только начало: уверен, что скоро мы увидим больше законов по контролю ИИ-технологий.

2. Развлечение людям — датасет для ИИ: Команда Google AI скормила две тысячи роликов флешмоба Mannequin Challenge нейросети. Замирающие в кадре люди помогут алгоритмам лучше ориентироваться на видео — они научатся оценивать глубину кадра, расстояние между объектами и другие параметры. Снимаю шляпу перед смекалкой дата-сайентистов — красивое и простое решение задачи.

3. Бородатые программисты в опасности: появилась технология на основе машинного обучения, которая определяет возраст человека по внешним параметрам. Казалось бы, ничего нового, но! Если цифры в паспорте отличаются от того, сколько вам дала нейросеть, она подает предупреждающий сигнал — возможно ваше здоровье не в порядке. Авторы статьи справедливо замечают, что нейросеткой могут заинтересоваться страховые, которые пускают в ход любые средства, чтобы как можно точнее определить клиентские риски.
​​Распознавание лиц — почему нейросети легко находят законопослушного гражданина, но пропускают злодеев?

Как нейросеть вас распознает? Сначала ИИ ищет лицо, а потом определяет, кому оно принадлежит. Самое интересное начинается, когда алгоритмы пытаются установить личность. Представьте, что вы спускаетесь по эскалатору: алгоритмы вас увидели, нашли лицо, избавились от фона, выровняли изображение, сгладили искажения, а дальше перевели ваши черты лица в эмбеддинг. Так называется числовое значение, которое понятно только машинам: у нас свой язык, у них — свой. Все ваши родинки и морщинки — это числа. Алгоритмы сравнивают ваш эмбеддинг с похожими численными векторами в датасете, пока не найдут совпадение. Нашла — вас узнали.

Так ли хорошо работает система? Раньше результаты компаний были открытыми, и в данные мог заглянуть любой. С развитием технологий (а главное — спросом) количество игроков выросло, а место в рейтинге стало играть роль при выборе вендора. Новички повадились уводить датасеты других компаний домой и обучать сетки на них, а также искусственно улучшать качество без работы над алгоритмом. Теперь тестированием систем занимается суровый NIST — американский национальный институт стандартов и технологий. В 2019 году первой в точности распознавания стала российская компания VisionLabs.

Как технологию распознавания использует правительство? К чемпионату мира по футболу 2018 года камеры в общественном транспорте апгрейднулись — теперь прикрученные к ним нейросети распознают лица в толпе. Причина — обеспечить безопасность граждан и поймать всех преступников.

Почему мотивация государства под большим вопросом? Датасет в основном собирают с социальных сетей. Новая аватарка — это данные для нейросети. И тут загвоздка: преступники не спешат заводить профиль в Инстаграме. Часто единственное изображение, доступное для распознавания, — это черно-белый снимок с места преступления. Технология помогает полиции отслеживать каждый шаг обычных граждан, которые не запариваются с конфиденциальностью, а обнаружить настоящего злодея в метро ей не под силу.
​​Приключения ИИ на этой неделе — кибербуллинг, переводчик и Starcraft II:

Алгоритм, который дает возможность подумать дважды: новая функция Instagram борется с кибербуллингом. Теперь нейросеть анализирует содержание комментария и выдает пользователю предупреждение «Ты точно хочешь это отправить?», если видит признаки оскорбления, насилия или ненависти. Идея работает — первые результаты показали, что соцсеть успешно противостоит мимолетному желанию интернет-тролля обидеть других пользователей. Это лучше, чем разбираться по факту, как это делает Facebook.

Опять Google: компания обновила функцию перевода через камеру в приложении Translate, добавив еще 60 языков для распознавания. В следующем релизе приложение будет поддерживать более ста языков и автоматически определять язык текста, на который наведена камера. Вишенка на торте — создатели подтянули базовые модели нейросеток, благодаря чему существенно снизится процент ошибок при переводе. Даты обновления пока нет, но мы с нетерпением ждем. Пока перевод от Гугла напоминает таблички в китайских ресторанах — смешно и бессмысленно.

Берите отгулы, нам предстоит тяжелый бой: скоро в Starcraft II появится возможность сразиться с заклятым врагом — ИИ от Deepmind выходит на свободу. Чтобы вступить с ним в схватку, нажимаем кнопку «Участвовать» и готовимся к бою в рейтинговом режиме 1 на 1. ИИ сможет играть на любых картах и за любого персонажа. При этом для него будут введены ограничения по количеству действий в секунду, так что все по-честному. Deepmind не признается, что бои пойдут на дальнейшую прокачку нейросетей, но знайте — каждый ваш удар укрепляет врага. Важно: возможность разгромить ИИ будет доступна недолго.

В Китае создали нейросеть DSNet — она считает людей на снимке. Задача не новая — решения в этой области уже есть, однако их недостаток в том, что они работают с ограниченной областью изображения. DSNet сильно расширила анализируемую картинку благодаря плотному расширенному сверточному блоку, что позволило улучшить результат на 30% по сравнению с другими.
​​Усы и хвост — вот мои документы: китайский стартап научился распознавать собак по отпечатку носа

Разработчик технологии распознавания лиц для китайского правительства запустил новый продукт — nose recognition для собак. Владелец фотографирует нос питомца, отправляет в приложение, а дальше система сверяет картинку с базой данных, состоящую из других пользователей и приютов по всей стране. Точность распознавания животного — 95%. Благодаря технологии уже удалось вернуть хозяевам десятки тысяч потеряшек.

Почему мы до сих ходим с паспортом: процесс подтверждения собственности и личности — головная боль нашего времени. Сами подумайте: чтобы нас узнал турникет, надо вытаскивать Тройку из кармана, для машины нужны ключи и запылившиеся документы из бардачка, на чемодан клеят бирку, а квартира наша только после сотни бюрократических кругов ада. Бизнес и государство ищут способы оптимизации процесса. К примеру, ввести уникальные идентификаторы: нас распознают по лицу или сетчатки глаза, и сразу понятно — как зовут, где живем и когда последний раз ходили к зубному. Пока это все на стадии разработок, а вот собакам повезло больше.

Собачьи носы — это только начало: китайская компания Megvii, уже набившая руку на распознавании толпы, сделала то же самое для собак, заменив лица носами, а датчики — камерами. К уникальному идентификатору можно подключить медицинское обслуживание, страховку, сертификацию и возможность продажи. Больше не нужно чипировать пса, чтобы предотвратить потерю, его нос — уникальный код. Технология развивается и для других животных: недавно мы в компании учились распознавать коров по пятнам на теле (если интересно, расскажу как-нибудь подробней). Так что порадуемся за братьев наших меньших — в отличие от нас, им паспорт больше не нужен.
​​Что нового у нейросеток — вакцина от гриппа, покер, люди-невидимки:

◾️Ученые из Университета Флиндерс создали алгоритм, который вывел вакцину от гриппа. Для этого они скормили нейросети данные о химических соединениях и разработали программу, которая их генерирует, отталкиваясь от устройства иммунной системы человека. Вакцина прошла первичные испытания и уже активно тестируется на людях. Сейчас фармакологические компании тратят миллиарды на разработку лекарств. Если алгоритм докажет профпригодность, то в скором будущем нас ждут глобальные перемены. Сегодня — грипп, завтра — рак.

◾️Один алгоритм научился собирать кубик Рубика за секунду, другой — обыграл людей в покер. Победа в карты особенно интересна, потому что ИИ не анализировал, с чем сидят противники, а предсказывал удачные ходы и даже блефовал. Новости на полку к остальным: мы уже говорили про Дженгу и компьютерные игры. Зачем дата-сайентисты генерируют игровые сетки одну за другой? Все просто — они учат нейросети думать, используя тот же подход, что мы используем с детьми, — через развивающие игры. Возможно нынешние алгоритмы, обучавшиеся на кубиках, когда-нибудь эволюционируют и превзойдут учителей. А, может, останутся на второй год в школе.

◾️Пока одни распознают объекты, другие их удаляют. Алгоритм стирает человека из видео — достаточно руками вырезать его на первом кадре. Пока результаты сыроваты: присутствие скрытого пешехода заметно в кадре — видно силуэт и неровности ландшафта вокруг. На технологию будет спрос, поэтому ее развитие неизбежно. Всегда найдется тот, кто захочет остаться незамеченным для других.
​​Клуб по интересам — что такое Capture и есть ли у социальной сети на базе машинного обучения будущее?

Создатели Prisma запустили групповой мессенджер Capture. Работает это так: вы наводите камеру на объект, и приложение предлагает чат с похожей тематикой. К примеру, фотография билборда с рекламой сериала приведет в группу, где его активно обсуждают. А фото телевизора — в чат с названием “Что посмотреть?”.

Почему важно: идея команды — сделать мессенджер по интересам в мире, где уже есть Facebook, Twitter и Telegram. Гиганты социальных сетей использует ИИ только в отдельных задачах — для борьбы с порно, кибербуллингом или настройки новостной ленты. Чтобы выделиться на их фоне, ex-участники Prisma переложили выбор собеседников на алгоритмы и создали полноценную ML-платформу.

Почему построить ML-платформу — не так просто: задача, которая стояла перед Capture, близка к General AI: пользователь должен получить отклик в любой локации. Неважно, что на снимке — котик или новое изобретение Илона Маска, алгоритмы должны что-то распознать. На первых этапах разработки трудно натренировать сети находить все и сразу, но можно научить ИИ предугадывать обстановку по ключевым признакам, как это делает Google Lens.

От качества работы алгоритмов зависит успех Capture — чем лучше они научатся различать объекты, тем выше вероятность, что пользователь останется. Для этого нужны обширные датасеты: если аудитория приложения миллениалы со смартфонами, значит, алгоритмам нужны интерьеры квартир и живописные городские пейзажи. Первое можно вытянуть из Циана — там миллионы изображений, которые можно скормить нейросети. С улицей сложнее — любопытно узнать, как и где создатели собирают данные. И главное — поиск по локации никто не отменял, в Capture он тоже есть. Не надо делать миллионную фотографию Москва-Сити, чтобы присоединиться к чату тех, кто там работает.

Что будет дальше: время покажет, приживется ли Capture в мире. Возможно, название “захватить” окажется пророческим, и мы станем на шаг ближе к виртуальной реальности, а может, приложением заинтересуется Facebook. Тогда Capture познает печальную участь Instagram. Конечно же, мы болеем за первое.
​​Как тебе такое, Илон Маск? Microsoft инвестировал миллиард в OpenAI и поставил будущее перспективной компании под сомнение

Microsoft инвестирует в некоммерческую организацию OpenAI $1 млрд. Детище Илона Маска перенесет сервисы на Microsoft Azure, а корпорация сможет продавать продукты на основе технологий OpenAI в эксклюзивном порядке. В рамках партнерства компании планируют создать вычислительную платформу беспрецедентных масштабов, которая поможет вывести ИИ на новый уровень.

Почему мы грустим: Open AI считалась некоммерческой организацией, которая не принадлежит участникам рынка, а работает исключительно на благо человечества. Больше это не так. Первый тревожный звонок был в феврале этого года — из совета директоров ушел Илон Маск из-за конфликта интересов. Затем в компании вдруг появился коммерческий отдел. И, наконец, погребальный звон — миллиард от Майкрософта.

Видимо, первый $1 млрд, который в OpenAI вложили отцы-основатели в 2015 году, потихоньку заканчивается. Прошлые и нынешние инвестиции сильно отличаются по качеству: если Маск отдал деньги и отошел в сторону, то Microsoft после щедрого вложения попросил перенести вычисления на свои облачные сервисы и дать эксклюзивное право на продажи будущих технологических прорывов.

Вспомним GitHub и Skype: опыт подсказывает, что проекты не становятся лучше после того, как их покупают такие неповоротливые гиганты, как Microsoft. Так было со Skype в свое время и с GitHub в прошлом году: когда самый крутой продукт среди разработчиков ушел с молотка, доверие к нему пошатнулось. Давно известно, как Microsoft любит собирать данные о пользователях и навязывать свои услуги.

Остается только гадать, что ждет ИИ в будущем. Ясно одно: пока недовольные переменами сотрудники пакуют вещи, на двери OpenAI, самой открытой компании мира, перевернулась табличка — sorry, we're closed.
1
​​Подводим итоги недели — террористы, видеоролики, квартиры

◾️ ИИ от Facebook обновит карты в странах третьего мира. Проблема, с которой столкнулся некоммерческий сервис OpenStreetMap, — нехватка актуальных данных о расположении дорог. Миллионы километров остаются в слепой зоне в таких странах, как Афганистан и Нигерия, и среди местных нет желающих это исправить. Нейронки Марка Цукерберга специально для OpenStreetMap проанализируют спутниковые изображения с разрешением 0,1 кв. м на пиксель и добавят все отсутствующие объекты. Кажется, что теперь любой желающий сможет рассмотреть секретные бункеры запрещенных организаций.

◼️ Нейросеть от отечественной лаборатории Samsung AI генерирует видеоролики с новых ракурсов. Напомним, что так уже делали в Google, Deepmind и Nvidia, однако их результаты желают оставлять лучшего. Здесь же картинка впечатляет — даже мелкие детали выглядят реалистично словно их действительно сняли на камеру.

◼️ ИИ упрощает жизнь архитекторам. Алгоритм-планировщик квартир научился строить комнаты и вычислять подходящее положение дверей и окон в пространстве. Естественно, что на сеточное решения пускать в производство пока рано — алгоритмам не хватает данных, однако снять с архитекторов рутинные задачи по вычислениям они уже в состоянии.
​​После небольшого перерыва возвращаюсь к вам с дайджестом важных новостей о нейросетях:

◼️ Пока в Москве наступила осень, в Сибири который месяц горят леса. Ученые из РАН подключились к спасению природы — создали простенькую нейросеть, которая анализирует площадь леса. Она поможет определить масштабы бедствия после пожаров, а в будущем научится отслеживать браконьерские мародерства и предсказывать изменение природного ландшафта в связи с глобальным потеплением. Пока сетка ошибается, потому что в ее арсенале только снимки со спутника, но участники географического общества обещали предоставить больше данных.

◼️ DeepMind (aka Мои-боты-уделают-тебя-в-Starcraft) представила финансовый отчет за прошлый год, результаты печальные. ИИ-лаборатория, приобретенная Google, в минусе на полмиллиарда долларов. Из отчета видно, крупная часть бюджета ушла в медицину — ИИ-диагностику рака и других заболеваний. Однако прорыва не случилось. Если Deepmind и одержал победу, то только над зергами.

◼️ Facebook и Google — два гиганта конкурируют за то, на чем пишут разработчики. TensorFlow от Google исторически вел в этой гонке, но недавно количество статей, написанных с использованием PyTorch от Facebook, сравняло счет. Отличие между фреймворками существенное, и долгое время TF был стандартом в ресерче. Но времена меняются, тип кода в статьях — это основной драйвер для переиспользования его в своих разработках.
​​За честную игру — защита Warface пополнится нейросетями Dbrain

В скором времени ИИ от Dbrain подключится к игре для поиска читеров.

Почему важно: Для Warface противодействие читерам — одно из ключевых приоритетов. Сейчас борцы с недобросовестными игроками во многом полагаются на труд игровых администраторов, которые включаются в рассмотрение игровых моментов, фиксируют нарушения и отключают плохишей от игры. Но за всеми не уследишь — и там, где не справится человек, на помощь придет машина.

Когда команда Warface предложила объединить силы для улучшения среды в шутере, мы согласились не раздумывая. У игры — сильная команда разработки и много данных, у нас — собственная data science лаборатория и представление, как с помощью этих данных создать решение на базе машинного обучения.

Алгоритмы будут бороться не только с игровыми махинациями, но и автоматически выявлять свежий нелегальный софт у игроков. В будущем нейросеть также заберет часть ручного труда у админов и добавит объективности в принятие решений.

Поэтому сообщение для тех, кто думает, что он самый умный — наши сетки умнее (главное, случайно не забанить OpenAI). Dbrain — за честную игру.
​​Почему хорошая фотография в Инстаграм — заслуга алгоритмов

Самый развивающийся элемент телефона — это камеры, чье технологическое развитие почти погубило рынок зеркалок. Пока Nikon и Canon придумывают новые пути заработка, расскажу, как это произошло.

Еще 10 лет назад мобильный снимок был ужасен: помните картинку, снятую на камеру 0.3 МП? Показатели влияющие на съемку — размеры зерна и матрицы, количество мегапикселей — отставали от старших братьев. Зеркалки были лучше просто потому, что имели большую матрицу, способной поглощать свет.

Производители смартфонов не могут интегрировать матрицу размером с зеркальную — иначе айфон не поместится в карман. Но что касается других параметров — мобильные телефоны нашли решение.

Как алгоритмы прокачали камеры: разработчики искусственным путем компенсировали физическую неполноценность смартфонов. При помощи алгоритмов они повысили детализацию и снизили уровень шума, а также расширили динамический диапазон и улучшили фокусировку. Пользователь не заморачивается с настройками, этим занимаются алгоритмы. Но это еще не все.

У Google одни из лучших камер в мире — благодаря вашим трясущимся рукам: компания придумала, как использовать главный недостаток живого фотографа. В тот момент, когда вы открываете камеру, алгоритмы уже начинают делать снимки. Собрав десяток фотографий в одну, у Google получается четкая картинка с детальной прорисовкой — это технология называется Super-resolution. Вы трясете рукой, а телефон собирает детали. Увы, работает это только на телефонах Pixel третьего поколения.

Вероятно, в будущем натуральных снимков не останется: что касается ИИ — уже сейчас нейросети пошли дальше примитивных алгоритмов и увеличивают разрешение читерским способом. Если смартфоны работают с тем, что есть, помогая сделать удачное фото, то Super-resolution на базе ИИ по сути дорисовывает кадр. Другими словами, современные камеры делают траву зеленее, а нейросетки рисуют ее.

Почему технология еще не в телефонах: к сожалению, нейросети работают только в лабораторных условиях. Если их обучили на автомобилях, значит, они будут рисовать только автомобили. Если выпустить алгоритмы в город, они не справятся с рисовкой из-за слишком большого количества разных объектов. По сути задача будущего вырастить General AI — настоящий ИИ, который сделает фотографию лучше любой реальной картинки.
​​Чем занимался ИИ на этой неделе — кибер-фэшн, симуляции животных и опять DeepMind:

◼️ Прежде, чем лекарство попадет на рынок, его долго тестируют на собачках, кошечках, мышках и зайчиках. Только 10% формул переходят на следующий этап, остальные образцы убивают животных. Стартап Verisim Life пытается решить эту проблему с помощью биосимулятора: чтобы перенести испытания из реальности в цифровой мир. Система на базе ML сможет выдавать результат взаимодействия лекарственных препаратов с организмом животного. В будущем компания хочет сделать цифровую копию человека и тестировать новинки на ней, полностью исключив братьев наших меньших из испытаний — даже в виртуальной реальности.

◼️ И снова DeepMind — на этот раз там учат ИИ играть в футбол. Задача классическая — алгоритмы должны обыграть соперника, управляя целой командой. Создатели не случайно предложили нейросеткам попинать мяч: футбол — полезный вариант для обучения, в нем есть определенная предсказуемость благодаря физике и нет предикта по действиям игроков. Кажется, у ИИ будет тяжелый месяц — придется без перерыва смотреть футбол, надеюсь, в дневные расходы входит пиво.

◼️ Системы распознавания растут быстрее, чем чужие дети: Amazon Rekognition уже может и возраст, и эмоции определить, дальше — больше. Одна из причин быстрого развития технологий — это не совсем законный способ сбора данных. Американские дизайнеры придумали модный способ борьбы с "большим братом” — сшили одежду, на которой изображены несуществующие автомобильные номера. По задумке они должны запутать распознавалку и подкинуть мусор в ее данные. Сработало — ИИ уже несколько раз добавлял номера в свою система и даже определял положение фейкового автомобиля в пространстве. Что тут говорить — сетки легко обмануть, они ориентируется по внешним признакам, как только номер найден, ИИ заканчивает анализ и выдает бездумный результат.

👾 И бонус для технарей:
У библиотеки PyTorch вышло обновление. Самое главное — появилась возможность автоматически создавать модель для прода.
​​Хорошие кадры в темноте — тоже заслуга алгоритмов

Я уже рассказал о восстановлении качества на снимке при помощи нейронных сетей. Сегодня поговорим о другой проблеме фотографии, с которой сталкивался каждый.

Представим, вы захотели сфотографировать подругу при луне. Кинематографично падает свет, девушка улыбается — вы хотите запомнить момент. Достаете телефон, щелкаете, смотрите на результат в надежде увидеть шедевр, а там: во-первых, ничего не видно, во-вторых, в кадре непонятные цветные точки. Их появление — это проделки матрицы, которая из-за размера (в телефоне она маленькая) не собрала нужный объем информации, поэтому сама додумала отдельные куски.

Мы не можем изменить размер матрицы, но делать хорошие фотографии в темноте хотим. Как избавиться от случайного шума? За ответами производители обратились к машинному обучению.

Какое решение было найдено? Разработчики придумали не собирать датасет для задачи, а брать хорошие фотографии и искусственно их ухудшать. Почти под каждую матрицу уже есть математическая модель, которая симулирует испорченную фотографию и создает точками заранее. Выходит, что сначала надо создать шумы, чтобы затем обучить сетки с ними бороться. Матрица по-прежнему шалит, но теперь алгоритмы успешно с этим справляются.

Главный плюс подхода — система способна запоминать контекст, поэтому выдает адекватный результат даже в экстремальных условиях съемки. Из минусов — под каждую модель телефона нужно обучать свой алгоритм. Однако, учитывая, что сейчас только у ленивого производителя техники нет своего ИИ, в этом нет ничего страшного — машинное обучение стало рутинной работой.
​​Чем занимались нейросети на этой неделе — умный город, переводчик с языка жестов, распознавание без лица:

◼️ Представьте будущее, где весь город — один большой ИИ. Стартап Signifiy разработал уличные фонари с цифровым зрением и датчиками анализа воздуха. Свою основную функцию (светить) фонарь будет выполнять только в присутствии людей, если их нет — он выключится и сэкономит городу немного электроэнергии. Также он собирает данные по загрязнению воздуха и выгружает их в облако, где к работе подключаются алгоритмы. Остается только один вопрос: а фонарь случаем не собирает данные о прохожих?

◼️ Google сделал приложение для распознавания языка жестов. С помощью камеры мобильного телефона алгоритмы находят ладонь в пространстве, ставят 27 точек на пальцах и сравнивают результат с датасетом из 35 тыс. картинок, которые заранее разметили люди. Нейросетям доступен счет, знак “всем пис”, “рок” и одобрительный палец вверх и... это пока все. Ключевое — все это работает на телефоне. Разработчики выложили код в открытый доступ, чтобы все желающие могли присоединиться к дальнейшему обучению. Впереди самое тяжелое — научиться распознавать сразу две руки и их комбинации в каждый момент времени.

◼️ Пока в американских городах массово запрещают фейс-рекогнишн на улице и жители жалуются на незаконный сбор данных, стартапы ищут альтернативные способы распознавания. Один из них, Traces AI, нашел способ, как идентифицировать человека только по описанию внешнего вида. Сетке скармливают ваши типичные аутфиты, любимый рюкзак, который вы никогда не меняете, и прическа. Затем она анализирует видео, на котором заранее заблюрены лица, и ищет совпадение. В городе технология бесполезна — ловить преступников по черным маскам не получится. Но компании с офисами уже заинтересовались — можно трекать работников без заполнения тысячи форм.
​​Зачем на самом деле нас слушают компании?

Apple, Google, Amazon, Microsoft — что объединяет ИТ-гигантов кроме того, что они входят в топ самых дорогих компаний мира? За последний месяц их всех поймали на прослушивании записей с микрофонов. Зачем корпорациям знать, что говорит каждый из нас?

Вы звоните в банк и слышите «в целях улучшения качества обслуживания разговор может быть записан». Не думаю, что кто-то тут же кладет трубку с криками «Ну уж нет!». К записи мы давно привыкли. А к тому, что голосового помощника можно призвать магическим «Привет, Сири»? Вроде бы тоже не пугает. Но тот факт, что корпорации занимаются прослушиванием данных, звучит устрашающе. Вот только помощник не смог бы выполнять уже привычные для нас действия, не собирай он постоянно данные с микрофона.

Ответ на вопрос, зачем компаниям наши записи, простой — нужно тренировать алгоритмы, делать их сильнее, быстрее и человечнее. И в этом деле не обойтись без людей, которые сидят стройными рядами в маленьких офисах и слушают фрагменты повседневной жизни пользователей. Они размечают звуки, переводят их в текст, чтобы потом скормить алгоритмам.

Другой вопрос — какие алгоритмы используют компании? Однозначного ответа нет. С одной стороны, они улучшают качество вашего профиля для рекламодателей, делая его еще точнее — вплоть до того, что производитель йогурта знает, что клубничный вы не любите. С другой — нужно повышать качество обслуживания голосовых помощников, чтобы они понимали, что вам нужно. А может, информация, собранная из разговоров, ляжет в предсказания того, зачем вы достаете телефон и какое приложение вам понадобится. Вариантов куча. Главное — собрать больше данных.

Что всех волнует: компании знают, что вы делали прошлым летом. Разметчики без понятия, кто вы и как вас зовут. Для них вы просто один голос из миллионов. Что касается остального — спецслужбы давно используют прослушку, для этого им не нужно клянчить у Google данные из ассистена. Однако корпорации по умолчанию знают больше властей, потому что мы им разрешили. Они могут делать с этими знаниями что угодно. Но пока — они на этом просто зарабатывают.
​​Насыщенная выдалась неделя у ИИ. Рассказываю, чем он занимался:

◼️ В тему недавней истории о хороших снимках — нейросети Google научились дорисовывать фотографии по одному маленькому фрагменту с помощью генеративно-состязательного подхода. Результаты работы — здесь.

◼️ Еще один голосовой помощник — теперь от BBC. Британская компания обозлилась на Google за то, что они отказались делиться данными о пользователях, и удалила свои подкасты с радужной платформы. Следующий шаг — развивать свои сервисы. Так появился ассистент Beeb: у него нет своей колонки, но разработку могут внедрить все производители умной техники в устройства.

◼️ Хорошие новости для агрокультуры: нейросеть распознает болезни растения по фотографии. Точнее — пока только одного, маниока, из которого делаю муку и крупу в Африке. Через приложение местные фермеры могут проверять растения, точность распознавания болезней — 93%.

◼️ Больше 5 тысяч человек в США гибнут из-за того, что продолжают движение в условиях плохой видимости. Производитель беспилотников Weymo показал алгоритмы, которые научились определять непогоду и останавливают машину, если жизнь водителя в опасности. Беспилотник тестировали в бурю, снегопад, туман и ливень — так и собрали необходимые данные. Посмотрите, как машина спасает жизнь человеку.

◼️ Вышло приложение от ИИ-лаборатории Microsoft — оно помогает слепым ориентироваться в пространстве, не хуже того, как это делают зрячие. Выстраивая маршрут, алгоритмы не просто предлагают повернуть налево, но и рассказывают, какие объекты проходит человек. Простая идея и приятная реализация — думаю, это только начало развития технологий для людей с ограниченными возможностями, когда-нибудь машины смогут компенсировать недостающие атрибуты полной жизни.
​​Привет!

Несмотря на то, что ИИ плотно вошел в нашу жизнь, остаются области, где его по-прежнему нет и зря — он мог бы сильно облегчить жизнь человеку. Нас тут почти 3 тысячи — устроим совместный брейншторм?

Чтобы было веселее, объявляю конкурс — расскажите, какого ИИ не хватает прямо сейчас, и выиграйте сувенир от Dbrain. Мы в команде используем многоразовые бутылки AI Happens, чтобы хоть как-то помочь планете и не плодить пластик. Двум авторам самых оригинальных идей подарю по рабочему прототипу и приложу к посылке кое-что еще, но это сюрприз.

Что надо делать?

1. В гугл-форме (https://forms.gle/VwydKAJ9GTATTRidA) расскажите об ИИ, которого почему-то еще нет — технический процесс описывать не надо, достаточно рассказать идею и объяснить, почему он нужен.

2. Не забудьте указать username, чтобы я вас потом нашел.

Кто может участвовать? Все, кто подписан на этот канал и заполнит форму.

Победителей выберу в четверг 12 сентября.

Чур нейросети для генерации идей не использовать