Хорошие кадры в темноте — тоже заслуга алгоритмов
Я уже рассказал о восстановлении качества на снимке при помощи нейронных сетей. Сегодня поговорим о другой проблеме фотографии, с которой сталкивался каждый.
Представим, вы захотели сфотографировать подругу при луне. Кинематографично падает свет, девушка улыбается — вы хотите запомнить момент. Достаете телефон, щелкаете, смотрите на результат в надежде увидеть шедевр, а там: во-первых, ничего не видно, во-вторых, в кадре непонятные цветные точки. Их появление — это проделки матрицы, которая из-за размера (в телефоне она маленькая) не собрала нужный объем информации, поэтому сама додумала отдельные куски.
Мы не можем изменить размер матрицы, но делать хорошие фотографии в темноте хотим. Как избавиться от случайного шума? За ответами производители обратились к машинному обучению.
Какое решение было найдено? Разработчики придумали не собирать датасет для задачи, а брать хорошие фотографии и искусственно их ухудшать. Почти под каждую матрицу уже есть математическая модель, которая симулирует испорченную фотографию и создает точками заранее. Выходит, что сначала надо создать шумы, чтобы затем обучить сетки с ними бороться. Матрица по-прежнему шалит, но теперь алгоритмы успешно с этим справляются.
Главный плюс подхода — система способна запоминать контекст, поэтому выдает адекватный результат даже в экстремальных условиях съемки. Из минусов — под каждую модель телефона нужно обучать свой алгоритм. Однако, учитывая, что сейчас только у ленивого производителя техники нет своего ИИ, в этом нет ничего страшного — машинное обучение стало рутинной работой.
Я уже рассказал о восстановлении качества на снимке при помощи нейронных сетей. Сегодня поговорим о другой проблеме фотографии, с которой сталкивался каждый.
Представим, вы захотели сфотографировать подругу при луне. Кинематографично падает свет, девушка улыбается — вы хотите запомнить момент. Достаете телефон, щелкаете, смотрите на результат в надежде увидеть шедевр, а там: во-первых, ничего не видно, во-вторых, в кадре непонятные цветные точки. Их появление — это проделки матрицы, которая из-за размера (в телефоне она маленькая) не собрала нужный объем информации, поэтому сама додумала отдельные куски.
Мы не можем изменить размер матрицы, но делать хорошие фотографии в темноте хотим. Как избавиться от случайного шума? За ответами производители обратились к машинному обучению.
Какое решение было найдено? Разработчики придумали не собирать датасет для задачи, а брать хорошие фотографии и искусственно их ухудшать. Почти под каждую матрицу уже есть математическая модель, которая симулирует испорченную фотографию и создает точками заранее. Выходит, что сначала надо создать шумы, чтобы затем обучить сетки с ними бороться. Матрица по-прежнему шалит, но теперь алгоритмы успешно с этим справляются.
Главный плюс подхода — система способна запоминать контекст, поэтому выдает адекватный результат даже в экстремальных условиях съемки. Из минусов — под каждую модель телефона нужно обучать свой алгоритм. Однако, учитывая, что сейчас только у ленивого производителя техники нет своего ИИ, в этом нет ничего страшного — машинное обучение стало рутинной работой.
Чем занимались нейросети на этой неделе — умный город, переводчик с языка жестов, распознавание без лица:
◼️ Представьте будущее, где весь город — один большой ИИ. Стартап Signifiy разработал уличные фонари с цифровым зрением и датчиками анализа воздуха. Свою основную функцию (светить) фонарь будет выполнять только в присутствии людей, если их нет — он выключится и сэкономит городу немного электроэнергии. Также он собирает данные по загрязнению воздуха и выгружает их в облако, где к работе подключаются алгоритмы. Остается только один вопрос: а фонарь случаем не собирает данные о прохожих?
◼️ Google сделал приложение для распознавания языка жестов. С помощью камеры мобильного телефона алгоритмы находят ладонь в пространстве, ставят 27 точек на пальцах и сравнивают результат с датасетом из 35 тыс. картинок, которые заранее разметили люди. Нейросетям доступен счет, знак “всем пис”, “рок” и одобрительный палец вверх и... это пока все. Ключевое — все это работает на телефоне. Разработчики выложили код в открытый доступ, чтобы все желающие могли присоединиться к дальнейшему обучению. Впереди самое тяжелое — научиться распознавать сразу две руки и их комбинации в каждый момент времени.
◼️ Пока в американских городах массово запрещают фейс-рекогнишн на улице и жители жалуются на незаконный сбор данных, стартапы ищут альтернативные способы распознавания. Один из них, Traces AI, нашел способ, как идентифицировать человека только по описанию внешнего вида. Сетке скармливают ваши типичные аутфиты, любимый рюкзак, который вы никогда не меняете, и прическа. Затем она анализирует видео, на котором заранее заблюрены лица, и ищет совпадение. В городе технология бесполезна — ловить преступников по черным маскам не получится. Но компании с офисами уже заинтересовались — можно трекать работников без заполнения тысячи форм.
◼️ Представьте будущее, где весь город — один большой ИИ. Стартап Signifiy разработал уличные фонари с цифровым зрением и датчиками анализа воздуха. Свою основную функцию (светить) фонарь будет выполнять только в присутствии людей, если их нет — он выключится и сэкономит городу немного электроэнергии. Также он собирает данные по загрязнению воздуха и выгружает их в облако, где к работе подключаются алгоритмы. Остается только один вопрос: а фонарь случаем не собирает данные о прохожих?
◼️ Google сделал приложение для распознавания языка жестов. С помощью камеры мобильного телефона алгоритмы находят ладонь в пространстве, ставят 27 точек на пальцах и сравнивают результат с датасетом из 35 тыс. картинок, которые заранее разметили люди. Нейросетям доступен счет, знак “всем пис”, “рок” и одобрительный палец вверх и... это пока все. Ключевое — все это работает на телефоне. Разработчики выложили код в открытый доступ, чтобы все желающие могли присоединиться к дальнейшему обучению. Впереди самое тяжелое — научиться распознавать сразу две руки и их комбинации в каждый момент времени.
◼️ Пока в американских городах массово запрещают фейс-рекогнишн на улице и жители жалуются на незаконный сбор данных, стартапы ищут альтернативные способы распознавания. Один из них, Traces AI, нашел способ, как идентифицировать человека только по описанию внешнего вида. Сетке скармливают ваши типичные аутфиты, любимый рюкзак, который вы никогда не меняете, и прическа. Затем она анализирует видео, на котором заранее заблюрены лица, и ищет совпадение. В городе технология бесполезна — ловить преступников по черным маскам не получится. Но компании с офисами уже заинтересовались — можно трекать работников без заполнения тысячи форм.
Зачем на самом деле нас слушают компании?
Apple, Google, Amazon, Microsoft — что объединяет ИТ-гигантов кроме того, что они входят в топ самых дорогих компаний мира? За последний месяц их всех поймали на прослушивании записей с микрофонов. Зачем корпорациям знать, что говорит каждый из нас?
Вы звоните в банк и слышите «в целях улучшения качества обслуживания разговор может быть записан». Не думаю, что кто-то тут же кладет трубку с криками «Ну уж нет!». К записи мы давно привыкли. А к тому, что голосового помощника можно призвать магическим «Привет, Сири»? Вроде бы тоже не пугает. Но тот факт, что корпорации занимаются прослушиванием данных, звучит устрашающе. Вот только помощник не смог бы выполнять уже привычные для нас действия, не собирай он постоянно данные с микрофона.
Ответ на вопрос, зачем компаниям наши записи, простой — нужно тренировать алгоритмы, делать их сильнее, быстрее и человечнее. И в этом деле не обойтись без людей, которые сидят стройными рядами в маленьких офисах и слушают фрагменты повседневной жизни пользователей. Они размечают звуки, переводят их в текст, чтобы потом скормить алгоритмам.
Другой вопрос — какие алгоритмы используют компании? Однозначного ответа нет. С одной стороны, они улучшают качество вашего профиля для рекламодателей, делая его еще точнее — вплоть до того, что производитель йогурта знает, что клубничный вы не любите. С другой — нужно повышать качество обслуживания голосовых помощников, чтобы они понимали, что вам нужно. А может, информация, собранная из разговоров, ляжет в предсказания того, зачем вы достаете телефон и какое приложение вам понадобится. Вариантов куча. Главное — собрать больше данных.
Что всех волнует: компании знают, что вы делали прошлым летом. Разметчики без понятия, кто вы и как вас зовут. Для них вы просто один голос из миллионов. Что касается остального — спецслужбы давно используют прослушку, для этого им не нужно клянчить у Google данные из ассистена. Однако корпорации по умолчанию знают больше властей, потому что мы им разрешили. Они могут делать с этими знаниями что угодно. Но пока — они на этом просто зарабатывают.
Apple, Google, Amazon, Microsoft — что объединяет ИТ-гигантов кроме того, что они входят в топ самых дорогих компаний мира? За последний месяц их всех поймали на прослушивании записей с микрофонов. Зачем корпорациям знать, что говорит каждый из нас?
Вы звоните в банк и слышите «в целях улучшения качества обслуживания разговор может быть записан». Не думаю, что кто-то тут же кладет трубку с криками «Ну уж нет!». К записи мы давно привыкли. А к тому, что голосового помощника можно призвать магическим «Привет, Сири»? Вроде бы тоже не пугает. Но тот факт, что корпорации занимаются прослушиванием данных, звучит устрашающе. Вот только помощник не смог бы выполнять уже привычные для нас действия, не собирай он постоянно данные с микрофона.
Ответ на вопрос, зачем компаниям наши записи, простой — нужно тренировать алгоритмы, делать их сильнее, быстрее и человечнее. И в этом деле не обойтись без людей, которые сидят стройными рядами в маленьких офисах и слушают фрагменты повседневной жизни пользователей. Они размечают звуки, переводят их в текст, чтобы потом скормить алгоритмам.
Другой вопрос — какие алгоритмы используют компании? Однозначного ответа нет. С одной стороны, они улучшают качество вашего профиля для рекламодателей, делая его еще точнее — вплоть до того, что производитель йогурта знает, что клубничный вы не любите. С другой — нужно повышать качество обслуживания голосовых помощников, чтобы они понимали, что вам нужно. А может, информация, собранная из разговоров, ляжет в предсказания того, зачем вы достаете телефон и какое приложение вам понадобится. Вариантов куча. Главное — собрать больше данных.
Что всех волнует: компании знают, что вы делали прошлым летом. Разметчики без понятия, кто вы и как вас зовут. Для них вы просто один голос из миллионов. Что касается остального — спецслужбы давно используют прослушку, для этого им не нужно клянчить у Google данные из ассистена. Однако корпорации по умолчанию знают больше властей, потому что мы им разрешили. Они могут делать с этими знаниями что угодно. Но пока — они на этом просто зарабатывают.
Насыщенная выдалась неделя у ИИ. Рассказываю, чем он занимался:
◼️ В тему недавней истории о хороших снимках — нейросети Google научились дорисовывать фотографии по одному маленькому фрагменту с помощью генеративно-состязательного подхода. Результаты работы — здесь.
◼️ Еще один голосовой помощник — теперь от BBC. Британская компания обозлилась на Google за то, что они отказались делиться данными о пользователях, и удалила свои подкасты с радужной платформы. Следующий шаг — развивать свои сервисы. Так появился ассистент Beeb: у него нет своей колонки, но разработку могут внедрить все производители умной техники в устройства.
◼️ Хорошие новости для агрокультуры: нейросеть распознает болезни растения по фотографии. Точнее — пока только одного, маниока, из которого делаю муку и крупу в Африке. Через приложение местные фермеры могут проверять растения, точность распознавания болезней — 93%.
◼️ Больше 5 тысяч человек в США гибнут из-за того, что продолжают движение в условиях плохой видимости. Производитель беспилотников Weymo показал алгоритмы, которые научились определять непогоду и останавливают машину, если жизнь водителя в опасности. Беспилотник тестировали в бурю, снегопад, туман и ливень — так и собрали необходимые данные. Посмотрите, как машина спасает жизнь человеку.
◼️ Вышло приложение от ИИ-лаборатории Microsoft — оно помогает слепым ориентироваться в пространстве, не хуже того, как это делают зрячие. Выстраивая маршрут, алгоритмы не просто предлагают повернуть налево, но и рассказывают, какие объекты проходит человек. Простая идея и приятная реализация — думаю, это только начало развития технологий для людей с ограниченными возможностями, когда-нибудь машины смогут компенсировать недостающие атрибуты полной жизни.
◼️ В тему недавней истории о хороших снимках — нейросети Google научились дорисовывать фотографии по одному маленькому фрагменту с помощью генеративно-состязательного подхода. Результаты работы — здесь.
◼️ Еще один голосовой помощник — теперь от BBC. Британская компания обозлилась на Google за то, что они отказались делиться данными о пользователях, и удалила свои подкасты с радужной платформы. Следующий шаг — развивать свои сервисы. Так появился ассистент Beeb: у него нет своей колонки, но разработку могут внедрить все производители умной техники в устройства.
◼️ Хорошие новости для агрокультуры: нейросеть распознает болезни растения по фотографии. Точнее — пока только одного, маниока, из которого делаю муку и крупу в Африке. Через приложение местные фермеры могут проверять растения, точность распознавания болезней — 93%.
◼️ Больше 5 тысяч человек в США гибнут из-за того, что продолжают движение в условиях плохой видимости. Производитель беспилотников Weymo показал алгоритмы, которые научились определять непогоду и останавливают машину, если жизнь водителя в опасности. Беспилотник тестировали в бурю, снегопад, туман и ливень — так и собрали необходимые данные. Посмотрите, как машина спасает жизнь человеку.
◼️ Вышло приложение от ИИ-лаборатории Microsoft — оно помогает слепым ориентироваться в пространстве, не хуже того, как это делают зрячие. Выстраивая маршрут, алгоритмы не просто предлагают повернуть налево, но и рассказывают, какие объекты проходит человек. Простая идея и приятная реализация — думаю, это только начало развития технологий для людей с ограниченными возможностями, когда-нибудь машины смогут компенсировать недостающие атрибуты полной жизни.
Привет!
Несмотря на то, что ИИ плотно вошел в нашу жизнь, остаются области, где его по-прежнему нет и зря — он мог бы сильно облегчить жизнь человеку. Нас тут почти 3 тысячи — устроим совместный брейншторм?
Чтобы было веселее, объявляю конкурс — расскажите, какого ИИ не хватает прямо сейчас, и выиграйте сувенир от Dbrain. Мы в команде используем многоразовые бутылки AI Happens, чтобы хоть как-то помочь планете и не плодить пластик. Двум авторам самых оригинальных идей подарю по рабочему прототипу и приложу к посылке кое-что еще, но это сюрприз.
Что надо делать?
1. В гугл-форме (https://forms.gle/VwydKAJ9GTATTRidA) расскажите об ИИ, которого почему-то еще нет — технический процесс описывать не надо, достаточно рассказать идею и объяснить, почему он нужен.
2. Не забудьте указать username, чтобы я вас потом нашел.
Кто может участвовать? Все, кто подписан на этот канал и заполнит форму.
Победителей выберу в четверг 12 сентября.
Чур нейросети для генерации идей не использовать
Несмотря на то, что ИИ плотно вошел в нашу жизнь, остаются области, где его по-прежнему нет и зря — он мог бы сильно облегчить жизнь человеку. Нас тут почти 3 тысячи — устроим совместный брейншторм?
Чтобы было веселее, объявляю конкурс — расскажите, какого ИИ не хватает прямо сейчас, и выиграйте сувенир от Dbrain. Мы в команде используем многоразовые бутылки AI Happens, чтобы хоть как-то помочь планете и не плодить пластик. Двум авторам самых оригинальных идей подарю по рабочему прототипу и приложу к посылке кое-что еще, но это сюрприз.
Что надо делать?
1. В гугл-форме (https://forms.gle/VwydKAJ9GTATTRidA) расскажите об ИИ, которого почему-то еще нет — технический процесс описывать не надо, достаточно рассказать идею и объяснить, почему он нужен.
2. Не забудьте указать username, чтобы я вас потом нашел.
Кто может участвовать? Все, кто подписан на этот канал и заполнит форму.
Победителей выберу в четверг 12 сентября.
Чур нейросети для генерации идей не использовать
На этой неделе ИИ ограбил компанию, написал контрольную, поиграл в Minecraft и сотворил китайского Джона Сноу:
◼️ Мошенники с помощьи ИИ скопировали голос CEO, позвонили в офис компании и потребовали немедленно перевести почти $250 тыс. в венгерский банк. Подчиненные тут же выполнили просьбу, не заподозрив обман — голос был неотличим от оригинала. Из Венгрии деньги тут же перевели в Мексику, а там они растворились в жарком воздухе пустыни. Арестов нет, подозреваемых — тоже. Чувствую, это не последняя жертва ИИ.
◼️ Четыре года назад 700 инженеров участвовали в конкурсе на создание ИИ, который пройдет научный тест восьмого класса. Приз — $80 тыс. Ни у кого не вышло. Самый лучший результат — 60% правильных ответов. Но в эту среду разработчики представили рабочую модель, которая сдала контрольную с более чем 90% успеха. Алгоритмы смогли разобраться с простой логикой и не справились только с диаграммами, но их и не учили. А я по-прежнему жду, когда сетки справятся с математикой.
◼️ В китайском App Store новый лидер — приложение Zao, генерирующее дипфейки с лицом пользователя. Нужен только один кадр, и алгоритмы за секунды подставят его в “Игру престолов” или куда-нибудь еще. Что ж, за дипфейками будущее, другой вопрос — этого ли мы хотели?
◼️ Нейросети пустили в Minecraft — разработчики из MIT уверены, что неограниченные возможности кубического мира позволят алгоритмам освоить широкий спектр задач и стать самостоятельными. Как обычно — ИИ будет учиться у игроков. Посмотрим, с чем он вернется к создателям.
◼️ Мошенники с помощьи ИИ скопировали голос CEO, позвонили в офис компании и потребовали немедленно перевести почти $250 тыс. в венгерский банк. Подчиненные тут же выполнили просьбу, не заподозрив обман — голос был неотличим от оригинала. Из Венгрии деньги тут же перевели в Мексику, а там они растворились в жарком воздухе пустыни. Арестов нет, подозреваемых — тоже. Чувствую, это не последняя жертва ИИ.
◼️ Четыре года назад 700 инженеров участвовали в конкурсе на создание ИИ, который пройдет научный тест восьмого класса. Приз — $80 тыс. Ни у кого не вышло. Самый лучший результат — 60% правильных ответов. Но в эту среду разработчики представили рабочую модель, которая сдала контрольную с более чем 90% успеха. Алгоритмы смогли разобраться с простой логикой и не справились только с диаграммами, но их и не учили. А я по-прежнему жду, когда сетки справятся с математикой.
◼️ В китайском App Store новый лидер — приложение Zao, генерирующее дипфейки с лицом пользователя. Нужен только один кадр, и алгоритмы за секунды подставят его в “Игру престолов” или куда-нибудь еще. Что ж, за дипфейками будущее, другой вопрос — этого ли мы хотели?
◼️ Нейросети пустили в Minecraft — разработчики из MIT уверены, что неограниченные возможности кубического мира позволят алгоритмам освоить широкий спектр задач и стать самостоятельными. Как обычно — ИИ будет учиться у игроков. Посмотрим, с чем он вернется к создателям.
Непостоянная рубрика — что там у рептилоидов?
Плохие новости: личные данные полмиллиарда пользователей Facebook утекли в сеть. На незащищенном сервере журналисты нашли ID граждан со всего мира и привязанные к ним мобильные номера. Кое-где даже оказались имена, пол и место проживания. Сейчас компания уже устранила утечку, но мы то знаем, что Интернет помнит все.
Хорошие новости: социальная сеть даст пользователям контроль над персональными данными, которые с помощью Facebook собирают сторонние сайты и приложения. Если вы захотите — можете почистить всю активность. Новая функция off-Facebook activity спрятана глубоко в настройках и пока доступна (и то — только в тестовом режиме) в Испании, Ирландии и Южной Корее. Более того, с серверов самого Facebook ничего удалить не получится. Кажется, что после всех скандалов с нелегальным сбором данных, это меньшее, что может сделать Цукерберг. Ждем шагов посерьезней.
Плохие новости: личные данные полмиллиарда пользователей Facebook утекли в сеть. На незащищенном сервере журналисты нашли ID граждан со всего мира и привязанные к ним мобильные номера. Кое-где даже оказались имена, пол и место проживания. Сейчас компания уже устранила утечку, но мы то знаем, что Интернет помнит все.
Хорошие новости: социальная сеть даст пользователям контроль над персональными данными, которые с помощью Facebook собирают сторонние сайты и приложения. Если вы захотите — можете почистить всю активность. Новая функция off-Facebook activity спрятана глубоко в настройках и пока доступна (и то — только в тестовом режиме) в Испании, Ирландии и Южной Корее. Более того, с серверов самого Facebook ничего удалить не получится. Кажется, что после всех скандалов с нелегальным сбором данных, это меньшее, что может сделать Цукерберг. Ждем шагов посерьезней.
Напоминаю, что за пару предложений об идеальном ИИ, которого почему-то еще нет, я подарю вам сувенир от AI Happens. Двух победителей выберу в этот четверг. Время еще есть — присоединяйтесь!
Telegram
AI Happens
Привет!
Несмотря на то, что ИИ плотно вошел в нашу жизнь, остаются области, где его по-прежнему нет и зря — он мог бы сильно облегчить жизнь человеку. Нас тут почти 3 тысячи — устроим совместный брейншторм?
Чтобы было веселее, объявляю конкурс — расскажите…
Несмотря на то, что ИИ плотно вошел в нашу жизнь, остаются области, где его по-прежнему нет и зря — он мог бы сильно облегчить жизнь человеку. Нас тут почти 3 тысячи — устроим совместный брейншторм?
Чтобы было веселее, объявляю конкурс — расскажите…
Беспилотники Яндекса проехали 1 миллион километров — что дальше?
Хорошие новости: машина проехалась без серьезных происшествий. Для сравнения — Uber уже 10 месяцев не может вернуться к разработке после аварии с пешеходом.
Плохие новости: миллион — это не так уж и много для 2019 года. Чтобы вы представляли масштаб, беспилотники Google успели накатать в 30 раз больше. Километраж имеет прямую корреляцию с тем, на сколько технология близка к стадии массового использования. Другими словами, американский IT пока ближе к продакшену.
Если поиграть в астрологов: ставлю на то, что в 2020 году в Москве уже можно будет покататься на первом беспилотнике — правда, не всем и, скорее всего, только внутри ТТК.
Хорошие новости: машина проехалась без серьезных происшествий. Для сравнения — Uber уже 10 месяцев не может вернуться к разработке после аварии с пешеходом.
Плохие новости: миллион — это не так уж и много для 2019 года. Чтобы вы представляли масштаб, беспилотники Google успели накатать в 30 раз больше. Километраж имеет прямую корреляцию с тем, на сколько технология близка к стадии массового использования. Другими словами, американский IT пока ближе к продакшену.
Если поиграть в астрологов: ставлю на то, что в 2020 году в Москве уже можно будет покататься на первом беспилотнике — правда, не всем и, скорее всего, только внутри ТТК.
Доверили бы управление беспилотнику?
Anonymous Poll
70%
Да, за ним будущее
11%
Не уверен, слишком много аварий
20%
Нет, но куда я денусь
Подвожу итоги конкурса «Какого ИИ не хватает прямо сейчас?»
Первый победитель — @maxbesov. Он предложил нейросеть, выделяющую нужную информацию в тексте: в книгах, научных статьях, обучающих материалах. Идея отличная — мы тратим уйму времени на то, чтобы найти жемчужину в океане, пробиваясь сквозь авторский стиль (прям как вы сейчас). ИИ упростил бы нам жизнь.
Второй победитель — @I3wVQb. Ему не хватает ИИ, который бы определил повреждения внутреннего двигателя по звуку. Цитата: «У каждой детали своя прочность. Какая именно требует ремонта — подскажет звук. Он может быть громче от колебания, менять тональность или “шуршать” из-за отсутствия смазочного материала. Человеческое ухо не различит повреждение на ранней стадии, а ИИ — да. И предупредит автомобилиста». От себя добавлю, что сам думал над подобной технологией и обсуждал с одной компанией: к звуку предлагал еще добавить вибрацию. Кладешь телефон на двигатель и снимаешь данные — это бы давало максимально точные показатели. Возможно в будущем удастся над этим поработать.
Поздравляю ребят с победой! Интересных идей было много, брейншторм обязательно повторим.
И еще — несколько предложенных ИИ на самом деле уже есть. Могу отдельно их назвать и указать компании, которые этим занимаются. Интересно?
Первый победитель — @maxbesov. Он предложил нейросеть, выделяющую нужную информацию в тексте: в книгах, научных статьях, обучающих материалах. Идея отличная — мы тратим уйму времени на то, чтобы найти жемчужину в океане, пробиваясь сквозь авторский стиль (прям как вы сейчас). ИИ упростил бы нам жизнь.
Второй победитель — @I3wVQb. Ему не хватает ИИ, который бы определил повреждения внутреннего двигателя по звуку. Цитата: «У каждой детали своя прочность. Какая именно требует ремонта — подскажет звук. Он может быть громче от колебания, менять тональность или “шуршать” из-за отсутствия смазочного материала. Человеческое ухо не различит повреждение на ранней стадии, а ИИ — да. И предупредит автомобилиста». От себя добавлю, что сам думал над подобной технологией и обсуждал с одной компанией: к звуку предлагал еще добавить вибрацию. Кладешь телефон на двигатель и снимаешь данные — это бы давало максимально точные показатели. Возможно в будущем удастся над этим поработать.
Поздравляю ребят с победой! Интересных идей было много, брейншторм обязательно повторим.
И еще — несколько предложенных ИИ на самом деле уже есть. Могу отдельно их назвать и указать компании, которые этим занимаются. Интересно?
За прошедшую неделю нейросети открыли для себя дикпики, научились генерировать игровых персонажей из селфи, озвучивать текст, переводить слова в движение и обслуживать людей в Макдоналдсе:
◼️ Одна разработчица открыла личку и увидела очередной дикпик. Тяжело вздохнув, она удалила сообщение и позвонила подруге. Вместе они решили создать нейросеть, которая бы банила чужие гениталии еще до того, как их увидит человек. Для сбора датасета девушки обратились к пользователям — вскоре фото было столько, что пришлось закрыть аккаунт в Twitter. Зато теперь ИИ распознает “дикпики обычные”, на очереди — “дикпики стеснительные”, где часть запрещенного контента прикрыта.
◼️ Китайские разработчики научились делать персонажей игры похожими на пользователей. Пока доступно только в Justice Online. Сфотографируйте лицо, и нейронки воспроизводят его в игре с учетом костной структуры. Больше не надо мучиться с настройками — достаточно селфи, чтобы оказаться в игре.
◼️ В Google Lens теперь можно прослушать текст с фото. Сначала сетки распознают каждый символ на фото, потом слова, а дальше — складывают текст целиком. Затем алгоритмы из соседнего приложения Translate переводят его и только потом подключается воспроизведение текста. Получается так себе — ошибки накапливаются на каждом этапе, и выходит почти сломанный телефон.
◼️ Алгоритм JL2P принимает входящий текст на английском и моделирует движение. Он может заставить 3D-фигурку ходить, бегать, играть на музыкальных инструментах и менять скорость передвижения — в общем, что человек скажет, то и сделает. Пока разработка на ранней стадии, но если подумать — это будущее робототехники.
◼️ Фастфудный император купил у стартапа Apprente голосовую систему, которую внедрят в “МакАвто”. Искусственного принимателя заказов уже начали тестировать на точках, дальше планируют внедрить его в приложение и киоски самообслуживания. А работникам сказать “пока”.
◼️ Одна разработчица открыла личку и увидела очередной дикпик. Тяжело вздохнув, она удалила сообщение и позвонила подруге. Вместе они решили создать нейросеть, которая бы банила чужие гениталии еще до того, как их увидит человек. Для сбора датасета девушки обратились к пользователям — вскоре фото было столько, что пришлось закрыть аккаунт в Twitter. Зато теперь ИИ распознает “дикпики обычные”, на очереди — “дикпики стеснительные”, где часть запрещенного контента прикрыта.
◼️ Китайские разработчики научились делать персонажей игры похожими на пользователей. Пока доступно только в Justice Online. Сфотографируйте лицо, и нейронки воспроизводят его в игре с учетом костной структуры. Больше не надо мучиться с настройками — достаточно селфи, чтобы оказаться в игре.
◼️ В Google Lens теперь можно прослушать текст с фото. Сначала сетки распознают каждый символ на фото, потом слова, а дальше — складывают текст целиком. Затем алгоритмы из соседнего приложения Translate переводят его и только потом подключается воспроизведение текста. Получается так себе — ошибки накапливаются на каждом этапе, и выходит почти сломанный телефон.
◼️ Алгоритм JL2P принимает входящий текст на английском и моделирует движение. Он может заставить 3D-фигурку ходить, бегать, играть на музыкальных инструментах и менять скорость передвижения — в общем, что человек скажет, то и сделает. Пока разработка на ранней стадии, но если подумать — это будущее робототехники.
◼️ Фастфудный император купил у стартапа Apprente голосовую систему, которую внедрят в “МакАвто”. Искусственного принимателя заказов уже начали тестировать на точках, дальше планируют внедрить его в приложение и киоски самообслуживания. А работникам сказать “пока”.
Привет, меня было мало на прошлых неделях, но теперь я снова с вами! Скоро покажу, какие ИИ уже существуют из того, что вы предложили в недавнем конкурсе. А пока — делюсь конференциями, где можем встретиться и пообщаться. Их две и обе крутые — Ai Stories и Pouf.conf. Первая уже завтра — так что начну с нее.
Молодым умам кажется, что запустить свое дело легко — главное, чтоб деньги были. На самом деле, подводных камней полно. Многие из них нашлись пока мы с командой делали Dbrain. C какими трудностями столкнулись и как решали — расскажу завтра на Pouf.conf. Надеюсь, мой честный рассказ о работе поможет будущим предпринимателям вырастить своего единорога.
Где? Москва
Когда? 26 сентября
Для кого? Для студентов
Регистрация? Тут
Потом поговорю с теми, кто уже играет на Hardmode. В неформальной атмосфере с ODS community и Rusbase обсудим мифы и ошибки при внедрении ИИ в бизнес. Конференция называется Ai Stories и она одна из лучших для бизнеса.
Где? Москва
Когда? 4 октября
Для кого? Бизнеса, технарей и всех заинтересованных
Билет? Тут
Увидимся!
Молодым умам кажется, что запустить свое дело легко — главное, чтоб деньги были. На самом деле, подводных камней полно. Многие из них нашлись пока мы с командой делали Dbrain. C какими трудностями столкнулись и как решали — расскажу завтра на Pouf.conf. Надеюсь, мой честный рассказ о работе поможет будущим предпринимателям вырастить своего единорога.
Где? Москва
Когда? 26 сентября
Для кого? Для студентов
Регистрация? Тут
Потом поговорю с теми, кто уже играет на Hardmode. В неформальной атмосфере с ODS community и Rusbase обсудим мифы и ошибки при внедрении ИИ в бизнес. Конференция называется Ai Stories и она одна из лучших для бизнеса.
Где? Москва
Когда? 4 октября
Для кого? Бизнеса, технарей и всех заинтересованных
Билет? Тут
Увидимся!
Rusbase
Флагманское мероприятие Rusbase по большим данным и искусственному интеллекту — Ai Stories
4 октября 2019 года Rusbase организует новую конференцию Ai Stories: про технологии на языке бизнеса.
Пробежимся по новостям из области ИИ — массовая слежка, русские студенты покоряют Google, подкасты и пользовательские соглашения:
➖ Команда из МФТИ стала призером конкурса от Google. В ежегодном соревновании Powered by TF Challenge приняли участие более 600 команд. Побеждает тот, кто представит лучшую разработку области ИИ на основе гугловской библиотеки TensorFlow. Русские разработчики показали библиотеку DeepPavlov и вошли в топ-5 лучших решений.
➖ Массовое распознавание лиц из Китая перекочевало в Индию. В стране нет законов о конфиденциальности, поэтому властям есть где разойтись. Планируют привязать к фейс-рекогнишну все доступные базы документов и трекать толпу 24/7. А все потому, что в стране полицейских не хватает. Зато камер скоро будет достаточно.
➖ Если вас бесит реклама в подкастах, следующий ИИ для вас. Нейросетка Adblock Radio научилась отличать рекламные вставки от простых разговоров, но пока пропускает нативную рекламу и иногда блокирует хип-хоп (понимаю ее). Автор ИИ не будет зарабатывать деньги на технологии. Все, что он хотел, это привлечь внимание создателей шоу к проблеме рекламы — ее много и она бесит. Пора что-то менять, а то придет ИИ и все заблокирует.
➖ Признайтесь честно — никто не читает пользовательские соглашения. Даже если там будет написано, что компания заберет квартиру и кота, мы жмем, потому что лень читать. Для таких людей (читай — всех) появился ИИ, который вглядывается в мелкий шрифт и коротко пересказывает содержание. Например, он говорит, что инстаграм не гарантирует безопасность опубликованного. Дальше — больше, нейросетки уже изучили бумаги всех самых популярных платформ. Там много интересного.
➖ Команда из МФТИ стала призером конкурса от Google. В ежегодном соревновании Powered by TF Challenge приняли участие более 600 команд. Побеждает тот, кто представит лучшую разработку области ИИ на основе гугловской библиотеки TensorFlow. Русские разработчики показали библиотеку DeepPavlov и вошли в топ-5 лучших решений.
➖ Массовое распознавание лиц из Китая перекочевало в Индию. В стране нет законов о конфиденциальности, поэтому властям есть где разойтись. Планируют привязать к фейс-рекогнишну все доступные базы документов и трекать толпу 24/7. А все потому, что в стране полицейских не хватает. Зато камер скоро будет достаточно.
➖ Если вас бесит реклама в подкастах, следующий ИИ для вас. Нейросетка Adblock Radio научилась отличать рекламные вставки от простых разговоров, но пока пропускает нативную рекламу и иногда блокирует хип-хоп (понимаю ее). Автор ИИ не будет зарабатывать деньги на технологии. Все, что он хотел, это привлечь внимание создателей шоу к проблеме рекламы — ее много и она бесит. Пора что-то менять, а то придет ИИ и все заблокирует.
➖ Признайтесь честно — никто не читает пользовательские соглашения. Даже если там будет написано, что компания заберет квартиру и кота, мы жмем, потому что лень читать. Для таких людей (читай — всех) появился ИИ, который вглядывается в мелкий шрифт и коротко пересказывает содержание. Например, он говорит, что инстаграм не гарантирует безопасность опубликованного. Дальше — больше, нейросетки уже изучили бумаги всех самых популярных платформ. Там много интересного.
Недавно закончился конкурс, где я просил присылать идеи ИИ, которые еще не реализованы. Многие предложили ИИ, которые, на самом деле, уже есть. Собрал их в список. Надеюсь, будет полезным:
➖ Фитнес браслет снимает данные — говорит, когда вы заболеваете:
Тут все просто — даже последние поколения Apple Watch реализуют эту функцию.
➖ Управление закупками в бизнесе и прогнозирование спроса в магазинах:
Почти все крупные сети внедрили себе подобные решения. К примеру, Ozon.
➖ Автоматизация ручного труда в офисе при работе с документами:
Почти все предложения сводились к применению RPA + OCR. Смотрим Docr и Uipath.
➖ ИИ вместо инженеров для проектирования домов:
Многие бьются над этой задачей. Например, можно почитать о генеративных сетях в архитектуре.
➖ ИИ следит за пожилыми людьми и бьет тревогу, если что не так:
Над этим трудится стартап с русскими корнями Cherry Home.
➖ ИИ анализирует снимки МРТ, КТ, УЗИ — для зубов, живота, горла и тд, и ставит диагноз:
Медицина — одна из самых активных областей в машинном обучении. Перечислить все компании, которые над этим работают, не хватит символов. Вбейте в поисковике “тип исследования + AI” и тут же найдете 5-10 стартапов. Например, Dental Ai.
➖ Автоматический скоринг людей при хайринге:
HR двигается в разных областях — две важные: прохождение тестового задания и анализ видео интервьюируемого. Пример, HumanticAi.
➖ Генерация телеведущих и врачей:
Генерация — это тренд 2019 года. Думаю, уже в 2020 мы уже будем смотреть ролики на YouTube без людей, вместо него передачу будет вести замаскированный под человека ИИ. Что-то подобное уже сделали в Китае.
➖ Фильтрация пород почвы и продукции на конвейере:
В 2017 мы создавали в стартапе Connectome ИИ, который следит за качеством работы на конвейерной линии.
➖ ИИ говорит погоду на завтра:
С прогнозом на 5-7 дней все достаточно хорошо (точность около 90%), а вот дальше начинаются проблемы. Многие вкладываются в это, например, IBM.
На этом все. Впереди нас ждут новые достижения в ИИ. Оставайтесь со мной и ничего не пропустите 😉
➖ Фитнес браслет снимает данные — говорит, когда вы заболеваете:
Тут все просто — даже последние поколения Apple Watch реализуют эту функцию.
➖ Управление закупками в бизнесе и прогнозирование спроса в магазинах:
Почти все крупные сети внедрили себе подобные решения. К примеру, Ozon.
➖ Автоматизация ручного труда в офисе при работе с документами:
Почти все предложения сводились к применению RPA + OCR. Смотрим Docr и Uipath.
➖ ИИ вместо инженеров для проектирования домов:
Многие бьются над этой задачей. Например, можно почитать о генеративных сетях в архитектуре.
➖ ИИ следит за пожилыми людьми и бьет тревогу, если что не так:
Над этим трудится стартап с русскими корнями Cherry Home.
➖ ИИ анализирует снимки МРТ, КТ, УЗИ — для зубов, живота, горла и тд, и ставит диагноз:
Медицина — одна из самых активных областей в машинном обучении. Перечислить все компании, которые над этим работают, не хватит символов. Вбейте в поисковике “тип исследования + AI” и тут же найдете 5-10 стартапов. Например, Dental Ai.
➖ Автоматический скоринг людей при хайринге:
HR двигается в разных областях — две важные: прохождение тестового задания и анализ видео интервьюируемого. Пример, HumanticAi.
➖ Генерация телеведущих и врачей:
Генерация — это тренд 2019 года. Думаю, уже в 2020 мы уже будем смотреть ролики на YouTube без людей, вместо него передачу будет вести замаскированный под человека ИИ. Что-то подобное уже сделали в Китае.
➖ Фильтрация пород почвы и продукции на конвейере:
В 2017 мы создавали в стартапе Connectome ИИ, который следит за качеством работы на конвейерной линии.
➖ ИИ говорит погоду на завтра:
С прогнозом на 5-7 дней все достаточно хорошо (точность около 90%), а вот дальше начинаются проблемы. Многие вкладываются в это, например, IBM.
На этом все. Впереди нас ждут новые достижения в ИИ. Оставайтесь со мной и ничего не пропустите 😉
Коллаборация года в IT — Microsoft разрешил Google ассистенту управлять Xbox Onе
Кто-нибудь помнит голосового помощника Cortana? Разработчики Microsoft представили его в 2014 году и, кажется, с тех пор о технологии никто не вспоминал. А ведь за эти годы Google и Apple подсадили пользователей на умных помощников — машина бронирует столики, отвечает на звонки, ведет записи и не научилась только белье из химчистки забирать (а жаль). В общем, Microsoft эту гонку проиграл.
Но это не конец — Microsoft понял, что лояльность пользователей важнее, чем попытки спасти Cortana, поэтому запустил интеграцию продуктов Google в свои системы. Начали с простого — позволили ассистенту управлять Xbox One — запускать игры, ставить на паузу, регулировать громкость. Теперь игровая приставка стала еще одним подопечным голосового помощника. Пока функция доступна в бете, но полноценный запуск назначен на эту осень.
Вероятно, это вопрос времени, когда мы сможем управлять компьютером через Google ассистента и получим полноценную поддержку помощника в Windows 10. В конце концов, какая разница через кого отдавать команды, если пользователь все равно сидит на винде.
Кто-нибудь помнит голосового помощника Cortana? Разработчики Microsoft представили его в 2014 году и, кажется, с тех пор о технологии никто не вспоминал. А ведь за эти годы Google и Apple подсадили пользователей на умных помощников — машина бронирует столики, отвечает на звонки, ведет записи и не научилась только белье из химчистки забирать (а жаль). В общем, Microsoft эту гонку проиграл.
Но это не конец — Microsoft понял, что лояльность пользователей важнее, чем попытки спасти Cortana, поэтому запустил интеграцию продуктов Google в свои системы. Начали с простого — позволили ассистенту управлять Xbox One — запускать игры, ставить на паузу, регулировать громкость. Теперь игровая приставка стала еще одним подопечным голосового помощника. Пока функция доступна в бете, но полноценный запуск назначен на эту осень.
Вероятно, это вопрос времени, когда мы сможем управлять компьютером через Google ассистента и получим полноценную поддержку помощника в Windows 10. В конце концов, какая разница через кого отдавать команды, если пользователь все равно сидит на винде.
Прочитал в Forbes статью на злободневную тему и пересказываю:
Существует технология, о который вы, возможно, слышали. Это OCR — оптическое распознавание символов. Даже если не слышали, то точно использовали, например, когда наводили камеру смартфона на текст для автоматического перевода.
Технология умеет не только это — крупные компании с помощью OCR переводят бумажные документы в цифру: обрабатывают входящие заявки от клиента и оцифровывают архивы. Но правда в том, что OCR уже давно может больше. И случилось это в тот момент, когда OCR заработал на базе ИИ.
Итак, как было раньше: OCR работает только на ограниченном наборе документов, обязательно определенного формата и качества. Он извлекает текст, но если поле хоть немного не вписывается в шаблон, результат желает оставлять лучшего. Многие компании к этому привыкли и живут дальше — в конце концов, ускорение работы на 20% уже неплохо.
Но где ИИ, там и будущее. OCR с использованием машинного обучения больше не ограничено правилами — система научилась думать. Она беспрерывно обучается в процессе, расширяя свои возможности в зависимости от нужд клиента. Если поле вдруг не подходит под стандарт (документ перевернут, на фото есть блики), алгоритмы все равно справятся с задачей — достаточно показать им примеры работы оператора в подобных ситуациях.
Однако и это еще не все. Можно выйти за рамки классического OCR и внедрить в работу системы NLP. Тогда алгоритмы учатся не только читать текст, но и понимать его. Системе не требуется подсказывать, где в тексте ФИО, дата, а где адрес человека — она уже умеет это делать, превосходя точность человека. В многостраничных документах такие функции являются необходимыми.
Развитие технологий уже повлияло на рынок — теперь мало создавать шаблоны, чтобы удержать клиента. Конкурентное преимущество за тем, кто обеспечит распознавание любых документов на уровне человека, в том числе для рукописного текста. Кстати, возможность распознавать его — тоже заслуга машинного обучения.
Существует технология, о который вы, возможно, слышали. Это OCR — оптическое распознавание символов. Даже если не слышали, то точно использовали, например, когда наводили камеру смартфона на текст для автоматического перевода.
Технология умеет не только это — крупные компании с помощью OCR переводят бумажные документы в цифру: обрабатывают входящие заявки от клиента и оцифровывают архивы. Но правда в том, что OCR уже давно может больше. И случилось это в тот момент, когда OCR заработал на базе ИИ.
Итак, как было раньше: OCR работает только на ограниченном наборе документов, обязательно определенного формата и качества. Он извлекает текст, но если поле хоть немного не вписывается в шаблон, результат желает оставлять лучшего. Многие компании к этому привыкли и живут дальше — в конце концов, ускорение работы на 20% уже неплохо.
Но где ИИ, там и будущее. OCR с использованием машинного обучения больше не ограничено правилами — система научилась думать. Она беспрерывно обучается в процессе, расширяя свои возможности в зависимости от нужд клиента. Если поле вдруг не подходит под стандарт (документ перевернут, на фото есть блики), алгоритмы все равно справятся с задачей — достаточно показать им примеры работы оператора в подобных ситуациях.
Однако и это еще не все. Можно выйти за рамки классического OCR и внедрить в работу системы NLP. Тогда алгоритмы учатся не только читать текст, но и понимать его. Системе не требуется подсказывать, где в тексте ФИО, дата, а где адрес человека — она уже умеет это делать, превосходя точность человека. В многостраничных документах такие функции являются необходимыми.
Развитие технологий уже повлияло на рынок — теперь мало создавать шаблоны, чтобы удержать клиента. Конкурентное преимущество за тем, кто обеспечит распознавание любых документов на уровне человека, в том числе для рукописного текста. Кстати, возможность распознавать его — тоже заслуга машинного обучения.
Forbes
The Future Of OCR Is Deep Learning
Users of traditional OCR services should re-evaluate their current licenses and payment terms.
История, в которой есть все — расизм, незаконный сбор данных, большая корпорация и… скидки в Starbucks.
В истории с распознаванием лиц есть один нюанс — оно работает с разным качеством для разных рас. Американское правительство выяснило, что фотографии афроамериканцев узнаются системой почти в 100 раз хуже, чем белых. Почему так — вопрос для отдельного поста. Сейчас же важно, что Google решил исправить ситуацию, однако выбрал для этого интересный, но крайне неэтичный способ.
Агентство Randstand наняло для радужной компании подрядчиков — они отправились собирать фотографии лиц на улицах Атланты, кампусах колледжей и фестивалях в Лос-Анджелесе. Фокус группа — люди с темным цветом кожи. А все потому, что распознавалка от Google, которая отвечает за разблокировку в будущем смартфоне Pixel 4, плохо на них работает.
Сотрудники предлагали прохожим поиграть с телефоном пару минут: протестировать новое приложение и сыграть в селфи-игру в обмен сертификат на $5 в Starbucks. В это время смартфон собирал сканы лиц. Среди тех, к кому подходили, бездомные и студенты, которые не подозревали, что помогают обучать нейросетки.
Персональные данные за стаканчик кофе — вот вам и технологичное будущее.
В истории с распознаванием лиц есть один нюанс — оно работает с разным качеством для разных рас. Американское правительство выяснило, что фотографии афроамериканцев узнаются системой почти в 100 раз хуже, чем белых. Почему так — вопрос для отдельного поста. Сейчас же важно, что Google решил исправить ситуацию, однако выбрал для этого интересный, но крайне неэтичный способ.
Агентство Randstand наняло для радужной компании подрядчиков — они отправились собирать фотографии лиц на улицах Атланты, кампусах колледжей и фестивалях в Лос-Анджелесе. Фокус группа — люди с темным цветом кожи. А все потому, что распознавалка от Google, которая отвечает за разблокировку в будущем смартфоне Pixel 4, плохо на них работает.
Сотрудники предлагали прохожим поиграть с телефоном пару минут: протестировать новое приложение и сыграть в селфи-игру в обмен сертификат на $5 в Starbucks. В это время смартфон собирал сканы лиц. Среди тех, к кому подходили, бездомные и студенты, которые не подозревали, что помогают обучать нейросетки.
Персональные данные за стаканчик кофе — вот вам и технологичное будущее.