Sensetime Research создаст «самый большой» бенчмарк для детекторов дипфейков
#Sensetime #deepfakes
Исследователи из стартапа искусственного интеллекта Sensetime создали бенчмарк для детекторов так называемых «глубоких фейков», позволяющий разработчикам обучать и тестировать системы для идентификации замены лиц.
Почему это важно: технология так называемых «дипфейков» или «глубоких фейков» используется для манипулирования СМИ с использованием искусственного интеллекта для создания реалистичных видео, изображений или звуков.
Использование технологии вызвало опасения, что приложения, в том числе системы распознавания лиц, можно будет обманывать с её помощью, что приведёт к компрометации персональных данных. Как правило, лица знаменитостей пририсовываются на чужие тела.
- Китай ввёл правила, требующие от онлайн-платформ явно маркировать контент, созданный с использованием «глубоких фейков», машинного обучения, виртуальной реальности и других технологий.
«Растущая популярность „глубоких фейков“ в интернете ещё более усилила тревогу широкой общественности и властей, учитывая возможные опасные последствия. Соответственно, существует острая необходимость в своевременном введении контрмер, в особенности инноваций, которые могут эффективно обнаруживать видео, подвергшиеся манипулированию».
—Исследователи из Sensetime и Наньянского технологического университета
Подробности: Sensetime Research создала бенчмарк, получивший название Deeper-Forensics-1.0, совместно с сингапурским Наньянским технологическим университетом. Исследователи утверждают, что используемый в нём набор данных в 10 раз больше, чем другие подобного рода. Он включает 60 000 видеороликов, или более 17.6 миллионов кадров.
- Sensetime заявила, что все исходные видео были тщательно отобраны, а фейковые видео были сгенерированы с помощью недавно предложенной системы замены лиц.
- Для DeeperForensics-1.0 исследователи собрали данные о лицах 100 платных актёров из 26 стран, 53 мужчин и 47 женщин. Актёры были в возрасте от 20 до 45 лет — наиболее распространённая возрастная группа, которая появляется в видеороликах, сообщает Sensetime.
- Исследователи добавили, что видео в их наборе данных «более реалистичны», чем другие. Они также включали кадры с различной скоростью сжатия и размытия, чтобы имитировать реальные случаи.
- Бенчмарк также включает в себя скрытый набор тестов, содержащий подвергнутые манипуляциям видео, которые смогли обмануть проверяющих людей, сказали они.
Контекст: «глубокие фейки» получили широкое внимание в Китае в сентябре, когда популярная платформа для обмена лицами Zao оказалась в центре скандала из-за потенциальных проблем конфиденциальности. Выпущенное 31 августа приложение быстро стало вирусным в Китае, до того как была обнародована его политика, допускавшая чрезмерный сбор данных. Zao быстро стало сенсацией, его серверы вышли на максимальную мощность в день запуска.
- Контролирующие органы обратили на это внимание, вызвав руководителей материнской компании, платформы знакомств Momo, для обсуждения практики сбора данных Zao.
https://ru.technode.com/2020/01/20/sensitive-benchmark-deepfake-detectors/
#Sensetime #deepfakes
Исследователи из стартапа искусственного интеллекта Sensetime создали бенчмарк для детекторов так называемых «глубоких фейков», позволяющий разработчикам обучать и тестировать системы для идентификации замены лиц.
Почему это важно: технология так называемых «дипфейков» или «глубоких фейков» используется для манипулирования СМИ с использованием искусственного интеллекта для создания реалистичных видео, изображений или звуков.
Использование технологии вызвало опасения, что приложения, в том числе системы распознавания лиц, можно будет обманывать с её помощью, что приведёт к компрометации персональных данных. Как правило, лица знаменитостей пририсовываются на чужие тела.
- Китай ввёл правила, требующие от онлайн-платформ явно маркировать контент, созданный с использованием «глубоких фейков», машинного обучения, виртуальной реальности и других технологий.
«Растущая популярность „глубоких фейков“ в интернете ещё более усилила тревогу широкой общественности и властей, учитывая возможные опасные последствия. Соответственно, существует острая необходимость в своевременном введении контрмер, в особенности инноваций, которые могут эффективно обнаруживать видео, подвергшиеся манипулированию».
—Исследователи из Sensetime и Наньянского технологического университета
Подробности: Sensetime Research создала бенчмарк, получивший название Deeper-Forensics-1.0, совместно с сингапурским Наньянским технологическим университетом. Исследователи утверждают, что используемый в нём набор данных в 10 раз больше, чем другие подобного рода. Он включает 60 000 видеороликов, или более 17.6 миллионов кадров.
- Sensetime заявила, что все исходные видео были тщательно отобраны, а фейковые видео были сгенерированы с помощью недавно предложенной системы замены лиц.
- Для DeeperForensics-1.0 исследователи собрали данные о лицах 100 платных актёров из 26 стран, 53 мужчин и 47 женщин. Актёры были в возрасте от 20 до 45 лет — наиболее распространённая возрастная группа, которая появляется в видеороликах, сообщает Sensetime.
- Исследователи добавили, что видео в их наборе данных «более реалистичны», чем другие. Они также включали кадры с различной скоростью сжатия и размытия, чтобы имитировать реальные случаи.
- Бенчмарк также включает в себя скрытый набор тестов, содержащий подвергнутые манипуляциям видео, которые смогли обмануть проверяющих людей, сказали они.
Контекст: «глубокие фейки» получили широкое внимание в Китае в сентябре, когда популярная платформа для обмена лицами Zao оказалась в центре скандала из-за потенциальных проблем конфиденциальности. Выпущенное 31 августа приложение быстро стало вирусным в Китае, до того как была обнародована его политика, допускавшая чрезмерный сбор данных. Zao быстро стало сенсацией, его серверы вышли на максимальную мощность в день запуска.
- Контролирующие органы обратили на это внимание, вызвав руководителей материнской компании, платформы знакомств Momo, для обсуждения практики сбора данных Zao.
https://ru.technode.com/2020/01/20/sensitive-benchmark-deepfake-detectors/