🇰🇷 Комиссия по защите личной информации Южной Кореи оштрафовала Facebook на $5,5 млн за использование и хранение биометрических данных пользователей без надлежащего разрешения.
В ведомстве обнаружили, что в период с апреля 2018 по сентябрь 2019 года соцсеть создала 200 000 шаблонов распознавания лиц.
❌ Комиссия потребовала от компании удалить незаконно собранную информацию.
https://forklog.com/yuzhnaya-koreya-oshtrafovala-facebook-za-nezakonnyj-sbor-biometricheskih-dannyh/
#Корея #Facebook #регулирование
В ведомстве обнаружили, что в период с апреля 2018 по сентябрь 2019 года соцсеть создала 200 000 шаблонов распознавания лиц.
❌ Комиссия потребовала от компании удалить незаконно собранную информацию.
https://forklog.com/yuzhnaya-koreya-oshtrafovala-facebook-za-nezakonnyj-sbor-biometricheskih-dannyh/
#Корея #Facebook #регулирование
ForkLog
Южная Корея оштрафовала Facebook за незаконный сбор биометрических данных
Комиссия по защите личной информации Южной Кореи (PIPC) оштрафовала Facebook на 6,46 млрд вон ($5,5 млн) за использование и хранение биометрических данных пользователей без надлежащего разрешения. Об этом пишет The Register. По данным ведомства, в период…
🗣 Facebook извинилась за то, что ее ИИ отметил темнокожих мужчин на видео как «приматов» и назвала это «неприемлемой ошибкой».
27 июня 2020 года британский таблоид Daily Mail опубликовал в социальной сети видеоролик со словесной перепалкой между группой темнокожих мужчин и белыми гражданскими и полицейскими. Пользователи, просматривающие эту новость, получили автоматический запрос с вопросом «продолжить просмотр видео с приматами?».
❗️ Facebook отключила функцию рекомендаций по темам и извинилась за инцидент. Пресс-секретарь компании Дани Левер заявила, что «это была недопустимая ошибка». Она также добавила, что соцсеть занимается исследованием причины случившегося, чтобы предотвратить повторение подобных ситуаций.
#Facebook
27 июня 2020 года британский таблоид Daily Mail опубликовал в социальной сети видеоролик со словесной перепалкой между группой темнокожих мужчин и белыми гражданскими и полицейскими. Пользователи, просматривающие эту новость, получили автоматический запрос с вопросом «продолжить просмотр видео с приматами?».
❗️ Facebook отключила функцию рекомендаций по темам и извинилась за инцидент. Пресс-секретарь компании Дани Левер заявила, что «это была недопустимая ошибка». Она также добавила, что соцсеть занимается исследованием причины случившегося, чтобы предотвратить повторение подобных ситуаций.
⚙️ По информации СМИ, Facebook разработает чип для выполнения задач машинного обучения и искусственного интеллекта. Он нацелен на рекомендации контента пользователям.
Также техгигант создаст микросхему для перекодирования видео в приложениях, которая улучшит качество записанных и потоковых роликов.
☝️ Согласно источнику, собственные чипы позволят компании уменьшить углеродные выбросы от постоянно растущих центров обработки данных и снизить ее зависимость от существующих поставщиков полупроводников.
#Facebook #чипы
Также техгигант создаст микросхему для перекодирования видео в приложениях, которая улучшит качество записанных и потоковых роликов.
☝️ Согласно источнику, собственные чипы позволят компании уменьшить углеродные выбросы от постоянно растущих центров обработки данных и снизить ее зависимость от существующих поставщиков полупроводников.
#Facebook #чипы
🗣 СМИ: Facebook добавит в WhatsApp на iOS функцию транскрипции голосовых сообщений.
Инструмент будет работать локально на устройстве без передачи данных на серверы компании.
🤔 Примечательно, во всплывающем окне указано, что информация отправится в Apple. Голосовые сообщения помогут ей в разработке технологии распознавания речи, но не будут напрямую связаны с личностью пользователя.
#Facebook #NLP
Инструмент будет работать локально на устройстве без передачи данных на серверы компании.
🤔 Примечательно, во всплывающем окне указано, что информация отправится в Apple. Голосовые сообщения помогут ей в разработке технологии распознавания речи, но не будут напрямую связаны с личностью пользователя.
#Facebook #NLP
🖼 Facebook AI разработала модель IC-GAN для генерации высококачественных изображений с незнакомыми объектами и сценами.
Генеративно-состязательная сеть работает с размеченными и не маркированными данными. Она моделирует сочетание локальной кластеризации на одном изображении с перекрывающимися образцами из разных регионов или районов картинок «по-соседству». Затем алгоритм комбинирует реальные пиксели с предсказанными для создания новых реалистичных изображений.
🌐 Воспользоваться инструментом может любой желающий. Мы в ForkLog AI его протестировали и вот что у нас получилось.
#Facebook #разработка
Генеративно-состязательная сеть работает с размеченными и не маркированными данными. Она моделирует сочетание локальной кластеризации на одном изображении с перекрывающимися образцами из разных регионов или районов картинок «по-соседству». Затем алгоритм комбинирует реальные пиксели с предсказанными для создания новых реалистичных изображений.
🌐 Воспользоваться инструментом может любой желающий. Мы в ForkLog AI его протестировали и вот что у нас получилось.
#Facebook #разработка
👤 Facebook выдвинула кандидатуру Эндрю Босуорта на должность нового технического директора.
Он останется главой группы Facebook Reality Labs, а также организует разработку программного обеспечения и искусственного интеллекта компании.
📅 Босуорт займет должность в 2022 году, после ухода нынешнего техдиректора Майка Шрепфера.
#Facebook
Он останется главой группы Facebook Reality Labs, а также организует разработку программного обеспечения и искусственного интеллекта компании.
📅 Босуорт займет должность в 2022 году, после ухода нынешнего техдиректора Майка Шрепфера.
📢 Информатор: алгоритмы Facebook провоцируют распространение дезинформации, разжигание ненависти и этническое насилие ради прибыли.
По словам бывшего сотрудника компании Фрэнсис Хоген, руководство техгиганта знает об этом и не предпринимает активных действий из-за высокой вовлеченности пользователей в такой контент, который способствует росту платформы.
Марк Цукерберг ответил, что «информация не соответствует действительности».
🗃 Заявление информатора подтверждают скопированные документы внутреннего исследования Facebook, которые затем были переданы журналистам, регуляторам и Сенату США.
https://forklog.com/informator-facebook-ispolzuet-algoritmy-dlya-razzhiganiya-nenavisti-radi-pribyli/
#Facebook
По словам бывшего сотрудника компании Фрэнсис Хоген, руководство техгиганта знает об этом и не предпринимает активных действий из-за высокой вовлеченности пользователей в такой контент, который способствует росту платформы.
Марк Цукерберг ответил, что «информация не соответствует действительности».
🗃 Заявление информатора подтверждают скопированные документы внутреннего исследования Facebook, которые затем были переданы журналистам, регуляторам и Сенату США.
https://forklog.com/informator-facebook-ispolzuet-algoritmy-dlya-razzhiganiya-nenavisti-radi-pribyli/
ForkLog
Информатор: Facebook использует алгоритмы для разжигания ненависти ради прибыли
Алгоритмы Facebook провоцируют распространение дезинформации, разжигание ненависти и этническое насилие ради прибыли. Об этом в Сенате США рассказала бывший менеджер по продукту компании Фрэнсис Хауген, пишет ABC News. «Руководство компании знает, как сделать…
🔎 Facebook предоставит регуляторам доступ к алгоритмам, чтобы доказать их безвредность.
Вице-президент компании по глобальным связям Ник Клегг заявил, что корпорация готова к более строгому контролю и открыта для изменения положения закона США, освобождающего организации от ответственности за публикации пользователей.
☝️ Также он рассказал о планируемых нововведениях в Instagram для защиты благополучия подростков, среди которых алгоритмическая подмена вредного контента нейтральным, родительский контроль и напоминания о перерывах.
https://forklog.com/facebook-soglasilas-otkryt-regulyatoram-dostup-k-algoritmam-chtoby-dokazat-ih-bezvrednost/
#Facebook
Вице-президент компании по глобальным связям Ник Клегг заявил, что корпорация готова к более строгому контролю и открыта для изменения положения закона США, освобождающего организации от ответственности за публикации пользователей.
☝️ Также он рассказал о планируемых нововведениях в Instagram для защиты благополучия подростков, среди которых алгоритмическая подмена вредного контента нейтральным, родительский контроль и напоминания о перерывах.
https://forklog.com/facebook-soglasilas-otkryt-regulyatoram-dostup-k-algoritmam-chtoby-dokazat-ih-bezvrednost/
ForkLog
Facebook согласилась открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность
Корпорация Facebook готова к более строгому контролю, чтобы ее алгоритмы работали как задумано и не причиняли вреда пользователям. Об этом в эфире CNN заявил вице-президент компании по глобальным связям Ник Клегг. «Алгоритмы необходимо сделать подотчетными…
👀 Facebook запустил исследовательский проект Ego4D, направленный на разработку ИИ для помощи людям в решении повседневных задач. Он будет записывать и анализировать все действия пользователя по видео от первого лица.
Авторы перечислили возможности, которым хотят обучить систему. Среди них:
📌 Эпизодическая память: например, поиск ответа на вопрос «где я оставил ключи?».
📌 Прогнозирование: «вы уже добавили соль в это блюдо?».
📌 Манипуляции с предметами: «научи меня играть на барабанах».
📌 Аудиовизуальный дневник: «какая тема предыдущего урока?».
📌 Социальное взаимодействие: «помоги мне расслышать человека, с которым я говорю в шумном ресторане».
В проекте участвуют исследователи из 13 университетов по всему миру. Они собрали датасет из 3205 часов видеозаписей, полученных от 855 респондентов из девяти стран.
#Facebook #исследование
Авторы перечислили возможности, которым хотят обучить систему. Среди них:
📌 Эпизодическая память: например, поиск ответа на вопрос «где я оставил ключи?».
📌 Прогнозирование: «вы уже добавили соль в это блюдо?».
📌 Манипуляции с предметами: «научи меня играть на барабанах».
📌 Аудиовизуальный дневник: «какая тема предыдущего урока?».
📌 Социальное взаимодействие: «помоги мне расслышать человека, с которым я говорю в шумном ресторане».
В проекте участвуют исследователи из 13 университетов по всему миру. Они собрали датасет из 3205 часов видеозаписей, полученных от 855 респондентов из девяти стран.
#Facebook #исследование
🔎 Журналисты выяснили, что алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы.
Согласно отчетам, в 2019 году компания стала больше полагаться на ИИ для модерации постов и это способствовало преувеличению успеха технологии в публичной статистике. В 2021 году внутренняя исследовательская группа обнаружила, что алгоритмы отметили и удалили только 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.
🙅♂️ В Facebook опровергли результаты расследования и заявили, что за последние три года ИИ снизил распространенность языка вражды в соцсети на 50% и сократил просмотр подобных постов до 0,05%.
https://forklog.com/wsj-algoritmy-facebook-udalyayut-lish-chast-kontenta-narushayushhego-pravila-platformy/
#Facebook
Согласно отчетам, в 2019 году компания стала больше полагаться на ИИ для модерации постов и это способствовало преувеличению успеха технологии в публичной статистике. В 2021 году внутренняя исследовательская группа обнаружила, что алгоритмы отметили и удалили только 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.
🙅♂️ В Facebook опровергли результаты расследования и заявили, что за последние три года ИИ снизил распространенность языка вражды в соцсети на 50% и сократил просмотр подобных постов до 0,05%.
https://forklog.com/wsj-algoritmy-facebook-udalyayut-lish-chast-kontenta-narushayushhego-pravila-platformy/
ForkLog
WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы
Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети. Согласно отчету, два года назад Facebook…
👥 Meta (ранее Facebook) представила реалистичных аватаров, среду для их существования, а также нейроинтерфейс, позволяющий ими управлять.
Сотрудник компании продемонстрировал цифрового человека и то, как пользователь может управлять его глазами и мимикой, менять прически и внешний вид. Также он показал, как волосы и кожа аватара реагируют на изменения освещения и среды.
Технология рендеринга виртуальных миров в реальном времени станет местом для взаимодействия виртуальных людей друг с другом.
🧠 Нейронный интерфейс основан на электромиографии и позволяет с помощью специального браслета преобразовать мозговые сигналы в компьютерные команды.
https://forklog.com/meta-predstavila-tsifrovyh-avatarov-dlya-virtualnoj-i-dopolnennoj-realnosti/
#Facebook #Meta
Сотрудник компании продемонстрировал цифрового человека и то, как пользователь может управлять его глазами и мимикой, менять прически и внешний вид. Также он показал, как волосы и кожа аватара реагируют на изменения освещения и среды.
Технология рендеринга виртуальных миров в реальном времени станет местом для взаимодействия виртуальных людей друг с другом.
🧠 Нейронный интерфейс основан на электромиографии и позволяет с помощью специального браслета преобразовать мозговые сигналы в компьютерные команды.
https://forklog.com/meta-predstavila-tsifrovyh-avatarov-dlya-virtualnoj-i-dopolnennoj-realnosti/
#Facebook #Meta
ForkLog
Meta представила цифровых аватаров для виртуальной и дополненной реальности
Компания Meta (ранее Facebook), продемонстрировала реалистичные аватары, среду для их существования, а также нейроинтерфейс, позволяющий ими управлять. По словам старшего научного сотрудника Oculus Майкла Абраша, пользователи смогут создавать реалистичные…
👀 В Facebook обучили ИИ-алгоритмы обнаруживать и блокировать прямые трансляции перестрелок или другие материалы насильственного характера.
В 2019 году в новозеландском городе Крайстчерч произошел террористический акт, в результате которого 51 человек погиб и 40 получили ранения. Один из нападавших 17 минут транслировал стрельбу в сервисе Facebook Live, так как искусственный интеллект выявил только 0,11 баллов по внутренней шкале насилия при пороге вмешательства 0,65.
Исследователи переобучили алгоритмы, расширив тренировочный датасет роликами с камер полиции и военных, а также кадрами из шутерных видеоигр и симуляций в качестве материалов «не для блокировки».
🔎 В результате работы, время обнаружения искусственным интеллектом вредного контента на платформе сократилось с 5 минут до 12 секунд, а видео из Крайстчерча набрало 0,96 по шкале насилия.
#Facebook
В 2019 году в новозеландском городе Крайстчерч произошел террористический акт, в результате которого 51 человек погиб и 40 получили ранения. Один из нападавших 17 минут транслировал стрельбу в сервисе Facebook Live, так как искусственный интеллект выявил только 0,11 баллов по внутренней шкале насилия при пороге вмешательства 0,65.
Исследователи переобучили алгоритмы, расширив тренировочный датасет роликами с камер полиции и военных, а также кадрами из шутерных видеоигр и симуляций в качестве материалов «не для блокировки».
🔎 В результате работы, время обнаружения искусственным интеллектом вредного контента на платформе сократилось с 5 минут до 12 секунд, а видео из Крайстчерча набрало 0,96 по шкале насилия.
❌ Meta закроет систему распознавания лиц в Facebook и удалит индивидуальные шаблоны для биометрической идентификации более чем миллиарда людей.
Платформа перестанет предлагать отмечать людей на изображениях и прекратит уведомлять пользователей о новых публикациях медиаконтента с их участием, но без соответствующего упоминания.
Изменения также коснутся системы автоматического описания изображений для слабовидящих. Соцсеть не будет указывать имена людей, обнаруженных на фотографиях.
☝️ В компании приняли такое решение на волне «растущей обеспокоенности» по поводу более широкого использования распознавания лиц.
https://forklog.com/facebook-otkazhetsya-ot-sistemy-raspoznavaniya-lits-i-udalit-svyazannye-s-nej-dannye/
#Meta #Facebook
Платформа перестанет предлагать отмечать людей на изображениях и прекратит уведомлять пользователей о новых публикациях медиаконтента с их участием, но без соответствующего упоминания.
Изменения также коснутся системы автоматического описания изображений для слабовидящих. Соцсеть не будет указывать имена людей, обнаруженных на фотографиях.
☝️ В компании приняли такое решение на волне «растущей обеспокоенности» по поводу более широкого использования распознавания лиц.
https://forklog.com/facebook-otkazhetsya-ot-sistemy-raspoznavaniya-lits-i-udalit-svyazannye-s-nej-dannye/
#Meta #Facebook
ForkLog
Facebook откажется от системы распознавания лиц и удалит связанные с ней данные
Компания Meta объявила о закрытии системы распознавания лиц в Facebook «в ближайшие недели». Соцсеть также удалит индивидуальные шаблоны для биометрической идентификации более чем миллиарда людей. При публикации новых изображений платформа перестанет предлагать…
🙅♂️ Facebook запретил пользователям из РФ размещать рекламу в соцсети.
«Рекламодатели в России больше не смогут создавать или запускать рекламу в любой точке мира, в том числе в России», — заявили в компании.
📆 4 марта Роскомнадзор заблокировал доступ к Facebook на территории Российской Федерации. В ответ на это соцсеть пообещала приложить максимум усилий, чтобы обеспечить массовую доступность к своим сервисам.
#Facebook
«Рекламодатели в России больше не смогут создавать или запускать рекламу в любой точке мира, в том числе в России», — заявили в компании.
📆 4 марта Роскомнадзор заблокировал доступ к Facebook на территории Российской Федерации. В ответ на это соцсеть пообещала приложить максимум усилий, чтобы обеспечить массовую доступность к своим сервисам.
🔎 Исследователи из Университета штата Северная Каролина проанализировали работу рекламных алгоритмов Facebook.
Ученые выявили, что модели создают профили интересов на основе действий пользователей, однако не учитывают их контекст. По словам исследователей, если человек опубликует сообщение «как сильно не любит сыр», ИИ определит только интерес к сыру и запустит соответствующую таргетированную рекламу.
👤 Чтобы больше узнать о процессе создания профилей интересов на Facebook, исследователи провели два эксперимента. В первом тесте они зарегистрировали 14 новых аккаунтов, где контролировали демографические данные и отслеживали сгенерированный список предпочтений. Ученые выявили, что 33,22% предполагаемых интересов были неточными или нерелевантными.
Для второго эксперимента исследователи привлекли 146 участников со всего мира. Они собрали данные из каждой учетной записи и проанализировали созданный ИИ список предпочтений. В результате, 29,3% интересов не соответствовали реальным предпочтениям пользователей.
🙅♂️ Также большинство респондентов даже не знали о существовании менеджера рекламных предпочтений Facebook, заявили ученые.
#исследование #Facebook
Ученые выявили, что модели создают профили интересов на основе действий пользователей, однако не учитывают их контекст. По словам исследователей, если человек опубликует сообщение «как сильно не любит сыр», ИИ определит только интерес к сыру и запустит соответствующую таргетированную рекламу.
👤 Чтобы больше узнать о процессе создания профилей интересов на Facebook, исследователи провели два эксперимента. В первом тесте они зарегистрировали 14 новых аккаунтов, где контролировали демографические данные и отслеживали сгенерированный список предпочтений. Ученые выявили, что 33,22% предполагаемых интересов были неточными или нерелевантными.
Для второго эксперимента исследователи привлекли 146 участников со всего мира. Они собрали данные из каждой учетной записи и проанализировали созданный ИИ список предпочтений. В результате, 29,3% интересов не соответствовали реальным предпочтениям пользователей.
🙅♂️ Также большинство респондентов даже не знали о существовании менеджера рекламных предпочтений Facebook, заявили ученые.
#исследование #Facebook
👀 В течение шести месяцев Facebook продвигал вредоносный контент в фидах пользователей из-за ошибки в алгоритме ранжирования.
По данным The Verge, баг вызвал «всплеск дезинформации», распространение наготы и насилия, а также видимость постов российских государственных СМИ, которые платформа обязалась не рекомендовать из-за войны в Украине. Проблема затронула алгоритм новостной ленты Facebook, который на 30% стал чаще показывать вредоносный контент вместо того, чтобы понижать его рейтинг.
Согласно источнику, инженеры соцсети еще в октябре 2021 года классифицировали баг как «серьезную» уязвимость, но не устраняли его до марта 2022 года из-за того, что «не смогли найти основную причину».
💬 В Facebook заявили, что уже исправили ошибку.
#Facebook
По данным The Verge, баг вызвал «всплеск дезинформации», распространение наготы и насилия, а также видимость постов российских государственных СМИ, которые платформа обязалась не рекомендовать из-за войны в Украине. Проблема затронула алгоритм новостной ленты Facebook, который на 30% стал чаще показывать вредоносный контент вместо того, чтобы понижать его рейтинг.
Согласно источнику, инженеры соцсети еще в октябре 2021 года классифицировали баг как «серьезную» уязвимость, но не устраняли его до марта 2022 года из-за того, что «не смогли найти основную причину».
💬 В Facebook заявили, что уже исправили ошибку.