ForkLog AI
11.4K subscribers
1.59K photos
273 videos
12 files
5.2K links
Культовый журнал об искусственном интеллекте, нейронках и машинном обучении.


Наши эксперименты с нейронными сетями: https://www.tiktok.com/@forklogai.

Реклама на ForkLog: https://forklog.com/advertisement/
Download Telegram
🇰🇷 Комиссия по защите личной информации Южной Кореи оштрафовала Facebook на $5,5 млн за использование и хранение биометрических данных пользователей без надлежащего разрешения.

В ведомстве обнаружили, что в период с апреля 2018 по сентябрь 2019 года соцсеть создала 200 000 шаблонов распознавания лиц.

Комиссия потребовала от компании удалить незаконно собранную информацию.

https://forklog.com/yuzhnaya-koreya-oshtrafovala-facebook-za-nezakonnyj-sbor-biometricheskih-dannyh/

#Корея #Facebook #регулирование
🗣 Facebook извинилась за то, что ее ИИ отметил темнокожих мужчин на видео как «приматов» и назвала это «неприемлемой ошибкой».

27 июня 2020 года британский таблоид Daily Mail опубликовал в социальной сети видеоролик со словесной перепалкой между группой темнокожих мужчин и белыми гражданскими и полицейскими. Пользователи, просматривающие эту новость, получили автоматический запрос с вопросом «продолжить просмотр видео с приматами?».

❗️ Facebook отключила функцию рекомендаций по темам и извинилась за инцидент. Пресс-секретарь компании Дани Левер заявила, что «это была недопустимая ошибка». Она также добавила, что соцсеть занимается исследованием причины случившегося, чтобы предотвратить повторение подобных ситуаций.

#Facebook
⚙️ По информации СМИ, Facebook разработает чип для выполнения задач машинного обучения и искусственного интеллекта. Он нацелен на рекомендации контента пользователям.

Также техгигант создаст микросхему для перекодирования видео в приложениях, которая улучшит качество записанных и потоковых роликов.

☝️ Согласно источнику, собственные чипы позволят компании уменьшить углеродные выбросы от постоянно растущих центров обработки данных и снизить ее зависимость от существующих поставщиков полупроводников.

#Facebook #чипы
🗣 СМИ: Facebook добавит в WhatsApp на iOS функцию транскрипции голосовых сообщений.

Инструмент будет работать локально на устройстве без передачи данных на серверы компании.

🤔 Примечательно, во всплывающем окне указано, что информация отправится в Apple. Голосовые сообщения помогут ей в разработке технологии распознавания речи, но не будут напрямую связаны с личностью пользователя.

#Facebook #NLP
🖼 Facebook AI разработала модель IC-GAN для генерации высококачественных изображений с незнакомыми объектами и сценами.

Генеративно-состязательная сеть работает с размеченными и не маркированными данными. Она моделирует сочетание локальной кластеризации на одном изображении с перекрывающимися образцами из разных регионов или районов картинок «по-соседству». Затем алгоритм комбинирует реальные пиксели с предсказанными для создания новых реалистичных изображений.

🌐 Воспользоваться инструментом может любой желающий. Мы в ForkLog AI его протестировали и вот что у нас получилось.

#Facebook #разработка
👤 Facebook выдвинула кандидатуру Эндрю Босуорта на должность нового технического директора.

Он останется главой группы Facebook Reality Labs, а также организует разработку программного обеспечения и искусственного интеллекта компании.

📅 Босуорт займет должность в 2022 году, после ухода нынешнего техдиректора Майка Шрепфера.

#Facebook
📢 Информатор: алгоритмы Facebook провоцируют распространение дезинформации, разжигание ненависти и этническое насилие ради прибыли.

По словам бывшего сотрудника компании Фрэнсис Хоген, руководство техгиганта знает об этом и не предпринимает активных действий из-за высокой вовлеченности пользователей в такой контент, который способствует росту платформы.

Марк Цукерберг ответил, что «информация не соответствует действительности».

🗃 Заявление информатора подтверждают скопированные документы внутреннего исследования Facebook, которые затем были переданы журналистам, регуляторам и Сенату США.

https://forklog.com/informator-facebook-ispolzuet-algoritmy-dlya-razzhiganiya-nenavisti-radi-pribyli/

#Facebook
🔎 Facebook предоставит регуляторам доступ к алгоритмам, чтобы доказать их безвредность.

Вице-президент компании по глобальным связям Ник Клегг заявил, что корпорация готова к более строгому контролю и открыта для изменения положения закона США, освобождающего организации от ответственности за публикации пользователей.

☝️ Также он рассказал о планируемых нововведениях в Instagram для защиты благополучия подростков, среди которых алгоритмическая подмена вредного контента нейтральным, родительский контроль и напоминания о перерывах.

https://forklog.com/facebook-soglasilas-otkryt-regulyatoram-dostup-k-algoritmam-chtoby-dokazat-ih-bezvrednost/

#Facebook
👀 Facebook запустил исследовательский проект Ego4D, направленный на разработку ИИ для помощи людям в решении повседневных задач. Он будет записывать и анализировать все действия пользователя по видео от первого лица.

Авторы перечислили возможности, которым хотят обучить систему. Среди них:

📌 Эпизодическая память: например, поиск ответа на вопрос «где я оставил ключи?».
📌 Прогнозирование: «вы уже добавили соль в это блюдо?».
📌 Манипуляции с предметами: «научи меня играть на барабанах».
📌 Аудиовизуальный дневник: «какая тема предыдущего урока?».
📌 Социальное взаимодействие: «помоги мне расслышать человека, с которым я говорю в шумном ресторане».

В проекте участвуют исследователи из 13 университетов по всему миру. Они собрали датасет из 3205 часов видеозаписей, полученных от 855 респондентов из девяти стран.

#Facebook #исследование
🔎 Журналисты выяснили, что алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы.

Согласно отчетам, в 2019 году компания стала больше полагаться на ИИ для модерации постов и это способствовало преувеличению успеха технологии в публичной статистике. В 2021 году внутренняя исследовательская группа обнаружила, что алгоритмы отметили и удалили только 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.

🙅‍♂️ В Facebook опровергли результаты расследования и заявили, что за последние три года ИИ снизил распространенность языка вражды в соцсети на 50% и сократил просмотр подобных постов до 0,05%.

https://forklog.com/wsj-algoritmy-facebook-udalyayut-lish-chast-kontenta-narushayushhego-pravila-platformy/

#Facebook
👥 Meta (ранее Facebook) представила реалистичных аватаров, среду для их существования, а также нейроинтерфейс, позволяющий ими управлять.

Сотрудник компании продемонстрировал цифрового человека и то, как пользователь может управлять его глазами и мимикой, менять прически и внешний вид. Также он показал, как волосы и кожа аватара реагируют на изменения освещения и среды.

Технология рендеринга виртуальных миров в реальном времени станет местом для взаимодействия виртуальных людей друг с другом.

🧠 Нейронный интерфейс основан на электромиографии и позволяет с помощью специального браслета преобразовать мозговые сигналы в компьютерные команды.

https://forklog.com/meta-predstavila-tsifrovyh-avatarov-dlya-virtualnoj-i-dopolnennoj-realnosti/

#Facebook #Meta
👀 В Facebook обучили ИИ-алгоритмы обнаруживать и блокировать прямые трансляции перестрелок или другие материалы насильственного характера.

В 2019 году в новозеландском городе Крайстчерч произошел террористический акт, в результате которого 51 человек погиб и 40 получили ранения. Один из нападавших 17 минут транслировал стрельбу в сервисе Facebook Live, так как искусственный интеллект выявил только 0,11 баллов по внутренней шкале насилия при пороге вмешательства 0,65.

Исследователи переобучили алгоритмы, расширив тренировочный датасет роликами с камер полиции и военных, а также кадрами из шутерных видеоигр и симуляций в качестве материалов «не для блокировки».

🔎 В результате работы, время обнаружения искусственным интеллектом вредного контента на платформе сократилось с 5 минут до 12 секунд, а видео из Крайстчерча набрало 0,96 по шкале насилия.

#Facebook
Meta закроет систему распознавания лиц в Facebook и удалит индивидуальные шаблоны для биометрической идентификации более чем миллиарда людей.

Платформа перестанет предлагать отмечать людей на изображениях и прекратит уведомлять пользователей о новых публикациях медиаконтента с их участием, но без соответствующего упоминания.

Изменения также коснутся системы автоматического описания изображений для слабовидящих. Соцсеть не будет указывать имена людей, обнаруженных на фотографиях.

☝️ В компании приняли такое решение на волне «растущей обеспокоенности» по поводу более широкого использования распознавания лиц.

https://forklog.com/facebook-otkazhetsya-ot-sistemy-raspoznavaniya-lits-i-udalit-svyazannye-s-nej-dannye/

#Meta #Facebook
🙅‍♂️ Facebook запретил пользователям из РФ размещать рекламу в соцсети.

«Рекламодатели в России больше не смогут создавать или запускать рекламу в любой точке мира, в том числе в России», — заявили в компании.

📆 4 марта Роскомнадзор заблокировал доступ к Facebook на территории Российской Федерации. В ответ на это соцсеть пообещала приложить максимум усилий, чтобы обеспечить массовую доступность к своим сервисам.

#Facebook
🔎 Исследователи из Университета штата Северная Каролина проанализировали работу рекламных алгоритмов Facebook.

Ученые выявили, что модели создают профили интересов на основе действий пользователей, однако не учитывают их контекст. По словам исследователей, если человек опубликует сообщение «как сильно не любит сыр», ИИ определит только интерес к сыру и запустит соответствующую таргетированную рекламу.

👤 Чтобы больше узнать о процессе создания профилей интересов на Facebook, исследователи провели два эксперимента. В первом тесте они зарегистрировали 14 новых аккаунтов, где контролировали демографические данные и отслеживали сгенерированный список предпочтений. Ученые выявили, что 33,22% предполагаемых интересов были неточными или нерелевантными.

Для второго эксперимента исследователи привлекли 146 участников со всего мира. Они собрали данные из каждой учетной записи и проанализировали созданный ИИ список предпочтений. В результате, 29,3% интересов не соответствовали реальным предпочтениям пользователей.

🙅‍♂️ Также большинство респондентов даже не знали о существовании менеджера рекламных предпочтений Facebook, заявили ученые.

#исследование #Facebook
👀 В течение шести месяцев Facebook продвигал вредоносный контент в фидах пользователей из-за ошибки в алгоритме ранжирования.

По данным The Verge, баг вызвал «всплеск дезинформации», распространение наготы и насилия, а также видимость постов российских государственных СМИ, которые платформа обязалась не рекомендовать из-за войны в Украине. Проблема затронула алгоритм новостной ленты Facebook, который на 30% стал чаще показывать вредоносный контент вместо того, чтобы понижать его рейтинг.

Согласно источнику, инженеры соцсети еще в октябре 2021 года классифицировали баг как «серьезную» уязвимость, но не устраняли его до марта 2022 года из-за того, что «не смогли найти основную причину».

💬 В Facebook заявили, что уже исправили ошибку.

#Facebook