ForkLog AI
11.5K subscribers
1.65K photos
290 videos
12 files
5.3K links
Культовый журнал об искусственном интеллекте, нейронках и машинном обучении.


Наши эксперименты с нейронными сетями: https://www.tiktok.com/@forklogai.

Реклама на ForkLog: https://forklog.com/advertisement/
Download Telegram
October 4, 2021
🇨🇳 Китай представил набор этических принципов регулирования искусственного интеллекта с упором на защиту прав пользователей и предотвращение рисков. По задумке властей, это поможет Пекину стать мировым лидером в области к 2030 году.

В документе изложены шесть принципов для ИИ-систем, среди которых обеспечение «управляемости и надежности», защита частной жизни и безопасности, а также повышение этической грамотности.

📝 Кроме этого, в руководстве упоминается право отказаться от принятия решений на основе искусственного интеллекта. Также в нем указаны принципы, запрещающие разрабатывать и использовать алгоритмы в незаконной деятельности или угрожающие национальной, общественной и производственной безопасности.

https://forklog.com/kitaj-predstavil-eticheskie-printsipy-regulirovaniya-iskusstvennogo-intellekta/

#Китай #регулирование
October 4, 2021
October 4, 2021
October 4, 2021
October 4, 2021
October 4, 2021
sim_tasks.gif
10.3 MB
October 5, 2021
October 5, 2021
🤖 Исследователи из MIT создали роботизированную руку RFusion для поиска потерянных вещей.

Устройство оборудовано радиочастотной антенной и камерой. Оно отслеживает предметы по прикрепленным RFID-меткам и находит их с помощью машинного обучения. Если объект спрятан под грудой вещей, робот уберет их и возьмет необходимое.

💬 По словам разработчиков, в будущем RFusion сможет использоваться для сортировки заказов, идентификации и установки запчастей или выполнения повседневных задач.

#MIT #роботы
October 5, 2021
⚙️ Clearview AI расширил запас обработанных изображений до более чем 10 млрд и анонсировал новые функции системы распознавания лиц.

Среди них инструменты «деблюринга» и «удаления маски». Первый увеличивает разрешение изображений низкого качества и добавляет к ним дополнительные детали. Второй использует статистические шаблоны с других картинок и дорисовывает скрытые части лица человека.

☝️ Критики заявили, что нововведения не смогут выдать высокую точность предсказания, а также поставят под угрозу права людей. Гендиректор компании в свою очередь отметил, что окончательное решение всегда остается за человеком, а не ИИ.

https://forklog.com/clearview-ai-anonsiroval-funktsiyu-raspoznavaniya-lits-v-maskah/

#ClearviewAI #отслеживание
October 5, 2021
October 5, 2021
October 5, 2021
October 6, 2021
October 6, 2021
📢 Информатор: алгоритмы Facebook провоцируют распространение дезинформации, разжигание ненависти и этническое насилие ради прибыли.

По словам бывшего сотрудника компании Фрэнсис Хоген, руководство техгиганта знает об этом и не предпринимает активных действий из-за высокой вовлеченности пользователей в такой контент, который способствует росту платформы.

Марк Цукерберг ответил, что «информация не соответствует действительности».

🗃 Заявление информатора подтверждают скопированные документы внутреннего исследования Facebook, которые затем были переданы журналистам, регуляторам и Сенату США.

https://forklog.com/informator-facebook-ispolzuet-algoritmy-dlya-razzhiganiya-nenavisti-radi-pribyli/

#Facebook
October 6, 2021
October 6, 2021
👥 Бывшие водители Uber обвинили компанию в использовании «расистской» системы распознавания лиц для идентификации и подали на нее в суд.

По данным Независимого профсоюза работников Великобритании, более 35 таксистов были уволены из-за провалившихся попыток биометрической верификации.

Согласно лицензии агрегатора Uber, данные об идентификации в приложении передаются городскому транспортному регулятору, который может аннулировать водительские права.

🙅‍♂️ Профсоюзы призвали компанию прекратить использование технологии и восстановить отключенных водителей. В Uber обвинения отвергли.

https://forklog.com/byvshie-voditeli-uber-podali-na-kompaniyu-v-sud-iz-za-rasistskoj-sistemy-raspoznavaniya-lits/

#Uber
October 6, 2021
October 6, 2021
October 6, 2021
October 7, 2021