HCAI // Регулирование ИИ
1.32K subscribers
196 photos
1 video
14 files
453 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.

Для связи: @ssobiit
Download Telegram
📱 OpenAI поделилась их подходом к созданию безопасного AGI

«Миссия OpenAI — обеспечить, чтобы общий искусственный интеллект (AGI) приносил пользу всему человечеству».


По мнению компании реализация потенциала AGI требует работы по снижению возможных рисков в соответствии с человеческими ценностями и под человеческим контролем.

На основе существующих ИИ-систем OpenAI видит три основных риска развития AGI:
🔸 злоупотребление со стороны людей (нарушение законов, политическая цензура, мошенничество…)
🔸 «несогласованность ИИ» (чем мощнее ИИ, тем больше масштаб возможных неожиданных негативных последствий)
🔸 социальные потрясения (неравный доступ к AGI может вызвать рост напряженности в обществе)

OpenAI ищет баланс между развитием инноваций и безопасностью моделей в рамках их Preparedness Framework, поэтому предлагает следующие методы смягчения рисков:
1️⃣мониторинг и оценка рисков как до, так и после выпуска моделей
2️⃣тестирование моделей в безопасных средах перед их развертыванием
3️⃣поэтапный выпуск, который даёт возможность обществу адаптироваться к возможностям ИИ
4️⃣внешний ред-тиминг
5️⃣публикация исследований и методик по безопасности ИИ
6️⃣сотрудничество с государственными институтами и регуляторами

❗️Ранее OpenAI представляла развитие AGI как дискретный момент, когда ИИ-системы перейдут от решения простых задач к изменению мира. Сейчас компания рассматривает первый AGI как один из этапов в серии всё более полезных систем и придерживается принципа итеративного развертывания моделей.

#AI #Safety #AGI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥5👏31🌚1