На саммите по безопасности ИИ в Блетчли (Bletchley AI Safety Summit)
Доклад подготовлен под руководством лауреата премии Тьюринга, компьютерного ученого Йошуа Бенжио, и является результатом работы около
🎯 Цель отчета - предоставить научную информацию, которая поможет в разработке обоснованной политики. В нем не содержится указание на конкретные регуляторные подходы. Отчет призван способствовать конструктивному и основанному на фактических данных обсуждению вопросов, связанных с ИИ общего назначения.
Доклад посвящен трем ключевым вопросам:
Что касается рисков, то доклад выделяет
В докладе также представлены рекомендации по снижению рисков, связанных с ИИ общего назначения. Вот некоторые из них:
#AI #Safety
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8⚡7🔥5❤3🌚2🥰1
«Миссия OpenAI — обеспечить, чтобы общий искусственный интеллект (AGI) приносил пользу всему человечеству».
По мнению компании реализация потенциала AGI требует работы по снижению возможных рисков в соответствии с человеческими ценностями и под человеческим контролем.
На основе существующих ИИ-систем OpenAI видит три основных риска развития AGI:
OpenAI ищет баланс между развитием инноваций и безопасностью моделей в рамках их Preparedness Framework, поэтому предлагает следующие методы смягчения рисков:
#AI #Safety #AGI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥5👏3❤1🌚1
15 апреля OpenAI опубликовала новую версию Preparedness Framework – внутренней системы оценки и управления рисками, связанными с «передовыми» ИИ-моделями. Обновление отражает подготовку к запуску систем нового уровня, которые уже возможно будут способны причинить какой-либо вред — от массовых кибератак до ускоренного биоинжиниринга.
AI self-improvement - теперь OpenAI отслеживает, может ли модель ускорить собственное развитие или R&D-процессы.
Приоритетными для отслеживания считаются риски, которые являются возможными, измеримыми, серьёзными, новыми по характеру и мгновенными или необратимыми.
Хотя ручное тестирование не отменено полностью, компания развивает «набор автоматических оценок», которые позволяют сохранить высокую скорость релизов.
Если другая лаборатория выпустит высокорисковую модель без достаточных мер защиты, OpenAI может скорректировать свои требования к безопасности. Но при этом:
#AI #Safety #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍6🔥4🙏1
С расширением возможностей увеличиваются и риски. Вот как OpenAI их оценивает и снижает.
Агент может наткнуться на скрытые инструкции в коде сайта. OpenAI обучила его:
🧬 Биориски — приоритетная зона контроля
Агент классифицирован как High Biological Capability, даже при отсутствии прямых доказательств вреда.
Это активирует самый жёсткий стек защиты, включая привлечение биоэкспертов и внешних лабораторий.
ChatGPT Agent отказывается:
#OpenAI #ChatGPT #Agent #Safety #SystemCard
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5⚡3🔥1