HCAI // Регулирование ИИ
1.32K subscribers
194 photos
1 video
14 files
451 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.

Для связи: @ssobiit
Download Telegram
📱 Новые судебные разбирательства против OpenAI

В ноябре 2024 года несколько компаний подали в суд на OpenAI, обвиняя компанию в использовании новостного контента для обучения ChatGPT.

🇨🇦 29 ноября канадские новостные издатели, включая The Canadian Press, Torstar, Globe and Mail и другие.

🇮🇳 18 ноября аналогичный иск в Высокий суд Дели подало крупное индийское информационное агентство Asian News International (ANI).

💬 Адвокат ANI Сидхант Кумар заявил, что публичная доступность контента не дает права на его эксплуатацию. ANI также выразило особое беспокойство из-за того, что ChatGPT приписывает агентству вымышленные интервью, включая несуществующий разговор с Рахулом Ганди, лидером оппозиционной партии в Индии.

Представитель OpenAI прокомментировал ситуацию следующим образом:
«Мы активно взаимодействуем с новостными организациями по всему миру, включая Индию, чтобы искать возможности для сотрудничества, учитывать их обратную связь и работать совместно».
Следующее заседание назначено на январь - суд планирует привлечь независимого эксперта для оценки влияния генеративных моделей ИИ на вопросы авторских прав при использовании общедоступного контента.

🇩🇪 13 ноября GEMA (немецкая организация по коллективному управления авторскими правами) подала иск в Окружной суд Мюнхена.

В сентябре 2024 года GEMA представила свою лицензионную модель для генеративного ИИ и уведомила операторов моделей ИИ о необходимости получения лицензий для законного использования музыкальных произведений их авторов.

⚡️ Стоит отметить, что некоторые представители медиа предпочли сотрудничать, а не бороться с OpenAI.
Например, OpenAI уже заключила лицензионный договор с Hearst, медиаконгломератом, стоящим за такими изданиями, как Houston Chronicle, San Francisco Chronicle, Esquire, Cosmopolitan, Elle и другими.

Для OpenAI это не первая подобная сделка. В мае компания объявила о партнерстве с News Corp., в июне – с Time, а в августе – с Condé Nast.

❗️Технологические компании уже предпринимают значительные усилия для обеспечения прозрачности и безопасности своих продуктов. Искусственный интеллект — это крайне сложная технология, развитие которой сопряжено с множеством вызовов, включая сложности с предоставлением ссылок на конкретные источники информации, а также так называемые "галлюцинации". Это связано как с масштабом данных, так и с особенностями алгоритмов обработки.

Более того, крупные компании-разработчики задают тренды. Практика заключения лицензионных соглашений с правообладателями может оказаться чрезмерно обременительной для средних и малых организаций. Они не всегда обладают ресурсами для соблюдения сложных юридических процедур и финансовых обязательств, что может затормозить инновации и усилить монополизацию отрасли.

#AI #Copyright #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥2
📱 OpenAI пересмотрела политику модерации контента в своих ИИ-моделях

12 февраля компания опубликовала обновленную версию Model Spec - документа, определяющего, как должны вести себя ИИ-модели OpenAI.

Одна из целей обновления – поиск баланса между:
🔵пониманием позиции пользователя и стремлением к объективности и готовностью исследовать любую тему с разных точек зрения,
🔵излишней предосторожностью в обеспечении безопасности пользователя и недопущением злоупотребления возможностями модели.

Основные изменения:
1️⃣Запрет на ложь и манипуляции контекстом.
Представлен новый ключевой принцип: «Не лгать — ни путем предоставления ложных сведений, ни путем умышленного сокрытия важного контекста».

2️⃣«Поддержка интеллектуальной свободы».
Модель теперь поощряет обсуждение сложных или спорных тем, выводя из зацензурированных тематик политические и социально-чувствительные темы.

3️⃣Запрет на навязывание позиции – повышение нейтральности.
Модель будет представлять множественные точки зрения на спорные темы вместо того, чтобы занимать позицию, соответствующую определенной идеологии или моральным установкам.

4️⃣Обработка контента 18+.
OpenAI изучает способы разрешения «режима для взрослых», но при этом строго запрещая вредоносный контент (например, педофилию, «revenged porn» или дипфейки).

5️⃣Борьба с чрезмерным «поддакиванием».
Модели теперь настроены на предоставление честной обратной связи и конструктивной критики. Раньше ИИ безоговорочно поддерживал пользователя, даже если его утверждения неверны.

6️⃣Четкая иерархия инструкций.
Введена «цепочка командования», определяющая приоритетность инструкций от платформы (OpenAI), разработчиков по API и пользователей. Какие-то аспекты поведения ИИ могут быть настроены, а какие-то остаются неизменными для обеспечения безопасности и этичности. Модель не должна позволять командам более низкого уровня влиять на интерпретацию правил, установленных на более высоком уровне.

7️⃣Удаление предупреждений о нарушениях политики.
Ранее ChatGPT выдавал пользователям сообщения о нарушении ими политики компании. OpenAI убрала эти предупреждения, чтобы сделать взаимодействие с ИИ менее ощущаемым как «цензурированное».

📎 OpenAI также поделилась ссылкой на репозиторий на GitHub с промптами, по которым компания тестировала модель.

#AI #GenAI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6🙏531🌚1
📱 OpenAI поделилась их подходом к созданию безопасного AGI

«Миссия OpenAI — обеспечить, чтобы общий искусственный интеллект (AGI) приносил пользу всему человечеству».


По мнению компании реализация потенциала AGI требует работы по снижению возможных рисков в соответствии с человеческими ценностями и под человеческим контролем.

На основе существующих ИИ-систем OpenAI видит три основных риска развития AGI:
🔸 злоупотребление со стороны людей (нарушение законов, политическая цензура, мошенничество…)
🔸 «несогласованность ИИ» (чем мощнее ИИ, тем больше масштаб возможных неожиданных негативных последствий)
🔸 социальные потрясения (неравный доступ к AGI может вызвать рост напряженности в обществе)

OpenAI ищет баланс между развитием инноваций и безопасностью моделей в рамках их Preparedness Framework, поэтому предлагает следующие методы смягчения рисков:
1️⃣мониторинг и оценка рисков как до, так и после выпуска моделей
2️⃣тестирование моделей в безопасных средах перед их развертыванием
3️⃣поэтапный выпуск, который даёт возможность обществу адаптироваться к возможностям ИИ
4️⃣внешний ред-тиминг
5️⃣публикация исследований и методик по безопасности ИИ
6️⃣сотрудничество с государственными институтами и регуляторами

❗️Ранее OpenAI представляла развитие AGI как дискретный момент, когда ИИ-системы перейдут от решения простых задач к изменению мира. Сейчас компания рассматривает первый AGI как один из этапов в серии всё более полезных систем и придерживается принципа итеративного развертывания моделей.

#AI #Safety #AGI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥5👏31🌚1
🇺🇸 Предложения американских компаний для Национального плана действий США в области ИИ

📱 OpenAI представила в Белый дом предложения по разработке AI Action Plan для США. Основной акцент сделан на обеспечении американского лидерства в области ИИ в условиях конкуренции с Китаем, защите национальной безопасности и продвижении принципов «демократического ИИ».

Документ базируется на Economic Blueprint, ранее опубликованном OpenAI, и предлагает комплексный подход в пяти ключевых направлениях.

📈 Обеспечение свободы инноваций:
- установление государственной защиты разработчиков от чрезмерного регулирования, особенно на уровне штатов
- создание добровольного партнерства между федеральным правительством и частным сектором
- развитие «регуляторных песочниц» для стартапов

🔍 Экспортный контроль:
- поддержка «демократических стран» в развитии их ИИ-инфраструктуры
- ограничение использования китайского оборудования (например, чипов Huawei)
- продвижение американских стандартов безопасности ИИ в международных организациях

📝 Авторское право:
- доктрина «fair use» (добросовестное использование) должно защищать разработчиков ИИ, обеспечивая доступ к данным для обучения
- продвижение государственных и публичных датасетов
- мониторинг ограничений доступа к данным в других странах и их влияние на американские компании

⚡️ ИИ-инфраструктура:
- создание фонда госинвестиций в инфраструктуру ИИ (Sovereign Wealth Fund)
- утверждение AI Economic Zones — специальных зон с упрощенными разрешительными процедурами
- оцифровка госданных для расширения доступа разработчиков к информации

⚡️ Внедрение ИИ в государственный сектор:
- ускорение тестирования и пилотных проектов, в том числе с реальными данными
- создание специализированных моделей ИИ для нацбезопасности
- приоритетное финансирование вычислительных мощностей для ИИ-разработок в сфере обороны

📱 Google также представила администрации Трампа свои предложения по новому Национальному плану действий в области США. Компания предлагает сосредоточиться на трех ключевых направлениях:
🔵 больше инвестировать в развитие ИИ
🔵 ускорить и модернизировать внедрение ИИ в государственный сектор
🔵 продвигать проинновационные подходы на международном уровне

Таким образом, американские технологические компании, такие как OpenAI и Google, едины во мнении, что сбалансированное регулирование должно стимулировать инновации, а не ограничивать развитие ИИ. Компании предлагают подход, основанный на ограничении чрезмерного бюрократического вмешательства, в котором правительство создает условия для роста ИИ-индустрии и формирует глобальные стандарты, укрепляя позиции США в технологической гонке.

#AI #Regulation #USA #OpenAI #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍87🔥4🌚1
📱 OpenAI обновила Preparedness Framework

15 апреля OpenAI опубликовала новую версию Preparedness Framework – внутренней системы оценки и управления рисками, связанными с «передовыми» ИИ-моделями. Обновление отражает подготовку к запуску систем нового уровня, которые уже возможно будут способны причинить какой-либо вред — от массовых кибератак до ускоренного биоинжиниринга.

1️⃣ Появилась новая категория рисков.
AI self-improvement - теперь OpenAI отслеживает, может ли модель ускорить собственное развитие или R&D-процессы.

2️⃣ Приведены четкие критерии приоритизации и оценки рисков.
Приоритетными для отслеживания считаются риски, которые являются возможными, измеримыми, серьёзными, новыми по характеру и мгновенными или необратимыми.

3️⃣ Обновлены категории способностей моделей в соответствии с новой приоритизацией рисков.
👀 Отслеживаемые категории — уже зрелые направления, по которым существуют системы оценки и меры защиты: биологические и химические угрозы, кибербезопасность.
🔬 Исследовательские категории — потенциально опасные направления, пока не достигшие уровня отслеживаемых. Среди них полная автономия и ядерная угроза.

4️⃣ Разработка автоматических тестов.
Хотя ручное тестирование не отменено полностью, компания развивает «набор автоматических оценок», которые позволяют сохранить высокую скорость релизов.

5️⃣ Реакция на изменения в ландшафте ИИ.
Если другая лаборатория выпустит высокорисковую модель без достаточных мер защиты, OpenAI может скорректировать свои требования к безопасности. Но при этом:
✔️Должно быть подтверждено изменение ландшафта рисков;
✔️Изменение будет публично признано;
✔️Будет подтверждено, что оно не увеличивает общий риск;
✔️Уровень защиты останется выше базового.

📎 С полным документом можете ознакомиться по ссылке.

#AI #Safety #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍6🔥4🙏1
💻 ChatGPT Agent: что умеет, чем рискует и как защищён

👋 OpenAI представила ChatGPT-агента, который способен самостоятельно выполнять сложные задачи пользователя от начала и до конца: анализировать документы, писать код, работать с файлами, собирать данные в интернете и запускать действия от вашего имени.

🔭 Что умеет ChatGPT Agent?
🔵Подготавливать бриф по вашим встречам
🔵Заказывать ингредиенты для ужина
🔵Делать конкурентный анализ
🔵Редактировать таблицы и составлять финансовые модели
🔵Читать, систематизировать и визуализировать большие объёмы данных
🔵Интегрироваться с Gmail, Google Drive, GitHub и другими сервисами

📇 В основе ChatGPT Agent лежит единая агентная система, сочетающая три ключевые технологии:
1️⃣Возможности Operator по взаимодействию с веб-интерфейсами;
2️⃣Возможности Deep Research по глубокому анализу и синтезу информации;
3️⃣Интеллект и гибкость общения самого ChatGPT.

🔐 Риски и меры защиты
С расширением возможностей увеличиваются и риски. Вот как OpenAI их оценивает и снижает.

🧨 Prompt injection — вредоносные команды в веб-контенте
Агент может наткнуться на скрытые инструкции в коде сайта. OpenAI обучила его:
✔️Игнорировать такие попытки (точность >95%).
✔️Требовать подтверждение от пользователя перед важными действиями (например, перед покупками в Интернете);
✔️При необходимости — автоматически ставить задачу на паузу в режиме наблюдения («Watch mode»).

🧬 Биориски — приоритетная зона контроля
Агент классифицирован как High Biological Capability, даже при отсутствии прямых доказательств вреда.
Это активирует самый жёсткий стек защиты, включая привлечение биоэкспертов и внешних лабораторий.

💳 Финансовые и этические ограничения
ChatGPT Agent отказывается:
От помощи в переводе денег или азартных играх.
От решений, связанных с кредитами, жильём, работой на основе чувствительных данных.
От нарушения конфиденциальности, даже если информация открыта.

🚀OpenAI обещает постепенные улучшения
🔵Регулярное тестирование агента с участием Red Team и экспертов из разных сфер.
🔵Повышение автономности без потери контроля.
🔵 Более качественное создание слайдов и документов.
🔵Расширение инструментов и интеграций.

▶️ ChatGPT Agent доступен в тарифах Pro, Plus и Team и запускается через специальный режим Agent Mode.

#OpenAI #ChatGPT #Agent #Safety #SystemCard
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥1