HCAI // Регулирование ИИ
1.32K subscribers
194 photos
1 video
14 files
451 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.

Для связи: @ssobiit
Download Telegram
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям

Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.

Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам

Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.

Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.

📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.

❗️Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.

#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥5👎2
🤝 OpenAI и Condé Nast заключили соглашение о многолетнем партнерстве

20 августа OpenAI объявила о начале сотрудничества с крупным новостным медиахолдингом Condé Nast. В рамках данного соглашения OpenAI интегрирует контент Vogue, The New Yorker, GQ, Vanity Fair и других изданий в ChatGPT и SearchGPT (поисковая система на базе ИИ).

Согласно заявлениям представителей компаний все стороны сделки получат преимущества:
📱 OpenAI получит на законных основаниях дополнительный материал для обучения своих моделей
📝 Condé Nast сможет компенсировать часть потерянных доходов из-за конкуренции с соцсетями и другими цифровыми платформами
👥 у пользователей появится возможность получать своевременные ответы с релевантными новостными источниками с помощью новой функции поиска

Стоит отметить, что OpenAI уже имеет аналогичные соглашения с Associated Press, Financial Times, NewsCorp, TIME, Vox Media и другими медиакомпаниями.

#AI #GenAI #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥7👍43🔥1👌1
📱 Чат-бот Grok от xAI вызвал неоднозначные реакции пользователей из-за генерации неэтичных изображений

На прошлой неделе xAI предоставил доступ к новой функции своего чат-бота Grok: создание изображений на основе текстового запроса (text-to-image).

Если спросить у чат-бота какие ограничения он имеет, то Grok ответит, что не может генерировать:
🙅‍♂️ чрезмерно жестокие изображения
🙅‍♂️ изображения, пропагандирующие незаконные и опасные действия
🙅‍♂️ изображения, которые могут нарушить чьи-либо исключительные права на результаты интеллектуальной деятельности
🙅‍♂️ изображения, способные ввести людей в заблуждение

Однако, как делятся пользователи, не все эти правила действительно работают. Например, Grok сгенерировал изображения по следующим промптам:
🟥 «Дональд Трамп в нацистской форме»
🟥 «Билл Гейтс нюхает кокаин со стола с логотипом Microsoft»
🟥 «Барак Обама ударил ножом Джо Байдена»

Также пользователи X жалуются, что минимальную существующую цензуру легко обойти путем незначительного изменения промпта.

Такой подход xAI к стандартам разработки и использования генеративного ИИ не остается незамеченным для регуляторов.
🇪🇺 Европейская комиссия уже расследует X на предмет потенциальных нарушений Закона о цифровых услугах (Digital Services Act (DSA)): в апреле этого года она запросила у компании информацию о принимаемых мерах по снижению рисков, связанных с ГенИИ.

#AI #GenAI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥6👍3🤔31🔥1
📱 OpenAI пересмотрела политику модерации контента в своих ИИ-моделях

12 февраля компания опубликовала обновленную версию Model Spec - документа, определяющего, как должны вести себя ИИ-модели OpenAI.

Одна из целей обновления – поиск баланса между:
🔵пониманием позиции пользователя и стремлением к объективности и готовностью исследовать любую тему с разных точек зрения,
🔵излишней предосторожностью в обеспечении безопасности пользователя и недопущением злоупотребления возможностями модели.

Основные изменения:
1️⃣Запрет на ложь и манипуляции контекстом.
Представлен новый ключевой принцип: «Не лгать — ни путем предоставления ложных сведений, ни путем умышленного сокрытия важного контекста».

2️⃣«Поддержка интеллектуальной свободы».
Модель теперь поощряет обсуждение сложных или спорных тем, выводя из зацензурированных тематик политические и социально-чувствительные темы.

3️⃣Запрет на навязывание позиции – повышение нейтральности.
Модель будет представлять множественные точки зрения на спорные темы вместо того, чтобы занимать позицию, соответствующую определенной идеологии или моральным установкам.

4️⃣Обработка контента 18+.
OpenAI изучает способы разрешения «режима для взрослых», но при этом строго запрещая вредоносный контент (например, педофилию, «revenged porn» или дипфейки).

5️⃣Борьба с чрезмерным «поддакиванием».
Модели теперь настроены на предоставление честной обратной связи и конструктивной критики. Раньше ИИ безоговорочно поддерживал пользователя, даже если его утверждения неверны.

6️⃣Четкая иерархия инструкций.
Введена «цепочка командования», определяющая приоритетность инструкций от платформы (OpenAI), разработчиков по API и пользователей. Какие-то аспекты поведения ИИ могут быть настроены, а какие-то остаются неизменными для обеспечения безопасности и этичности. Модель не должна позволять командам более низкого уровня влиять на интерпретацию правил, установленных на более высоком уровне.

7️⃣Удаление предупреждений о нарушениях политики.
Ранее ChatGPT выдавал пользователям сообщения о нарушении ими политики компании. OpenAI убрала эти предупреждения, чтобы сделать взаимодействие с ИИ менее ощущаемым как «цензурированное».

📎 OpenAI также поделилась ссылкой на репозиторий на GitHub с промптами, по которым компания тестировала модель.

#AI #GenAI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6🙏531🌚1
🇪🇺 Исследование EUIPO по авторскому праву и генеративному ИИ в Евросоюзе

Европейское ведомство интеллектуальной собственности (EUIPO) представило исследование о взаимодействии технологий генеративного ИИ с авторским правом.

🔍 Основные выводы исследования:

1️⃣ Доступ к качественному контенту – основа для обучения GenAI
Модели ИИ требуют большого объёма данных для обучения, что стимулирует формирование рынка лицензирования контента.

2️⃣ Механизмы защиты авторских прав в процессе обучения ИИ
🔵На этапе ввода данных правообладатели могут использовать опт-аут (технический или юридический запрет на использование данных), чтобы исключить свои данные из процесса парсинга (text and data mining).
🔵На этапе вывода данных стоит указывать, что контент был сгенерирован ИИ.

3️⃣ Роль государственных институтов
Национальные IP-ведомства и EUIPO могут:
🔵Обеспечивать техническую поддержку для реализации правовых механизмов;
🔵Содействовать прозрачности использования ИИ;
🔵Повышать осведомлённость о способах защиты авторских прав и предоставлять актуальную информацию о новых решениях.

⚙️ В докладе также изучены некоторые технические решения для защиты авторских прав:
1️⃣TDM Reservation Protocols – протоколы, позволяющие правообладателям автоматически отказаться от использования их данных в обучении ИИ.
2️⃣Content Authenticity Initiatives – меры по проверке и маркировке контента, созданного ИИ.
3️⃣Valuenode и Liccium Trust Engine – платформы для управления авторскими правами в условиях цифровой трансформации.

👍 Более того, в рамках Стратегического плана 2030 EUIPO планирует запустить к концу 2025 года Центр знаний по авторскому праву для содействия обмену информацией между правообладателями, разработчиками ИИ и регуляторами и развитию механизмов лицензирования и защиты интеллектуальной собственности.

#AI #Regulation #Copyright #IP #GenAI #EUIPO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84🙏3