🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам
Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.
❗️ Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.
#AI #China #GenAI #AIRegulation
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
Соблюдение таких требований отражается и на пользовательском опыте:
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥5👎2
20 августа OpenAI объявила о начале сотрудничества с крупным новостным медиахолдингом Condé Nast. В рамках данного соглашения OpenAI интегрирует контент Vogue, The New Yorker, GQ, Vanity Fair и других изданий в ChatGPT и SearchGPT (поисковая система на базе ИИ).
Согласно заявлениям представителей компаний все стороны сделки получат преимущества:
Стоит отметить, что OpenAI уже имеет аналогичные соглашения с Associated Press, Financial Times, NewsCorp, TIME, Vox Media и другими медиакомпаниями.
#AI #GenAI #CopyrightOffice
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥7👍4❤3🔥1👌1
На прошлой неделе xAI предоставил доступ к новой функции своего чат-бота Grok: создание изображений на основе текстового запроса (text-to-image).
Если спросить у чат-бота какие ограничения он имеет, то Grok ответит, что не может генерировать:
Однако, как делятся пользователи, не все эти правила действительно работают. Например, Grok сгенерировал изображения по следующим промптам:
Также пользователи X жалуются, что минимальную существующую цензуру легко обойти путем незначительного изменения промпта.
Такой подход xAI к стандартам разработки и использования генеративного ИИ не остается незамеченным для регуляторов.
🇪🇺 Европейская комиссия уже расследует X на предмет потенциальных нарушений Закона о цифровых услугах (Digital Services Act (DSA)): в апреле этого года она запросила у компании информацию о принимаемых мерах по снижению рисков, связанных с ГенИИ.
#AI #GenAI #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6👍3🤔3❤1🔥1
12 февраля компания опубликовала обновленную версию Model Spec - документа, определяющего, как должны вести себя ИИ-модели OpenAI.
Одна из целей обновления – поиск баланса между:
Основные изменения:
Представлен новый ключевой принцип: «Не лгать — ни путем предоставления ложных сведений, ни путем умышленного сокрытия важного контекста».
Модель теперь поощряет обсуждение сложных или спорных тем, выводя из зацензурированных тематик политические и социально-чувствительные темы.
Модель будет представлять множественные точки зрения на спорные темы вместо того, чтобы занимать позицию, соответствующую определенной идеологии или моральным установкам.
OpenAI изучает способы разрешения «режима для взрослых», но при этом строго запрещая вредоносный контент (например, педофилию, «revenged porn» или дипфейки).
Модели теперь настроены на предоставление честной обратной связи и конструктивной критики. Раньше ИИ безоговорочно поддерживал пользователя, даже если его утверждения неверны.
Введена «цепочка командования», определяющая приоритетность инструкций от платформы (OpenAI), разработчиков по API и пользователей. Какие-то аспекты поведения ИИ могут быть настроены, а какие-то остаются неизменными для обеспечения безопасности и этичности. Модель не должна позволять командам более низкого уровня влиять на интерпретацию правил, установленных на более высоком уровне.
Ранее ChatGPT выдавал пользователям сообщения о нарушении ими политики компании. OpenAI убрала эти предупреждения, чтобы сделать взаимодействие с ИИ менее ощущаемым как «цензурированное».
#AI #GenAI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6🙏5❤3⚡1🌚1
Европейское ведомство интеллектуальной собственности (EUIPO) представило исследование о взаимодействии технологий генеративного ИИ с авторским правом.
Модели ИИ требуют большого объёма данных для обучения, что стимулирует формирование рынка лицензирования контента.
Национальные IP-ведомства и EUIPO могут:
#AI #Regulation #Copyright #IP #GenAI #EUIPO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4🙏3