🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам
Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.
❗️ Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.
#AI #China #GenAI #AIRegulation
Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.
Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
Соблюдение таких требований отражается и на пользовательском опыте:
Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.
#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇸🇬 Сингапур опубликовал доклад о синтетических данных
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
1️⃣ маскировка данных*
2️⃣ обработка зашифрованных данных
3️⃣ федеративное обучение**
⚡️ В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.
❗️ Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸 Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.
Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.
Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.
Руководство классифицирует методы по трем категориям:
*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.
**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.
#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM