HCAI // Регулирование ИИ
1.03K subscribers
74 photos
14 files
262 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
🇨🇳 В Китае модели ИИ будут проверять на соответствие социалистическим ценностям

Администрация киберпространства Китая (Cyberspace Administration of China (CAC)) выпустила руководящие принципы, которые предписывают компаниям, создающим передовые ИИ-технологии, фильтровать запросы по тысячам чувствительных слов для соответствия основным социалистическим ценностям.

Процесс аудита системы ИИ может занимать несколько месяцев и включает в себя:
↖️ тестирование больших языковых моделей на корректность ответов на политические вопросы
🔍 анализ данных, используемых для обучения ИИ
📄 проверка соответствия протоколов безопасности общепринятым стандартам

Соблюдение таких требований отражается и на пользовательском опыте:
➡️ модели генеративного ИИ отклоняют все запросы, связанные с историческими чувствительными событиями или юмористическими сравнениями государственных должностных лиц Китая.

Что касается менее чувствительных тем, то разработчикам предлагается интегрировать дополнительный уровень фильтрации, который позволяет заменять спорные ответы более безопасными альтернативами.

📱 Согласно исследованию Университета Фудань больше всех установленным требованиям безопасности соответствует модель от ByteDance. Ее уровень соответствия 66,4%.

❗️Таким образом, Китай еще раз подчеркнул свою приверженность к разработке систем ИИ, соответствующих как нормативно-правовым требованиям, так и стратегическим национальным интересам.

#AI #China #GenAI #AIRegulation
Please open Telegram to view this post
VIEW IN TELEGRAM
🇸🇬 Сингапур опубликовал доклад о синтетических данных

15 июля 2024 года Комиссия по защите персональных данных Сингапура (PDPC) опубликовала доклад «Privacy enhancing technology» (PET) - руководство по созданию синтетических данных.

Использование синтетических данных снижает потребность в сборе и обработке реальных данных (в т.ч. персональных или коммерчески чувствительных), что особенно важно в ситуациях, когда сбор таких видов данных ограничен законодательством.

Руководство определяет набор инструментов и методов, которые позволяют обрабатывать, анализировать и извлекать информацию без раскрытия конфиденциальных категорий данных.

Руководство классифицирует методы по трем категориям:
1️⃣маскировка данных*
2️⃣обработка зашифрованных данных
3️⃣федеративное обучение**

⚡️В Руководстве также предлагаются наилучшие практики генерации синтетических данных, которые особенно полезны при создании датасетов для обучения ИИ.

❗️Кроме того, в руководстве подробно изложены кейсы использования синтетических данных, которые позволяют повысить качество работы систем ИИ, при этом не нарушая законодательство.
💸Например, синтетические данные можно использовать для обучения моделей ИИ, направленных на обнаружение мошенничества в финансовом секторе.


*Маскировка (обфускация) данных — способ защиты конфиденциальной информации от несанкционированного доступа путём замены исходных данных фиктивными данными или произвольными символами.

**Федеративное обучение — это методика заключения модели в защищенную среду и ее обучение без перемещения данных куда-либо.


#AI #Singapore #SyntheticData
Please open Telegram to view this post
VIEW IN TELEGRAM