Новые стандарты безопасности ИИ в Китае
Привет, сообщество ИИ & Право! 11 октября Национальный технический комитет по стандартизации информационной безопасности Китая опубликовал проект документа, в котором изложены четкие правила оценки генеративных моделей ИИ.
В этом предложении по стандартам изложены строгие критерии оценки источников данных ИИ и их содержания. В документе рассматриваются такие темы, как разнообразие обучающих данных, модерация и запрещенный контент. В нем подчеркивается необходимость диверсификации обучающих корпораций и оценки качества данных.
Кроме того, предлагается нанимать модераторов для повышения качества генерируемого контента в соответствии с национальной политикой и жалобами третьих сторон. Это означает потенциальное расширение штата модераторов и цензоров ИИ, управляемых людьми.
Перед компаниями стоит задача определить сотни ключевых слов для пометки небезопасного или запрещенного контента, с отдельными категориями для политического и дискриминационного контента. Интересно, что в документе поощряются более тонкие меры цензуры, например, отказ от ответа на чувствительные запросы, но разрешение моделям ИИ отвечать на конкретные, нечувствительные запросы.
Важно уточнить, что данные стандарты не являются законами, и их несоблюдение пока не влечет за собой штрафных санкций. Однако подобные предложения могут существенно повлиять на будущие нормативные акты или работать параллельно с ними. В разработке стандартов принимают участие технологические эксперты, нанятые компаниями, что позволяет таким корпорациям, как Huawei, Alibaba и Tencent, участвовать в формировании этих норм. Их влияние может иметь далеко идущие последствия для глобальной индустрии ИИ и способов регулирования технологий ИИ во всем мире.
#AISafety #AIRegulations #GenerativeAI #ContentModeration #ChineseTech #AIInfluence #GlobalAI
Привет, сообщество ИИ & Право! 11 октября Национальный технический комитет по стандартизации информационной безопасности Китая опубликовал проект документа, в котором изложены четкие правила оценки генеративных моделей ИИ.
В этом предложении по стандартам изложены строгие критерии оценки источников данных ИИ и их содержания. В документе рассматриваются такие темы, как разнообразие обучающих данных, модерация и запрещенный контент. В нем подчеркивается необходимость диверсификации обучающих корпораций и оценки качества данных.
Кроме того, предлагается нанимать модераторов для повышения качества генерируемого контента в соответствии с национальной политикой и жалобами третьих сторон. Это означает потенциальное расширение штата модераторов и цензоров ИИ, управляемых людьми.
Перед компаниями стоит задача определить сотни ключевых слов для пометки небезопасного или запрещенного контента, с отдельными категориями для политического и дискриминационного контента. Интересно, что в документе поощряются более тонкие меры цензуры, например, отказ от ответа на чувствительные запросы, но разрешение моделям ИИ отвечать на конкретные, нечувствительные запросы.
Важно уточнить, что данные стандарты не являются законами, и их несоблюдение пока не влечет за собой штрафных санкций. Однако подобные предложения могут существенно повлиять на будущие нормативные акты или работать параллельно с ними. В разработке стандартов принимают участие технологические эксперты, нанятые компаниями, что позволяет таким корпорациям, как Huawei, Alibaba и Tencent, участвовать в формировании этих норм. Их влияние может иметь далеко идущие последствия для глобальной индустрии ИИ и способов регулирования технологий ИИ во всем мире.
#AISafety #AIRegulations #GenerativeAI #ContentModeration #ChineseTech #AIInfluence #GlobalAI
MIT Technology Review
China has a new plan for judging the safety of generative AI—and it’s packed with details
A new proposal spells out the very specific ways companies should evaluate AI security and enforce censorship in AI models.