howtocomply_AI: право и ИИ
1.26K subscribers
203 photos
4 videos
6 files
290 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Разбираем китайский стандарт с методиками маркировки синтетического контента

Сегодня наконец-то дошли руки разобрать важный документ, которому, на мой взгляд, уделено неоправданно мало внимания. Также советую изучить картинки к посту — их будет много. Важные моменты я для вас выделил красным.

Итак, в конце февраля этого года китайский орган по стандартизации опубликовал обязательный стандарт, определяющий методы маркировки синтетического контента. Напомню, что ранее в КНР были приняты нормативные правовые акты, устанавливающие требования по маркировке для различных систем ИИ (генеративных систем ИИ, систем глубокого синтеза, рекомендательных алгоритмов). В частности, в марте Cyberspace Administration of China (CAC) приняла финальную версию Мер по маркировке синтетического контента. Таким образом, данный стандарт направлен на разъяснение требований этих мер в практической плоскости.

В данном стандарте на конкретных примерах объясняется, каким образом должны размещаться метки о том, что контент сгенерирован системой ИИ, для разных видов контента.

Всего стандартом определяются два вида маркировки: явная (эксплицитная) и неявная (имплицитная).

Начнем с явной маркировки:

- текст — текстовая вставка "сгенерировано ИИ" или надстрочные буквы “ИИ”;

- изображения — текстовая вставка "сгенерировано или синтезировано ИИ”;

- аудио — голосовая метка или звуковой ритм, размещённые в начале, середине или конце записи. Голосовая метка должна содержать сообщение “сгенерировано или синтезировано ИИ”, а звуковой ритм — последовательность “короткий — длинный — короткий — короткий”, что соответствует "ИИ” в азбуке Морзе;

- видео — текстовая вставка "сгенерировано или синтезировано ИИ”, расположенная на превью видео, в середине или в конце;

- виртуальные сцены — текстовая вставка “сгенерировано или синтезировано ИИ”, размещённая на начальном экране виртуальной сцены, а также в отдельных местах в ходе её демонстрации;

- при взаимодействии с человеком — текстовая вставка “сгенерировано или синтезировано ИИ”, размещённая рядом с текстом, позади текста или постоянно присутствующая в части интерфейса.

Неявная маркировка:

- метаданные — метки должны содержать сведения о генерации и синтезе ИИ, поставщике этой услуги, уникальном номере контента при создании, а также о поставщике и идентификаторе при распространении;

- маркировка в контенте
— вотермарки и иные цифровые идентификаторы.

Документ начнет действовать с 1 сентября 2025 года.

Оригинал документа можно найти по ссылке.
Также в одном из блогов опубликован неофициальный перевод на английский.
🔥72👍1
Подпадают ли ИИ-агенты под Регламент ЕС по ИИ?

Именно таким вопросом задались исследователи из The Future Society в своей статье Ahead of the Curve: Governing AI Agents under the EU AI Act. Давайте разберемся в их основных выводах (будет много Регламента).

- Поставщики моделей ИИ, которые лежат в основе ИИ-агентов, будут подпадать под Регламент ЕС в части требований, предъявляемых к поставщикам моделей ИИ общего назначения (глава V Регламента).

Также авторы считают, что большинство таких моделей также будут относиться к моделям ИИ, представляющим системные риски, что налагает повышенные обязательства на их поставщиков. Также по большей части ИИ-агенты будут квалифицироваться как системы ИИ общего назначения.

Однако открытым вопросом является отнесение ИИ-агентов к системам ИИ повышенного риска. Так, авторы считают, что всё будет зависеть от конкретных юзкейсов, а также от того, ограничил ли поставщик такого ИИ-агента потенциальные сценарии его использования, которые можно было бы отнести к повышенному риску. Также авторы отмечают, что Регламент создавался, когда тренды создания ИИ-агентов не были очевидны, поэтому их распространение может потребовать донастройки регуляторных подходов (в том числе в плане классификации систем и моделей ИИ, а также круга запрещенных практик и систем ИИ повышенного риска).

Странно, что авторы никак не затронули требования по прозрачности (глава IV Регламента), хотя во многих местах отмечается, что способность взаимодействия с физической средой как раз отличает ИИ-агентов 🐱.

- ИИ-агенты также потенциально будут отличаться и по взаимоотношению между субъектами внутри цепочек поставок. Так, авторы отмечают, что по-прежнему сохранится дисбаланс между поставщиками моделей и поставщиками и эксплуатантами систем, так как первые по-прежнему будут обладать моделями и инфраструктурой, на которой они развернуты, включая лучшие кадры. Однако также очевидно, что цепочки поставок ИИ-агентов будут более многослойными и включать большее число последующих поставщиков. Усложнение отношений между ними должно повлечь и увеличение внимания со стороны законодателей.

- Также авторы проанализировали литературу и составили таблицу, в которой они попытались адаптировать требования Регламента к поставщикам моделей ИИ, представляющих системные риски, поставщикам и эксплуатантам систем ИИ повышенного риска применительно к специфике ИИ-агентов.

Саму таблицу вместе с другими полезными материалам я вам прикладываю в скриншотах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍332
Изучаем китайские стандарты по кибербезопасности в сфере ИИ

Делюсь с вами ещё одной порцией важных документов из Китая. К сожалению, не все из них переведены даже на английский. Но мы разберёмся 👀. Так вот, Комитет по стандартизации в сфере информационной безопасности TC260 утвердил весной после публичных обсуждений несколько обязательных стандартов:

Базовые требования безопасности для сервисов генеративного ИИ (есть перевод на английский проекта стандарта)

Документ устанавливает общие требования для всех стадий жизненного цикла систем ИИ, которые должны выполнять все поставщики. Требований довольно много, включая обширные аспекты из менеджмента информационной безопасности, качества, данных. Во многом он является общим и для других двух стандартов, которые направлены на отдельные стадии жизненного цикла.

Из интересного:

- все наборы данных должны проверяться, допускается только не более 5% противоправного и незаконно полученного контента;

- модель должна обеспечивать корректные, безопасные, соответствующие социалистическим ценностям ответы;

- системы ИИ должны демонстрировать для несовершеннолетних контент, направленный на их физическое и психологическое здоровье;

- система должна принимать меры по предотвращению повторного ввода противоправных запросов. Например, пользователя нужно банить, если он ввёл три раза подряд или пять раз за день нарушающий закон или вредный промт;

- число ключевых слов для отбора контента должно быть не менее 10 тыс., причём не менее 100 на каждый из обозначенных в документе рисков;

- поставщики должны создать банк из примерных вопросов для системы ИИ из не менее чем 2000 фраз. При этом не менее 500 из них должны входить в банк запрещённых вопросов. Сюда включены и национальная безопасность, и имидж государства. Мы все с вами помним, на какие вопросы отказывается отвечать DeepSeek. Вот вам и подробное нормативное объяснение, каким образом это работает.

Спецификация по безопасности для аннотирования данных для генеративного ИИ

Из интересного:

- сотрудники, осуществляющие аннотирование данных, должны быть обучены, а их роли чётко распределены, чтобы избегать негативных последствий. Безопасность рабочих мест должна быть обеспечена как с точки зрения информационной безопасности, так и физической;

- на всех этапах аннотирования должно быть обеспечено логирование и отслеживание всех действий и вовлечённых субъектов;

- не менее 3% данных должны быть размечены с целью безопасности. При этом если при проверке окажется, что более 5% данных с такой аннотацией некорректны или содержат опасные элементы, вся партия подлежит аннулированию и переразметке;

- стандарт содержит образцы правильных и неправильных аннотаций, чтобы исключить двусмысленную интерпретацию (например, как корректно отклонять запросы, связанные с нарушением закона).

Спецификация по безопасности для предварительного обучения и дообучения генеративного ИИ

Из интересного:

- стандарт предусматривает выборочную проверку данных на соответствие законодательным требованиям, включая случайную ручную выборку не менее 10% записей для проверки источников данных на наличие незаконной и нежелательной информации во время сбора. Однако это относится к проверке источников данных, а не ко всему объёму данных обучения в целом. При этом установлено, что если в выборке доля незаконной или нежелательной информации превышает 5%, источник данных подлежит исключению;

- если в партии данных содержится информация из зарубежных источников, то в неё должна быть добавлена ещё и разумная доля отечественных;

- необходимо проводить фильтрацию и оценку данных на предмет наличия отравленных данных.

Документы начнут действовать 1 ноября 2025 года.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥44👍31
Forwarded from ИИ & Право
🇫🇷 Франция запускает PANAME: инструменты для аудита конфиденциальности ИИ

Французская CNIL (Национальная комиссия по информатике и свободам) объявила о запуске PANAME (Privacy Auditing of AI Models) — совместной инициативы с другими национальными цифровыми регуляторами и исследовательскими организациями. Цель проекта — разработка инструментов для аудита систем ИИ, обученных на персональных данных, и оценка их способности обеспечивать конфиденциальность. Ожидается, что каталог этих инструментов будет полностью или частично доступен в открытом исходном коде.

Цель проекта - разработать конкретные и проверяемые инструменты оценки рисков конфиденциальности. CNIL предлагает Европе не просто декларировать принципы, а внедрять механизмы их соблюдения.

#ИИ #AICompliance #PrivacyByDesign #CNIL
Обновления по Европейскому Кодексу практик для ИИ общего назначения

Друзья, понимаю, что пятница, но хотелось поделиться с вами свежими новостями. Вчера в AI Office состоялось последнее пленарное заседание, на котором подвели итоги подготовки кодекса и рассказали о дальнейших планах. Если честно, даже буду скучать по заседаниям рабочих групп, но впереди еще много работы 👀. Почитать про то, что это вообще за документ, можно тут.

Так вот, 25 июля будет представлен финальный текст кодекса, после чего документ должен будет рассмотрен Еврокомиссией для утверждения. Скорее всего, его в спешке так или иначе утвердят в августе, так как уже 2 августа начнет действовать глава V Регламента ЕС по ИИ, которая предусматривает требования для поставщиков моделей ИИ общего назначения. А данный кодекс, как я уже отмечал ранее, позиционируется как основной и одобряемый регуляторами способ обеспечить соответствие законодательным требованиям до принятия гармонизованных стандартов.

Относительно содержания финальной версии кодекса новостей пока мало. Однако очевидно, что он будет значительно более мягким, чем предполагалось изначально. Также были удалены все положения, которые выходили за рамки Регламента или плохо стыковались с законодательством ЕС. Мы с вами разберем финальную версию. Постараюсь организовать отдельный вебинар.

Помимо кодекса, AI Office также готовит рекомендации по отдельным актуальным вопросам, связанным с главой V Регламента. По итогам публичных консультаций по проекту рекомендаций стейкхолдерами были внесены следующие ключевые предложения:

- большинство высказалось за необходимость повышения минимального порога компьюта (объем вычислительных мощностей, затраченный на обучение модели ИИ) для определения моделей ИИ общего назначения с 10^22 до 10^23 FLOPs. Таким образом, другие модели ИИ будут выходить за рамки правового регулирования в этой части;

- необходимо более четко определить терминологию, связанную с опенсорс моделями (которые в большинстве случаев исключены из регулирования, за исключением некоторых случаев), чтобы избежать неоднозначных трактовок;

- сделать исключение для субъектов, вносящих несущественные модификации в модели (например, узкоспециализированный файнтюнинг), чтобы они не классифицировались как поставщики согласно законодательству. В качестве планки для отсечения несущественных модификаций предложено использовать 1/3 компьюта, использованного для обучения оригинальной модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥33
Изучаем отчет Калифорнийской рабочей группы о политике в сфере передовых моделей ИИ

Люблю я тему регулирования в сфере передового ИИ, поэтому не мог пройти мимо отчета, подготовленного рабочей группой из очень известных специалистов из Стэнфорда, Беркли и Фонда Карнеги при непосредственной работе совместно с губернатором Калифорнии. Кстати, многие специалисты, особенно из Stanford HAI, также принимали активное участие в создании Европейского Кодекса практик для ИИ общего назначения.

Почему понадобился данный отчет?

В прошлом году законодательный орган Калифорнии принял резонансный законопроект SB 1047, который был направлен на регулирование в сфере передовых моделей ИИ. Однако губернатор наложил вето на данный законопроект, так как, по его мнению, документ требует доработки, поскольку неоправданно сужает предмет регулирования за счет смещения фокуса со всех систем и моделей ИИ на наиболее продвинутые, которыми обладают лишь малое число компаний. Таким образом, данный отчет направлен в том числе и на проработку подходов будущего законодательного регулирования.

Что интересного?

Исследование вышло довольно большим и фундаментальным. Если вы интересуетесь теоретической стороной ИИ-регулирования, то настоятельно советую ознакомиться полностью.

Кратко пробежимся по основным тезисам:

- на ранних этапах возникновения новой отрасли очень важны первые шаги регуляторов, которые во многом в дальнейшем определяют пути ее развития. Крайне важно, чтобы действия регулятора были обдуманными и своевременными. В противном случае такая “родовая травма” будет сказываться на развитии отрасли и обществе в целом еще на протяжении десятилетий. В подтверждение своей точки зрения авторы проводят интересные параллели с развитием интернета, разных опасных товаров (табака, отдельных лекарств) и энергетики.

- при формировании регуляторного подхода в стремительно развивающихся новых сферах важно не только концентрироваться на рисках и негативных последствиях, но и использовать другие методы, такие как моделирование, симуляции, сопоставление исторических прецедентов, состязательные тестирования.

- важнейшими элементами в правовом регулировании должны стать требования о прозрачности и информировании об инцидентах. Именно это позволит постепенно собирать информацию для регуляторов, чтобы нормативные решения были адекватны реальности.

- использование объема вычислительных мощностей, использованных для обучения моделей ИИ, в качестве порогового значения для нормативного регулирования является оправданным (так как его можно измерить), однако такая метрика не может быть единственной. Помимо этого также необходимо учитывать размер компании-поставщика, ее влияние на рынок, потенциальные риски.
71
Еврокомиссия опубликовала финальную версию Кодекса практик для ИИ общего назначения

Друзья, Еврокомиссия поднажала и выложила в четверг финальную версию кодекса раньше обещанного, чему мы только рады. Неофициальная веб-версия — тут, сайт Еврокомиссии — тут.

Для чего он вообще нужен?

Я уже писал про него неоднократно, но кратко напомню, так как прошло довольно много времени.

Глава V Регламента ЕС по ИИ устанавливает требования для поставщиков моделей ИИ общего назначения. Да-да, это те самые Anthropic, OpenAI, Google, Mistral, DeepSeek и другие.

Сами по себе эти требования довольно абстрактные, поэтому предполагается, что в дальнейшем они будут дополнены гармонизованными стандартами, соблюдение которых будет приравниваться к полному комплаенсу. Однако требования начинают действовать уже со 2 августа 2025 года, а стандарты ещё даже не начали разрабатываться. Ой, а что теперь делать...

Вот для этого и было задумано разработать в тесном сотрудничестве с индустрией добровольный кодекс практик, на основе которого потом и будут разработаны стандарты.

Соответственно, тем, кто добровольно присоединяется к кодексу, это засчитывается как полное соответствие требованиям закона. Встать именно на такой путь законодатели крайне рекомендуют поставщикам моделей ИИ, которые хотят выводить их на рынок ЕС. Можно также отказаться и начать соблюдать закон напрямую, но всё нужно будет изобретать самостоятельно. Поэтому кодекс подаётся как инструмент, который позволит упростить комплаенс и снизить косты.

Что мы имеем в итоге?

К лету документ несколько похудел и лишился отдельных положений. Также он стал явно более нейтральным и менее требовательным к поставщикам моделей ИИ, чему последние, думаю, рады и приложили для этого немало усилий.

Также заметно усилилась вариативность: по ряду положений поставщикам теперь даётся либо рекомендация, либо выбор способа соответствия вместо жёсткого требования. Хотя, мне кажется, кодекс как раз и затевался для того, чтобы сформулировать понятные критерии и избежать двусмысленности. Но авторы и сами это понимают и попросили не судить их строго, так как документ является первым в своём роде.

Кодекс состоит из трёх частей:


- Transparency

- Copyright

- Safety and Security

Интересно, что теперь нет как таковой общей преамбулы, и авторство также разбито по частям. Львиную долю кодекса теперь составляет именно последняя часть — Safety and Security, состоящая из 50 страниц. Остальные структурные единицы были заметно сокращены.

Что дальше?

В течение следующих нескольких недель государства-члены ЕС и Еврокомиссия должны рассмотреть кодекс и принять по нему окончательное решение, чтобы придать документу официальную силу.

Кроме того, в июле Еврокомиссия обещает ещё опубликовать в дополнение к кодексу свои собственные рекомендации, которые должны ответить на вопросы о классификации моделей ИИ.

Что будем делать мы?

Отдыхать! А на следующей неделе выложу подробный обзор документа 👀.
Please open Telegram to view this post
VIEW IN TELEGRAM
95
Разбираем Европейский Кодекс практик для ИИ общего назначения ч. 1

Друзья, начинаем разбирать финальную версию кодекса. Его первая часть посвящена разъяснению требований к поставщикам моделей ИИ общего назначения, которые содержатся в пунктах a и b части 1 статьи 73 Регламента ЕС по ИИ и корреспондирующих им приложениях XI и XII.

Если обобщить кратко, то эти пункты направлены на то, чтобы обеспечить требования к документации, которую поставщики должны предоставлять для органов власти и других субъектов внутри цепочек поставок.

Для выполнения этих требований кодекс ожидает от поставщиков следующее:

- необходимо разработать и своевременно обновлять документацию модели ИИ. Примерное её содержание закреплено в самом кодексе в виде типовой формы. Я вам приложу её на скриншотах. Важно отметить, что в случае обновления модели документация всё равно должна сохраняться на все версии в течение 10 лет.

- при выводе модели ИИ на рынок ЕС поставщику необходимо разместить на сайте (или иным способом) контактную информацию, с помощью которой компетентные органы и последующие поставщики могут запросить необходимую им документацию. Особенно это касается отдельных запросов AI Office, касающихся предоставления необходимой информации о модели ИИ в том случае, если на её основе была создана система ИИ повышенного риска.

- помимо типовой формы документации, поставщики моделей ИИ должны предоставлять последующим поставщикам (downstream providers) по запросу иную информацию, которая позволит им, с одной стороны, лучше понимать особенности, возможности и ограничения работы модели ИИ для того, чтобы безопасно встраивать её в свои продукты, а с другой — надлежащим образом выполнять требования, возложенные на них Регламентом как на поставщиков систем ИИ. Важно отметить, что кодекс призывает поставщиков отвечать на такие запросы в разумный срок, но не более 14 дней.

- поставщикам моделей ИИ предлагается также в добровольном порядке разместить более подробную информацию о моделях в общий доступ, чтобы обеспечить прозрачность. Несмотря на дискуссии, в итоге было принято решение отказаться от обязательных требований по раскрытию информации, хотя агрегированная информация о методах тестирования и оценки была бы не лишней. Тем более что американские компании и так публиковали эту информацию в системных и модельных карточках после неформальных договорённостей с предыдущей администрацией. Но времена поменялись 🐱.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1031