howtocomply_AI: право и ИИ
1.05K subscribers
124 photos
4 videos
6 files
227 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников @howtocomply_AI_feedback
Download Telegram
Исследователи из Ada Lovelace Institute опубликовали отчет об оценке фундаментальных моделей ИИ

Группа исследователей из Ada Lovelace Institute подготовила большой отчет, в котором они проанализировали то, насколько эффективны существующие методы оценки фундаментальных моделей ИИ.

Исследование было проведено на основе опроса 16 экспертов, представляющих разработчиков, внешних оценщиков и аудиторов, научные организации и гражданское общество.

Авторы пришли к следующим основным выводам:

1. Существующие методы оценки помогают лучше понимать особенности работы фундаментальных моделей, но недостаточно эффективны для обеспечения безопасности. Авторы выделили три группы проблем проведения оценок моделей: теоретические, социальные, технико-внедренческие. Более подробно проблемы описаны на скриншоте.

2. Для обеспечения безопасности оценки должны сопровождаться другими методами, такими как кодексы практики, отчеты об инцидентах и пост-рыночный мониторинг. В частности, авторы предлагают многослойный подход к AI Governance, в котором уменьшение рисков будет достигаться за счет использования разного набора методов на протяжении всего жизненного цикла моделей ИИ. Интересно, что объясняют они его на примере сыра с дырками: в разных кусочках сыра расположение дырок отличается. Значит, и шанс их совпадения на всем протяжении уменьшается. Подход нельзя назвать новым, но визуализация достойная 🤩.

3. Существующие методы оценки, такие как метод красных команд и бенчмаркинг, также имеют технические и практические ограничения. Например, разработчики могут повлиять на результаты оценки или выбрать только те методы, которые для них наиболее выгодны. То есть нужны единые одобренные госорганами критерии и схемы сертификации.

4. Результаты оценки валидны только для конкретной версии модели. Любые изменения или тонкая настройка могут существенно повлиять на полученные в ходе оценки данные.

5. Оценки моделей не могут происходить в вакууме. Для обеспечения безопасности важно учитывать сценарии, условия и контекст, в которых модель будет использоваться.

В отчете содержится масса иной полезной информации о самих фундаментальных моделях ИИ и рисках их разработки и функционирования. Так что смело можно его начинать читать, даже если нет глубоких знаний предмета. Все изложено очень доступным языком.

Также недавно я разбирал прошлое исследование команды Института о практике реализации внешних независимых аудитов систем ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Маленький праздник для любителей AI Governance

Друзья, сегодня, наконец, вступил в силу Регламент ЕС об ИИ. Это событие многие из нас ждали с далекого 21 апреля 2021 года, когда официально была представлена первая версия текста.

С тех пор документ значительно преобразился. Что-то поменялось в лучшую сторону, а что-то – в худшую. Появились и полностью новые подходы к регулированию. Однако, несомненно, Регламент не стал той самой заветной пилюлей (единым комплексным актом), способной решить все проблемы, связанные с разработкой и применением систем и моделей ИИ. Скорее, он занял место одного из ядер (не забываем, что в ЕС есть масса других актов, связанных с ИИ), вокруг которых в дальнейшем будет выстроена более-менее целостная система правового и технического регулирования.

Во-первых, сам акт предполагает дальнейшую разработку Еврокомиссией ряда разъяснений и имплементационных актов. Например, на днях Европейский AI Office запустил подготовку и обсуждение Кодекса лучших практик для систем и моделей ИИ общего назначения. Проект Кодекса должен быть подготовлен к апрелю 2025 года.

Во-вторых, CEN-CENELEC недавно начал работу над соответствующими техническими стандартами, которые должны быть приняты в ближайшие годы (пока планируется на 2025 год).

В-третьих, предварительная работа по формированию лучших практик и подготовке бизнеса к соблюдению требований Регламента активно идет в рамках AI-Pact (писал об этом тут и тут).

В-четвертых, продолжается работа над другими решениями в сфере создания необходимой инфраструктуры для развития ИИ (писал об этом тут).

В-пятых, был приведен в соответствие с финальным текстом Регламента проект Директивы об ответственности в сфере ИИ (AI Liability Directive). Ждем обновленный текст. Если кто-то увидит раньше, поделитесь.

Напоминаю, что документ начнет применяться не сразу. Недавно детально расписал этот вопрос в своем посте.

Таким образом, развитие ИИ готовит еще много захватывающих загадок для юридических умов 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
Национальный институт стандартов и технологий США (NIST) опубликовал рекомендации для генеративных систем ИИ

В апреле я опубликовал пост о том, что NIST разместил для широкого обсуждения четыре проекта документа, связанных с генеративными системами ИИ. В конце июля два из них были опубликованы в финальной версии.

Оба документа имеют важное значение и определяют шаги по обеспечению безопасности для субъектов, которые разрабатывают и используют системы и модели ИИ. В первую очередь они направлены на модели и системы генеративного ИИ и на модели ИИ двойного назначения.

1. AI RMF Generative AI Profile (NIST AI 600-1)

Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах. Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. Эти риски я раскрывал в предыдущем посте, они не претерпели значительных изменений.

2. Secure Software Development Practices for Generative AI and Dual-Use Foundation Models (NIST SP 800-218A)

Документ призван дополнить Систему безопасной разработки программного обеспечения (Secure Software Development Framework (SSDF) Version 1.1: Recommendations for Mitigating the Risk of Software Vulnerabilities (NIST SP 800-218)) в отношении особенностей, связанных с системами и моделями генеративного ИИ и моделями ИИ двойного назначения.

Особое внимание следует уделить вторым частям обоих документов, в которых содержатся рекомендации по осуществлению конкретных действий по управлению рисками и обеспечению безопасности разработки и применения. Если вам уже сейчас нужно предпринимать шаги по обеспечению безопасности продуктов, но вы не знаете, каким образом это делать в отсутствии нормальных законодательных требований, то рекомендую ознакомиться с содержанием новых документов, даже если вы не собираетесь работать с данной юрисдикцией.

Бонусом еще одна интересная новость из США: Сэм Альтман в своем твитте подчеркнул, что OpenAI сейчас работает над соглашением с US AI Safety Institute (функционирует в структуре NIST) о предоставлении раннего доступа к своим передовым фундаментальным моделям для проведения проверок на их безопасность.

Таким образом, мы продолжаем прослеживать тренд на постепенное установление требований о проведении внешних оценок передовых моделей государственными органами или независимыми организациями.
OpenAI собирается выполнять требования Регламента ЕС об ИИ

На сайте компании появился пост, в котором кратко изложены основные требования Регламента ЕС об ИИ. Можно ознакомиться, если еще не успели. Но лучше, конечно, прочитать акт целиком.

Однако нам сейчас интересен последний абзац поста: в нем говорится, что компания планирует соблюдать требования акта, активно работать над этим напрямую с Европейским AI Office, а также в ближайшее время начнет готовить техническую и иную документацию к своим моделям ИИ общего назначения для ее передачи другим субъектам в цепочке поставки (поставщикам, эксплуатантам, пользователям).

Видимо, юристы компании наконец внимательно изучили акт и поняли, что все на самом деле не так страшно, как это казалось со стороны. Хотя ранее Сэм Альтман, бывало, высказывался, что компания раздумывает уйти с европейского рынка из-за чрезмерно сурового законодательства.

Интересно, что несколькими неделями ранее Ян Лекун (вице-президент и ведущий исследователь ИИ в Meta (запрещена и признана экстремистской в РФ)) в своем посте в LinkedIn, наоборот, указал, что компания не будет выходить на рынок ЕС с мультимодальными версиями Llama-3 из-за «непредсказуемости нормативно-правовой базы». На что, естественно, получил волну критики со стороны юридической публики в комментариях. Ждем, когда разберутся и передумают 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
Американский Copyright Office уверен в необходимости законодательной защиты от дипфейков

У нас сегодня снова новость из США. Американский Copyright Office выпустил первую часть отчета об авторском праве и ИИ, в которой детально рассматривается текущее состояние регулирования отношений вокруг дипфейков и формулируются предложения для законодателей.

Как и многие предыдущие рассмотренные нами инициативы, данный отчет направлен на реализацию прошлогоднего Указа Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).

Документ состоит из двух основных частей:

1. Меры по противодействию дипфейкам

Copyright Office видит недостаточность текущего регулирования для защиты прав человека и предлагает законодателям принять отдельный нормативный правовой акт.

Кратко рассмотрим основные идеи:

- Закон должен быть направлен на неразрешенное создание дипфейков, которые трудно отличимы от реальных изображений. В нем не должны затрагиваться более широкие вопросы защиты чести и достоинства.

- Закон должен распространяться на неограниченный круг субъектов, а не только защищать права политиков, знаменитостей или каких-то других отдельных групп.

- Предлагается ограничить срок защиты прав человека его жизнью. Посмертная защита может быть установлена на четко определенный срок в отдельных случаях.

- Ответственность должна возлагаться за распространение дипфейков, а не за сам факт их создания.

- Поставщики цифровых услуг должны освобождаться от ответственности, если вовремя удалили контент по запросу.

- Люди должны иметь законодательный механизм по законному предоставлению своего облика для копирования на основе лицензии.

- В законе должно быть прямо указано, что модерация контента не должна нарушать свободу слова в контексте Первой поправки к Конституции США.

- Должны быть установлены эффективные защитные меры: от штрафов до уголовной ответственности в отдельных случаях.

- Федеральный закон должен устанавливать минимальный уровень защиты прав человека, но не направлен на пересмотр опережающего регулирования штатов.

2. Меры по защите авторского стиля

Несмотря на то, что данный вопрос уже давно находится в центре обсуждений, Copyright Office счел, что какие-либо новые законодательные меры пока преждевременны. Существующее законодательство на текущей стадии способно защищать интересы всех субъектов.

Напомню, что в Конгресс за последний год уже были внесены ряд схожих по смыслу проектов, но ни один из них не стал успешным. Так что ждем новые инициативы от законодателей или переработку текущих.
Друзья, мой канал попал в подборку от Private Law Library, благодаря чему о нем узнало много новых людей. Кроме меня в нее вошел еще солидный список ученых и преподавателей в сфере юриспруденции, которые ведут свои личные каналы.

Посмотрите, возможно, вы тоже найдете для себя что-то интересное, о существовании чего раньше даже не предполагали.

А коллегам от меня большое уважение за то, что делают знания более доступными.

От себя хочу поприветствовать всех, кто к нам недавно присоединился. Здесь мы скурпулезно разбираем самые важные новости и научные работы в сфере AI Governance. Иногда посты бавают довольно большими, но скучно точно не будет.

Подробнее обо мне можно почитать наверху в закрепленном посте. В ближайшее время я попробую собрать все хайлайты канала и поделюсь ими в отдельном посте 🐱.

В качестве бонуса делюсь ссылкой на источник мема. Там есть еще!
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI опубликовала карточку с характеристиками новой модели GPT-4o

В мае OpenAI выпустила новую единую мультимодальную модель ИИ – GPT-4o (omni), которая способна одновременно работать с речью, тестом и изображениями. Таким образом, компания сделала шаг в сторону создания персонального ассистента на основе своего чат-бота ChatGPT.

На прошлой неделе OpenAI выпустила и карточку новой модели. В последние годы карточки моделей и систем ИИ стали достаточно популярными, так как позволяют раскрывать для общественности их отдельные технические особенности и объяснить, какие шаги по обеспечению безопасности их функционирования были предприняты при разработке (как-нибудь сделаю про карточки отдельный пост).

Интересно, что в самом тексте документа указывается, что компания его подготовила и опубликовала в связи с принятыми на себя добровольными обязательствами после прошлогодней встречи в Белом доме (писал об этом тут).

В карточке содержится много информации о методах тестирования и оценки модели на предмет разнообразных рисков. Остановимся на отдельных интересных для нас моментах:

1. Чтобы избежать проблем с использованием реальных человеческих голосов и создания голосовых дипфейков, компания заранее позаботилась и утвердила несколько вариантов голосов, созданных с участием актеров озвучки (подробнее про это можно почитать в посте OpenAI). С помощью разных методов выходные данные фильтруются на соответствие утвержденным голосам, что должно позволить избежать случайного синтезирования аналогичного человеку голоса. Также модель блокирует запросы пользователей подобного содержания. Тем не менее вопрос клонирования голосов и отказоустойчивости, особенно в отличных от английского языках, все еще является предметом изучения.

2. Модель обучена отказывать на запросы об идентификации человека по голосу, за исключением определения авторов известных цитат.

3. Модель обучена отказывать в работе с контентом, защищенным авторским правом. Например, модель должна фильтровать запросы с музыкой, а в продвинутом голосовом режиме вообще отказываться петь. Хотя, конечно, сложно представить, что эту проблему вообще можно полностью решить учетом особенностей архитектуры современных моделей ИИ.

4. Модель обучена не давать оценочные суждения и выводы на основе чувствительных человеческих характеристик, а также отказывать в генерации неправомерного, жестокого и эротического контента. Однако тестировщики смогли заставить модель повторять и генерировать теории заговора и иную ложную информацию.

5. OpenAI разработала собственную систему оценки (Preparedness framework) передовых фундаментальных моделей на наличие системных рисков, таких как: кибербезопасность, CBRN (химические, биологические, радиологические, ядерные угрозы), способность к убеждению и уровень автономности. GPT-4o получила минимальные оценки риска, за исключением способности к убеждению (визуализацию выложу в комментариях к посту). Интересно, что средний уровень риска получила только текстовая модальность. В трех случаях из двадцати модель убеждала на политические темы лучше, чем статьи экспертов.

6. Модель проходила независимую оценку у двух компаний, которые специализируются на такого рода услугах METR (полный отчет тут) и Apollo Research. Оценены были способности моделей к самосознанию, развитию и репликации.

7. Компания исследует риски влияния модели на общество. В частности, появление голосовой модальности и увеличение контекстного окна повысили риски антропоморфизации и выстраивания эмоциональных зависимостей между человеком и моделью. Однако данное направление еще не является в достаточной степени изученным.

Однако необходимо заметить, что публикация подобных карточек, как и проведение оценок, пока что является добровольным начинанием. В отсутствии законодательных требований и ответственности объективность оценок обеспечивается лишь репутацией компании и ее продуктов.
Подписан скандально известный закон о порядке обработки обезличенных персональных данных

Несколько дней назад Президентом РФ был подписан закон, который вносит изменения в несколько актов и определяет особенности обработки обезличенных персональных данных. Ранее этот законопроект бурно обсуждался не один год и изначально в качестве своих целей предполагал упрощение доступа бизнеса к данным для развития ИИ.

Давайте кратко пробежимся по основным идеям:

1. Изменения в ФЗ № 152-ФЗ «О персональных данных»

Теперь Минцифры сможет потребовать у операторов самостоятельно обезличивать обрабатываемые ими персональные данные (кроме статьи 10 за исключением части 2.1 и статьи 11) и предоставить их в специально созданную для этого государственную информационную систему. Далее орган формирует составы данных, сгруппированные по определенному признаку, при условии, что последующая обработка этих данных не позволит определить их принадлежность конкретному субъекту ПД.

Интересно, что само определение обезличенных ПД в законе предполагает возможность установления их принадлежности конкретному субъекту за счет обогащения данных. Будем надеяться, что данные из этой ГИС не станут достоянием даркнета и не будут сопоставлены с огромным числом уже утекших ранее баз данных. Также лица, чьи персональные данные были обработаны операторами, никаким образом не смогут влиять на их передачу в ГИС, что, конечно же, очень сомнительно с точки зрения прав человека.

Доступ и обработка данных будет осуществляться только с использованием ГИС для определенного круга субъектов (установлен ряд требований). Порядок доступа установит Правительство РФ, что предполагает гибкость в изменении правил игры и не создает стабильности для бизнеса.

2. Изменения в ФЗ № 123-ФЗ «О проведении эксперимента с ИИ в Москве»

В Москве по решению правительства города будут создаваться региональные составы данных. Региональные операторы будут предоставлять данные в региональную информационную систему. Однако бремя обезличивания уже лежит на компетентном органе. Передача изображения лица человека, полученного с помощью фотовидеоустройств, и записи голоса человека, полученной с помощью звукозаписывающих устройств, и их последующая обработка в региональной ИС могут осуществляться без получения согласия субъекта ПД. Однако последнему дается время на отказ от передачи его данных в систему.

Доступ также осуществляется с использованием ИС для определенного перечня субъектов в соответствии с правилами.

Таким образом, как я уже отмечал в посте зимой, мода на создание ГИС во всех сферах фактически приводит к государственной монополии на данные. Более того новеллы отлично суммируются с вакуумом нормативного регулирования в сфере разработку и применение ИИ госорганами, о чем я неоднократно писал.

А есть ли альтернативы складывания всех яиц в госкорзину?

Да, например, в ЕС в соответствии со вступившем с силу в прошлом году Data Governance Act (DGA) были созданы посредники в передаче данных (data intermediaries), которые на основе жестких законодательных требований должны выступать в качестве независимых субъектов, обеспечивающих обмен данными между органами власти, бизнесом и гражданами. Вот их реестр. Если будет интересно, могу сделать отдельный разбор акта 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый Grok даровал невиданную по современным меркам свободу генерации контента

Компания xAI выпустила в бета-версии две новые модели – Grok-2 и Grok-2 mini. Для генерации изображений используется другая модель – FLUX.1 от Black Forest Labs.

Новый Grok будет глубокого интегрирован в X. Например, сейчас для премиальных пользователей уже доступна генерация картинок.

И первые отзывы заставляют поулыбаться. Например, The Verge пишут, что выходные результаты модели значительно менее ограничены, чем у аналогичных продуктов. Модель, во-первых, генерирует изображения, схожие с лицами политиков и известных людей, а во-вторых, генерирует изображения по запросам, на которые ChatGPT отказывается отвечать.

Картинки можете посмотреть по ссылке выше. Хоть они и не супер реалистичные, все равно не хочу распространять дезинформацию. Но, например, люди сгенерировали изображение с беременной Камалой Харрис, которая обнимается с Дональдом Трампом (и многое другое).

Интересно, что пользовательское соглашение продукта запрещает его использовать любым способом или в любых целях, которые (i) нарушают или способствуют нарушению любого Применимого законодательства, договорных обязательств или прав любого лица, включая, но не ограничиваясь, правами на интеллектуальную собственность (как определено ниже), правами на частную жизнь и/или правами личности, (ii) являются мошенническим, ложным, обманчивым или клеветническим, (iii) пропагандируют ненависть, насилие или вред в отношении любого лица или группы лиц, или (iv) иным образом может быть вредным или нежелательным (по нашему усмотрению) для нас или наших провайдеров, наших поставщиков, Пользователей или любой другой третьей стороны.

И вот еще: мы можем, уведомив вас в любое время, ограничить использование вами выходных данных или потребовать от вас прекратить их использование (и удалить любые их копии), если мы считаем, что использование вами выходных данных может нарушить права любой третьей стороны.

Если помните, то буквально на прошлой неделе я разбирал отчет Американского Copyright Office, который рекомендовал законодателям разработать запрет на генерацию правдоподобных дипфейков с изображением реальных людей без разрешения. Последние деньки Дикого Запада? 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
Может ли ИИ быть мэром города?

С таким вопросом ко мне обратились журналисты из Санкт-Петербургского издания Sobaka.ru (да простят меня котики).

Спойлер: пока точно нет 🤩.

Но это не лишает нас возможности поразмышлять и подискутировать. Тем более что периодически энтузиасты предрекают нам конец государства то за счет блокчейчна и DAO, то за счет ИИ.

Материал в развернутом виде можно почитать по ссылке. Он небольшой и написан в легкой научно-популярной форме, поэтому смело можно заглянуть в него и в пятницу вечером.
Please open Telegram to view this post
VIEW IN TELEGRAM
Конец дихотомии открытых и закрытых релизов фундаментальных моделей ИИ?

На сайте Фонда Карнеги появилась крайне любопытная статья, в которой большой и авторитетный коллектив авторов рассуждает относительно существующих в индустрии актуальных вопросов вокруг вывода на рынок фундаментальных моделей ИИ.

Напомню, что главные игроки ИИ-рынка придерживаются разных концепций, которые связаны с их бизнес-моделями: одни компании полностью выкладывают модели ИИ в общий доступ для более-менее свободного использования, а другие – распространяют их по подписке без предоставления доступа к параметрам и иной важной информации, которая бы раскрыла нюансы разработки и технические особенности.

Несмотря на то, что оба этих подхода имеют свои плюсы и минусы, на протяжении многих лет не утихает спор относительно лучшего способа вывода моделей ИИ на рынок, который бы позволил учесть как коммерческие, так и общественные интересы. На преодоление этой дихотомии и направлена данная работа.

Статья состоит из двух частей: в первой авторы рассматривают вопросы, по которым в индустрии уже сложился некий консенсус, а во второй – вопросы, на которые еще потребуется найти решения.

Рассмотрим некоторые интересные моменты:

- Сам спор относительно открытости и закрытости моделей перестает быть актуальным. Стало очевидно, что каждый способ вывода на рынок имеет свои плюсы и минусы. Выбор того или иного способа должен быть основан на проведенных предварительных и последующих оценках модели ИИ (до и после выводы на рынок) с учетом особенностей ее целевого назначения. Для продвинутых потенциально опасных моделей лучше применять закрытые или гибкие релизы.

- Открытость моделей не связана только лишь с публикацией их параметров. Раскрыта может быть еще и иная релевантная информация об архитектуре, коде, данных. Информация может раскрываться не сразу, а постепенно, в ходе вывода модели на рынок. Более того, даже при закрытых релизах разработчики могут обеспечивать высокий уровень прозрачности. Также устоявшееся в индустрии определение открытого (опенсорс) ПО не полностью применимо для открытых релизов моделей ИИ из-за их комплексности и недостаточной прозрачности. Кстати, в Open Source Initiative (OSI) как раз разрабатывают определение опенсорс ИИ.

- Сейчас решение о способе выпуска модели ИИ на рынок принимается компаниями самостоятельно на основе собственных критериев. Для того чтобы уменьшить возможные риски, необходимо разработать общие стандарты для отрасли. Например, описать риски, характерные для разных видов релизов, сформулировать рекомендации о том, каким образом, кем и на основании какой информации должно приниматься решение о выборе способа вывода модели ИИ на рынок.

В статье рассмотрены и другие интересные вопросы, так что советую ознакомиться лично.
Продолжение дискуссии про открытость: стоит ли публиковать параметры фундаментальных моделей ИИ двойного назначения?

Ответ на это вопрос попыталось дать Национальное управление по телекоммуникациям и информации США (NTIA) в отчете, подготовленном в рамках исполнения октябрьского Указа Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия». Подробнее об указе и том, что понимается под моделями ИИ двойного назначения, можно почитать в моем посте.

Я недаром написал про продолжение дискуссии, так как отчет во многом перекликается со статьей, которую я разбирал в предыдущем посте.

В данном отчете эксперты управления пытаются понять, какие риски несут фундаментальные модели двойного назначения и достижение каких пороговых значений должно приводить к законодательному запрету для разработчиков публикации весов и других параметров моделей. К каким же выводам пришло управление?

Первый вывод, к которому пришли как авторы статьи Фонда Карнеги, так и эксперты NTIA: на сегодняшний день нет достаточных данных о том, что текущие фундаментальные модели представляют существенные риски, достаточные для того, чтобы вводить запрет на публикацию их параметров.

Второй вывод: такие риски непременно могут возникнуть в будущем, соответственно, необходимо разработать критерии для оценки фундаментальных моделей на предмет возможности их открытых релизов.

Поэтому вместо введения запрета орган предлагает всему государственному аппарату осуществлять политику в нескольких направлениях:

1. Собирать информацию: определить индикаторы по каждому из рисков, а также проводить исследования в сфере безопасности фундаментальных моделей на протяжении всех этапов их жизненного цикла.

2. Анализировать информацию: сформулировать и соевременно адаптировать пороговые значения для каждого из индикаторов риска, достижение которых потребует государственного вмешательства.

3. Принимать решения на основе полученной информации: если это потребуется, вводить ограничения на доступ к моделям, а также предпринимать иные меры по снижению возможных рисков.

Таким образом, вряд ли передовые фундаментальные модели в будущем будут сразу выпускаться для широкого доступа без каких-либо ограничений. Скорее всего, компании будут параллельно выводить на рынок несколько разных версий моделей (как это уже происходит сейчас), однако наиболее функциональные из них не будут доступны сразу в опенсорсе. Также весьма вероятно будет применяться методика ступенчатых релизов, когда модели будут становиться широкодоступными постепенно, по мере их изучения и устаревания технологий.
Поиски оптимального подхода к регулированию в сфере разработки и применения передовых систем и моделей ИИ

Сегодня я обращаю внимание на статью, в которой авторы из уважаемых британских и американских научных институций размышляют над тем, какой подход следует выбрать при формулировании нормативных требований в сфере разработки и применения передовых систем и моделей ИИ (авторы их называют более широким термином – передовой ИИ). Также любителям AI Governance на заметку – статья является частью будущего сборника The Oxford Handbook on the Foundations and Regulation of Generative AI.

Текст статьи опубликовали в июле, но только сейчас дошли руки ее разобрать. Статья на первый взгляд довольно большая – 55 страниц. Однако, как это обычно бывает, более чем две трети текста занимают сноски и литература. Большую часть статьи авторы посвятили определению предмета, метода и содержания будущего правового регулирования, а также ликбезу относительно различия систем законодательства в ЕС, США и Великобритании.

Кстати, если кто-то занимается исследованиями, то советую внимательно изучить сноски. Над анализом литературы авторы потрудились на славу. Возможно, найдете что-то интересное и для вашей темы.

Теперь кратко пройдемся по содержанию:

- Передовые модели и системы ИИ представляют существенные риски (авторы их расписывают, но мы их и так с вами многократно разбирали);

- Одного отраслевого саморегулирования явно не будет достаточно для снижения этих рисков до приемлемого уровня;

- Очевидно, что регулирование необходимо, однако нужно определиться с наиболее подходящим подходом.

На последнем тезисе мы и остановимся подробней:

По сути, авторы рассуждают одновременно в нескольких измерениях:

1. Каким образом нормативные положения должны быть укомплектованы: что должно быть закреплено на уровне закона и подзаконных актов, а что - в технических или отраслевых стандартах;

2. Должны ли правовые нормы быть сформулированы как принципы или содержать конкретные предписания.

Вывод достаточно ожидаемый: законодателям рекомендуют сформулировать основные принципы разработки и применения передовых систем и моделей ИИ, а конкретные предписания устанавливать позже и в тесном сотрудничестве с бизнесом.

На скриншоте можно посмотреть пример того, к каким группам авторы отнесли девять примерных предписаний, которые были сформулированы в документе Emerging Processes for Frontier AI Safety, опубликованном по итогам прошлогоднего UK AI Safety Summit.
Девять назгулов подходов к регулированию в сфере разработки и применения ИИ: много или мало?

В предыдущем посте мы с вами разбирали статью, в которой авторы предлагают регулировать отношения, возникающие в сфере разработки и применения передовых фундаментальных моделей посредством сочетания трех подходов: 1) подхода, основанного на принципах; 2) подхода, основанного на предписаниях; 3) риск-ориентированного подхода.

Какие вообще есть подходы к регулированию ИИ (не только передового)? Таким вопросом задались и в ЮНЕСКО.

В середине августа под эгидой организации вышел предварительный отчет, в котором были проанализированы существующие нормативные документы как на международном уровне, так и в более чем тридцати юрисдикциях.

Исследование было подготовлено профессором колумбийским ученым Хуаном Давидом Гутьерресом из the University of Los Andes на основе обсуждений, проходивших на площадках ЮНЕСКО в марте.

Исследователь выявил девять подходов, основанных на:

1. принципах;
2. стандартах;
3. гибкости и тестировании инноваций;
4. содействии и стимулировании развития инноваций;
5. обновлении общего законодательства;
6. обеспечении прозрачности и доступа к информации;
7. оценке рисков (риск-ориентированный);
8. правах человека;
9. установлении требований по привлечению к юридической ответсвенности.

На самом деле, данный список не является полным и однозначным. В разных научных работах и исследованиях встречаются иные термины и классификации. Более того, ни один из перечисленных подходов не встречается в чистом виде в какой-либо юрисдикции.

На мой взгляд, было бы интереснее проследить, каким образом данные подходы пересекаются. И за счет этого сформулировать более общую классификацию.

Возможно, это мы и увидим в дальнейшем. До 19 сентября по тексту открыты публичные консультации.

Далее пересмотренная версия отчета будет представлена на 149-ой Ассамблее Межпарламентского союза, которая пройдет 13-17 октября в Женеве. Документ будет представлен в контексте завершения работы над Резолюцией МПС «Влияние ИИ на демократию, права человека и верховенство права».

Кстати, под эгидой МПС также разрабатывается проект Хартии об этике в сфере науки и технологий, в которой обозначены принципы и рекомендации для законодателей.
Обзор Рамочной конвенции Совета Европы об искусственном интеллекте и правах человека, демократии и верховенстве права

Друзья, на неделе было много дел и мало постов. Теперь возвращаюсь к вам с обзором Рамочной конвенции Совета Европы об ИИ и правах человека, демократии и верховенстве права. В четверг первые страны подписали документ, что запустило процессы по ее ратификации и вступлению в силу.

Многие уже окрестили это событие историческим. Однако все, кто работает в AI Governance, давно привыкли — в нашей сфере исторические события происходят каждые пару месяцев. Уже даже немного устали отмечать.

TLDR:

1. Конвенция устанавливает принципы, направленные на снижения рисков для прав человека, демократии и верховенства права, потенциально возникающих на всех стадиях жизненного цикла систем ИИ.

2. Конвенция распространяется как на государственный, так и на частный секторы.

3. Государство может выбрать, в каком объеме принять на себя обязательства в отношении частного сектора.

4. Конвенция не распространяется на научные исследования, национальную безопасность и оборону.

5. Перечень запрещенных систем ИИ стороны определяют самостоятельно.

6. Конвенция на Россию не распространяется, так как последняя вышла из Совета Европы.

7. Россию могут потенциально пригласить подписать документ, но с учетом текущей политической ситуации пока это маловероятно.

Еще одно нововведение: теперь более длинные материалы и разборы иногда будут выходить на Хабре.

Полный текст обзора можно найти по ссылке.
TIME100/AI 2024

На прошлой неделе журнал Time выпустил список из ста наиболее влиятельных людей в сфере ИИ за 2024 год. Топ, как обычно, получился неоднозначный. Но этим грешат любые рейтинги.

На кого стоит обратить внимание с точки зрения AI Governance?

Ясон Габриэль — научный сотрудник в Google DeepMind. Занимается философской стороной AI alignment. Один из соавторов статьи про этику продвинутых ИИ-агентов, которую мы с вами разбирали тут.

Елена Тонер — директор по стратегии и грантам в CSET (Джорджтаунский университет). Специалист по AI Governance, консультирует законодателей по регулированию в сфере ИИ. Ранее была в совете директоров OpenAI и замешана в дворцовых переворотах. Настаивает на регулировании отрасли, о чем можно почитать в статье для the Economist.

Бэт Барнс — основательница и руководитель отдела исследований в Model Evaluation and Threat Research (METR). Занимается оценкой рисков функционирования моделей ИИ. Участвовала в создании Responsible Scaling Policy (классификация моделей по рискам) от Anthropic.

Джеффри Ирвинг — директор по исследованиям британского AI Safety Institute. Занимается оценкой передовых моделей ИИ. Институт разрабатывает как методики оценки, так и изучает модели, к которым добровольно предоставили доступ разработчики.

Чинаса Т. Около — научный сотрудник в Brookings Institution. Под руководством Йошуа Бенжио (отмечен в рейтинге отдельно) она участвовала в подготовке отчета о безопасности продвинутого ИИ, а также в создании национальной стратегии в сфере ИИ Нигерии.

Амба Как — исполнительный директор AI Now Institute. Институт занимается исследованиями в сфере регулирования и госуправления. Один из последних отчетов об особенностях регулирования ИИ американской FDA.

Джина Раймондо — Министр торговли США. На ее ведомство легла существенная часть обязательств по реализации октябрьского указа Президента США.

Арати Прабхакар — директор Управления по научно-технической политике США. Консультирует Президента США по вопросам регулирования в сфере ИИ. Считается, что она показала ChatGPT Джозефу Байдену за шесть месяцев до официального релиза, чем, по сути, спровоцировала начало работы над последующими инициативами Белого дома.

Мэттью Топич — партнер юрфирмы Loevy & Loevy. Представляет интересы The Intercept, Raw Story и AlterNet в иске против OpenAI.

Элизабет Келли — директор американского AI Safety Institute. Институт работает под эгидой NIST и осуществляет исследование и оценку передовых моделей ИИ. Недавно я писал о том, что OpenAI предоставила ранний доступ к GPT-5 сотрудникам института для оценки безопасности модели.

Скотт Винер — сенатор штата Калифорния. Автор резонансного законопроекта SB 1047, направленного на регулирование в сфере разработки и применения передовых моделей ИИ. Позже разберем этот документ отдельно.

Мартин Хайнрих — сенатор США от штата Нью-Мексико. Активно занимается законопроектами, связанными с ИИ. В числе соавторов дорожной карты рабочей группы сената по ИИ.

Сара Карделл — генеральный директор британского антимонопольного органа (CMA). Под ее руководством в 2023 году был выпущен отчет о фундаментальных моделях ИИ. А в 2025 году должен вступить в силу новый Закон о цифровых рынках, конкуренции и защите прав потребителей.

Чжан Линьхань — профессор Китайского университета политических наук и права. Руководит рабочими группами по разработке регулирования в сфере ИИ. В частности, непосредственно участвовала в создании трех последних актов в сфере алгоритмических рекомендаций, маркировки синтетического контента и управлении генеративными системами ИИ.

Катя Грейс — соосновательница AI Impacts. Провела опрос 2700 ученых в сфере ИИ по поводу их прогнозов на будущее развития технологий.

Саффрон Хуанг и Дивия Сиддарт — соосновательницы Collective Intelligence Project. Совместно с Anthropic провели исследование по отбору правовых принципов для Constitutional AI.

Результаты за прошлый год можно посмотреть тут.
Немного новостей из Центробанка о регулировании в сфере применения ИИ на финансовом рынке

В конце пришлой недели выступал на мероприятии Центробанка, где обсуждались возможности и потенциальные риски защиты прав потребителей при использовании ИИ. Рассказал про подходы к регулированию в сфере ИИ, а также про фундаментальные модели и опенсорс.

Узнал для себя и новые вещи. Рассказываю вам.

В ноябре 2023 года Центробанк опубликовал доклад о применении ИИ на финансовом рынке, в котором поставил вопросы для дальнейшего общественного обсуждения.

По их итогу в 2024 году был выпущен отчет с основными выводами.

Всего поступило 33 заключения, из которых 15 – от кредитных организаций, 6 – от страховщиков и 12 – от объединений участников рынка, высших учебных заведений, инфраструктурных организаций, ведущих разработчиков ИИ.

Остановимся на нескольких интересных моментах:

Респонденты выделили наиболее важные вопросы с точки зрения ИИ-регулирования:

- регулирование оборота обезличенных данных (это мы уже увидели, но пока все не очень хорошо. Подробно писал тут);

- обеспечение возможности использования сторонней инфраструктуры оборота данных разработчиками ИИ (с компьютом-то реально беда, и она будет только расти);

- формирование подходов к распределению ответственности за вред, причиненный применением ИИ, между организацией-разработчиком и организацией-пользователем (кстати, про это можно почитать мою статью тут);

- определение правового режима выходных данных и моделей ИИ (отдельно выделили синтетический контент).

Также интересно, что некоторые респонденты предложили рассмотреть условия для работы доверенных платформ по обмену данными между организациями. Вот вам и имплементация опыта ЕС о посредниках в передаче данных (data intermediaries), созданных недавним Data Governance Act (DGA) (я помню, что обещал его разобрать, все будет🤩).

Большинство респондентов не видят сейчас необходимости в жестком регулировании. Пока достаточно рекомендательных актов, стандартов и рекомендаций. Также отмечена целесообразность разработки отдельного кодекса этики ИИ для участников финансового рынка.

Почти поровну разделились мнения респондентов относительно необходимости создания внутри финансовой организации отдельного органа, ответственного за контроль над внедрением и применением ИИ в бизнес-процессах. При этом была отмечена именно добровольность в создании такого органа в зависимости от нужд конкретной организации. В качестве альтернативы специализированному органу предложено на текущем этапе развития технологий ограничиться риск-менеджментом (надеюсь, он уже реализуется, а не только планируется).

В каких сферах может потребоваться адаптация действующего законодательства или принятие новых НПА?

- снижения рисков использования дипфейков, которые могут применяться мошенниками для введения потребителя в заблуждение, а также для манипулирования рынком (СМИ пишут, что в ГД собираются наконец взяться за дипфейки, скоро узнаем);

- обязанности объяснения клиентам оснований для принятия решений, если такие решения были приняты с использованием ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
В Китае обсуждают уточнения требований по маркировке синтетического контента

Cyberspace Administration of China (CAC) опубликовала для общественных обсуждений документ, обобщающий практики по маркировке синтетического контента.

Напомню, что в Китае уже действует акт, который предполагает такую маркировку для поставщиков информационных услуг — Provisions on the Administration of Deep Synthesis Internet Information Services. На этот же акт ссылаются и временные меры по управлению сервисами генеративного ИИ (Interim Measures for the Management of Generative Artificial Intelligence Services).

На кого будет распространяться документ?

На всех поставщиков информационных услуг, определяемых тремя актами: двумя, которые мы уже рассмотрели выше, + более ранний акт о алгоритмических рекомендациях (Provisions on the Management of Algorithmic Recommendations in Internet Information Services).

В сферу действия не входят, например, предприятия, образовательные и научные организации, если они не предоставляют услуги населению.

Что включается в синтетический контент?

Текст, изображения, аудио-, видео- и другая информация, созданная, сгенерированная и синтезированная с использованием технологии ИИ.

Как есть виды маркировок?

Выделяется явная маркировка (логотип, графика, звук, текст) и скрытая (метаданные и иные технические средства маркировки, скрытые от глаз пользователя).

Скрытая маркировка будет обязательной для всех поставщиков сервисов глубокого синтеза.

Конкретизированы требования к чат-ботам

Контент должен быть явно помечен через текстовые, звуковые, визуальные подсказки или другие предупреждающие знаки в начале, конце или середине материала. Это включает текстовые метки для текстов, голосовые или звуковые сигналы для аудио, визуальные подсказки для изображений и видео, а также заметные предупреждающие знаки для виртуальных сцен. Также требуется явная идентификация синтетического контента при его загрузке, выгрузке и копировании.

Требования для держателей цифровых платформ

Они будут обязаны проверять:

а) метаданные файлов на наличие неявных идентификаторов и добавлять предупреждающие метки вокруг контента, если таковые идентификаторы обнаружены или заявлены пользователем;

б) если идентификаторы отсутствуют, но есть признаки синтеза, контент должен быть помечен как подозреваемо синтетический;

в) в метаданные должны быть внесены атрибуты синтетического контента, включая данные о платформе и номере контента;

г) платформы должны напоминать пользователям о необходимости заявлять, если контент является синтетическим.

Иные требования

Поставщики услуг должны будут в понятном для пользователя виде отразить требования к маркировке в пользовательском соглашении.

Если пользователь захочет получить контент без маркировки, то поставщик может его предоставить, указав на ответственность за его распространение в пользовательском соглашении. Также поставщик должен хранить оригиналы контента не менее шести месяцев.

Если речь идет про магазин приложений, то держатель платформы должен проверять, имеются ли в загружаемых приложениях функции по созданию синтетического контента.

Интересно, что специфических норм об ответственности не предусмотрено: нарушители будут преследоваться в рамках общего законодательства.
Еще один вечер дипфейков: смотрим на новые законопроекты в российском парламенте

Обычно я редко пишу про законопроекты, так как далеко не все из них становятся в конечном итоге законами. А даже если и становятся, то не всегда в первоначальном виде.

Однако с учетом того, что мы вчера разбирали китайский опыт маркировки синтетического контента, сегодня решил продолжить тему и обратить ваше внимание на несколько вчерашних законопроектов, внесенных в российский парламент.

Охрана голоса

Предлагается внести в ГК РФ новую статью: 152.3. Охрана голоса гражданина.

Она почти слово в слово повторяет уже существующую статью 152.1., которая направлена на охрану изображения.

Обнародование и дальнейшее использование голоса гражданина (в том числе записи, в которой он содержится, или записи, в которой содержится воссозданный с помощью специальных технологий голос гражданина) допускаются только с согласия этого гражданина. После смерти — с согласия членов семьи, за исключением случаев, когда имеется публичный интерес или запись производилась за плату.
Судя по пояснительной записке, документ был разработан Альянсом в сфере ИИ и Национальной Федерацией Музыкальной Индустрии.

Уголовная ответственность за дипфейки

Предлагается внести в ряд статей УК РФ квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и (или) биометрических данных гражданина.

Во время прочтения у меня сразу возникло внутреннее негодование. Однако отзывы Правительства и Верховного суда его несколько уменьшили:

1) дипфейки никак не урегулированы законодательно, так что их еще рано запрещать;

2) нет оснований полагать, что общественной опасности именно такого рода деяний достаточно, чтобы вводить более строгое наказание;

3) формулировка “фальсифицированные или искусственно созданные” — слишком расплывчатая.

Так что вряд ли документ будет принят в таком виде.

Оффтоп

В последнее время я довольно часто использую ChatGPT в голосовом режиме с моделькой GPT-4o. Например, мне с ней интересно поболтать во время приготовления еды или мытья посуды. Сегодня я случайно обнаружил забавный для юриста факт. Система правильно ставит ударение в слове договОр, но ошибается в других падежах. В моем случае она говорила договорАми вместо ударения на нужный слог — договОрами. Конечно, я дал фидбэк и сразу вспомнил времена учебы и преподавания на юрфаке 🐱.
Please open Telegram to view this post
VIEW IN TELEGRAM