howtocomply_AI: право и ИИ
1.26K subscribers
203 photos
4 videos
6 files
290 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Еврокомиссия опубликовала проект имплементационного акта о создании совета независимых экспертов для AI Office

На сайте Еврокомиссии для общественного обсуждения размещен проект имплементационного акта о создании совета независимых экспертов для поддержки AI Office.

Что это за совет?

Совет создается в соответствии со статьей 68 Регламента ЕС об ИИ, которая прямо предусмотрела необходимость формирования соответствующего органа для поддержки правоприменителей и принятия для этого отдельного имплементационного акта.

Для чего он нужен?

Главной задачей совета будет консультирование AI Office относительно применения положений Регламента к системам и моделям ИИ общего назначения:

- совет должен предупреждать AI Office в том случае, если он обнаружил, что какая-либо система или модель ИИ достигла пороговых значений или представляет неизвестные ранее риски и должна быть отнесена к группе, представляющих системные риски (прим.: такие модели ИИ можно условно назвать продвинутыми. Регламент накладывает на их провайдеров большие требования);

- совет содействует разработке инструментов и методик по оценке возможностей систем и моделей ИИ;

- совет предоставляет рекомендации по классификации моделей ИИ общего назначения, представляющих системные риски;

- совет готовит необходимые инструменты и шаблоны документов.

Помимо этого, совет также будет помогать AI Office и компетентным органам стран-членов ЕС в исполнении функций, возложенных на них Регламентом.

Кто в него будет входить?

Совет будет состоять из компетентных межотраслевых независимых экспертов и формироваться на два года на основе открытого конкурса. Для членов совета возможно однократное продление полномочий на еще один срок. Конкретная численность органа будет определяться отдельно каждые два года Еврокомиссией и AI Board (совет представителей стран-членов ЕС). Однако общая численность совета не должна превышать 60 человек (эта цифра пока под вопросом). Эксперты, которые отвечают критериям, но по каким-то причинам не попали в текущий совет, включаются в резервный список.
4🔥22
Какие органы и исследовательские организации в наибольшей степени влияют на формирование правового и технического регулирования в Китае?

Аналитический центр Institute for AI Policy and Strategy (IAPS) выпустил отчет, в котором исследователи проанализировали наиболее влиятельные китайские исследовательские организации в сфере ИИ и сравнили их по функциям с институтами безопасности ИИ, существующими в США и Великобритании. Последние сейчас выполняют крайне важные функции: они разрабатывают стандарты и методики, направленные на обеспечение безопасности ИИ, а также по согласованию с технологическими компаниями осуществляют внешние оценки передовых систем и моделей ИИ перед их официальным релизом.

Среди ключевых организаций авторы выделяют:

Cyberspace Administration of China (CAC) — основной регулятор в сфере ИИ. Готовит нормативные акты, осуществляет регистрацию и оценку систем ИИ, а также следит за распространением информации, признанной незаконной и вредной с точки зрения нынешних властей.

National Cybersecurity Standardization Technical Committee 260 (TC260) — комитет при национальном органе по стандартизации, который занимается определением рисков, связанных с разработкой и применением ИИ, а также разработкой методик оценки систем ИИ. Существуют также два других комитета по стандартизации (TC28/SC42 и CESA), но пока доступно мало информации о результатах их работы.

China Academy for Information and Communications Technology (CAICT) — аналитический центр при Министерстве промышленности и информатизации КНР, который непосредственно занимается внешними оценками систем и моделей ИИ, а также координирует работу совета стейкхолдеров Artificial Intelligence Industry Alliance (AIIA) и лаборатории, специализирующейся на разработке методик оценки AI Critical Technology and Applications Evaluation (AICTAE).

Международным сотрудничеством в сфере ИИ занимаются Institute for AI International Governance (I-AIIG) и Center for International Security and Strategy (CISS).

Также выделяются исследовательские организации, которые разрабатывают модели ИИ, изучают их безопасность и создают методики оценки: Beijing Academy of Artificial Intelligence (BAAI), Peng Cheng Lab (PCL), Shanghai AI Lab (SHLAB).
32🔥2
Более сотни компаний согласились добровольно соблюдать отдельные положения Регламента ЕС об ИИ

Еврокомиссия опубликовала список из 115 компаний, которые подписали ИИ-пакт.

TLDR: ИИ-пакт направлен на то, чтобы бизнес добровольно начал исполнять ряд требований Регламента до того, как они начнут официально действовать (сроки — тут). Все это будет происходить в постоянной коммуникации компаний и компетентных органов, что позволит первым плавно и надежно подготовиться к соблюдению законодательных требований, а вторым — поработать над правоприменением и выработать лучшие практики.

Подробнее про пакт я писал тут и тут.

Кто, например, есть в списке?

Европа: Siemens, Airbus, IKEA, Deutsche Telekom, Vodafone, Orange, Dassault Systèmes, INGKA Group и Scania.

США: Microsoft, IBM, Google, Amazon, Palantir, Salesforce, Cisco, Autodesk, Hewlett Packard Enterprise, Motorola Solutions, Snap, Workday, Adobe, Intuit и Qualcomm.

Канада: Cohere.

Индия: Infosys, Tata Consulting Services (TCS) и Wipro.

Япония: NEC.

Австралия: Atlassian.

Израиль: Corsight AI.

Новая Зеландия: Waiheke.

Кого мы не видим в списке?

В исходном списке отсутствуют Meta (запрещена в РФ), Apple, Anthropic и все китайские компании (включая TikTok и Tencent). Из крупных европейский игроков на рынке ИИ в пакте пока не принял участие Mistral AI.

Что это значит?

Ничего. Участие в пакте добровольное и не отменяет того, что компании готовятся самостоятельно. Например, Politico пишет, что Meta уже проводит меры по соответствию требованиям Регламента и не исключает возможности присоединиться к пакту позднее.
53
Ответственность за вред, причиненный системами ИИ в ЕС: невероятные приключения PLD и AILD

Друзья, все мы любим тему ответственности, поэтому разбираем сразу несколько важных новостей из ЕС:

Евросовет подписал Директиву об ответственности за качество продукции (Product Liability Directive, PLD). Ждем текст в официальном источнике, а пока финальный его вариант можно прочитать тут. Ранее я делал подробный обзор документа, поэтому сейчас не будем на нем подробно останавливаться. Скажу лишь, что она крайне важна для нас, так как прямо относит ПО (включая ИИ) и робототехнику к продуктам, распространяя на них ответственность за продукцию ненадлежащего качества.

В 2022 году была опубликована Директива об ответственности в сфере ИИ (AI Liability Directive, AILD), которая направлена на то, чтобы найти баланс между технологическим развитием и защитой интересов пользователей за счет сочетания виновной и строгой ответственности для поставщиков систем ИИ повышенного риска. То есть, с одной стороны, ответственность не всегда по умолчанию возлагалась бы на поставщиков систем ИИ повышенного риска, а с другой — у пользователей был бы более простой способ доказать причинно-следственную связь между выходными результатами работы системы ИИ и общественно опасными последствиями.

Однако после принятия Регламента ЕС об ИИ текст директивы, который сильно завязан на его положения, был отправлен на доработку. Поскольку концепция документа вызвала неоднозначную реакцию у экспертов и бизнеса, Комитет по правовым вопросам Европарламента (JURI) запросил провести дополнительную оценку воздействия. Документ был составлен известным специалистом по ИИ-регулированию Филиппом Хакером, который ранее опубликовал ряд материалов на тему ответственности.

Какие выводы содержатся в документе? (не все однозначные, если честно 🤩)

Директиву следует значительно расширить за счет включения в ее сферу действия всего ПО, а не только ИИ, а также превратить ее в регламент (другой вид акта, который применяется напрямую во всех государствах-членах).

Концептуально документ должен быть аналогичен PLD, но распространяться на те сферы, которые находятся за ее границами (подробнее на скриншоте).

Ввести новую группу систем ИИ, оказывающих значительное воздействие (high-impact AI systems), в которую должны входить системы повышенного риска, системы/модели ИИ общего назначения, все системы, которые интегрированы в продукты из раздела B приложения I (в понимании Регламента ЕС об ИИ), а также автономный транспорт и страховые приложения.

Ввести строгую (безвиновную) ответственность в случае причинения вреда из-за создания системы ИИ из списка запрещенных Регламентом ЕС об ИИ.

Рассмотреть в ходу широкого общественного обсуждения возможность использования строгой ответственности для поставщиков систем ИИ повышенного риска (кстати, аналогичное предложение мы с коллегой озвучивали в статье тут).

Распределять ответственность внутри цепочки поставки систем ИИ на основе гибкого сочетания следующих принципов: равенства сторон, поддержки малого бизнеса и защиты нижестоящих поставщиков и эксплуатантов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥721
Опубликован первый вариант текста Кодекса лучших практик для моделей ИИ общего назначения

Сегодня на сайте Еврокомиссии был опубликован первый вариант текста Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Кратко о том, что из себя представляет кодекс, я писал здесь.

Документ находится на очень ранней стадии подготовки. По сути, он представляет собой изложение положений Регламента ЕС об ИИ (в части систем и моделей ИИ общего назначения), а также подробный перечень конкретных мер по их реализации, сформулированный руководителями каждой рабочей группы на основе отзывов стейкхолдеров. Также в документе выделены проблемные вопросы и ключевые развилки, ответы на которые будут найдены в ходе последующих стадий подготовки и обсуждения. Таким образом, текст, вероятно, ожидают еще неоднократные изменения.

На следующей неделе в каждой из четырех рабочих групп пройдут заседания с участием широкой группы экспертов для обсуждения предложенного текста. Как уже отмечал ранее, я планирую их посетить, так как вхожу в число этих экспертов. По итогам обсудим наиболее интересные моменты и разберем соответствующие части кодекса 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥42👍1
Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 1

На прошлой неделе прошли заседания рабочих групп по подготовке Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Как и обещал, возвращаюсь к вам с его разбором в нескольких частях.

Для чего нужен этот кодекс?

В Регламенте ЕС об ИИ есть Глава 5: Требования для поставщиков моделей ИИ общего назначения, которая начнёт применяться 2 августа 2025 года. Как можно понять из названия, она устанавливает требования для провайдеров (в том числе разработчиков) фундаментальных моделей ИИ (на основе которых, например, работают всеми любимые сервисы генеративного ИИ). Также отдельно регламент выделяет группу моделей ИИ общего назначения, представляющих системные риски, на провайдеров которых будут накладываться более строгие требования. К ним будут относиться продвинутые модели, на создание которых было затрачено не менее 10^25 FLOPs, или те, которые отнесены к данной группе Еврокомиссией на основе других признаков.

Так как Регламент концептуально является частью законодательства о качестве продукции, его реализация в значительной степени опирается на гармонизированные стандарты, которые постепенно начинают разрабатываться на уровне ЕС. Иными словами, стандарты позволяют интерпретировать местами абстрактные нормативные требования в понятные практические шаги. Однако в отношении моделей ИИ общего назначения работа над стандартами ещё не началась, и из-за бурного развития технологий она может затянуться ещё как минимум на несколько лет. Поэтому до вступления в силу гармонизованных стандартов провайдеры для выполнения требований закона могут опираться на данный кодекс.

Таким образом, кодекс важен, так как:

- он начнёт применяться на практике уже совсем скоро;

- определит векторы для дальнейшей разработки стандартов;

- за счёт широкого участия ИИ-разработчиков со всего мира, по сути, определит лучшие практики не только для того, чтобы соответствовать законодательству ЕС, но и для регулирования на уровне других стран и международных организаций.

Из чего он состоит?

Документ состоит из трёх основных частей, которые в целом корреспондируют рабочим группам:

1. требования для поставщиков моделей ИИ общего назначения (прозрачность и копирайт);

2. таксономия системных рисков;

3. требования для поставщиков моделей ИИ общего назначения, представляющих системные риски (меры по управлению рисками, а также по их оценке и снижению).

Что по итогам обсуждений?

Сейчас эксперты дали обратную связь по поводу первого проекта документа (текст тут). Предложений довольно много, но если резюмировать в двух словах, то:

- необходимо убрать любые разночтения кодекса с Регламентом, так как сейчас некоторые положения кажутся более широкими, что ожидаемо вызывает разночтения между бизнесом и гражданским обществом;

- необходимо сильнее конкретизировать нормативные требования, чтобы с юридической, технической и организационной сторон не оставалось вопросов относительно достаточности принятых мер для исполнения законодательства.

Что дальше?

Новый раунд обсуждений и вариант текста мы увидим в январе. Финальный текст кодекса будет готов к 1 мая 2025 года.

А мы с вами далее разберём отдельно каждую из частей документа в последующих постах 🐱.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥622
Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 2

Продолжаем анализировать проект Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Сегодня на очереди прозрачность и авторские права. Напоминаю, что это не финальная версия документа, поэтому с высокой вероятностью мы увидим корректировку отдельных положений. Тем не менее уже понятен вектор, в котором будут соблюдаться требования Регламента ЕС об ИИ.

Прозрачность

Регламент ЕС об ИИ в статьях 53(1)(a) и 53(1)(b) со ссылками на Приложения XI и XII устанавливает обязанность для поставщиков моделей ИИ общего назначения разрабатывать, регулярно обновлять и предоставлять документацию как AI Office, так и последующим поставщикам, которые планируют интегрировать модель ИИ в свои продукты.

- Кодекс более подробно раскрывает требования к этой документации. Не буду останавливаться на деталях, лучше приложу скриншоты из документа. Отмечу, что необходимо обращать внимание на столбцы справа, поскольку часть данных должна раскрываться только AI Office, а другая — также последующим поставщикам. Например, число параметров модели должно раскрываться обеим группам, а детальная информация об архитектуре и слоях модели ИИ — только AI Office.

- Политика допустимого использования. В кодексе содержится перечень того, что должна включать данная политика, которая должна быть разработана поставщиками моделей ИИ. Кратко: разрешённые виды использования моделей ИИ (включая высокорисковые, если применимо), описание мер и протоколов безопасности, которым должны следовать последующие поставщики, а также ситуации, при которых доступ к моделям может быть ограничен разработчиками. Прим.: данные политики уже и так достаточно популярны среди ИИ-разработчиков. Однако все они достаточно разные по содержанию. В кодексе предпринята попытка сделать унифицированный шаблон документа.

Авторские права

Регламент в статье 53(1)(c) требует от поставщиков моделей ИИ общего назначения соблюдать законодательство ЕС об авторском праве. Кодекс более конкретно определяет шаги, которые необходимо предпринять для достижения соблюдения законодательства.

- Должна быть разработана политика защиты авторских прав (copyright policy), охватывающая все этапы жизненного цикла модели ИИ (включая возможные модификации и дообучение, если это будет предусмотрено последующими рекомендациями AI Office).

- Поставщики обязаны проявлять должную осмотрительность перед использованием наборов данных, предоставленных третьими сторонами по договору. Например, необходимо запрашивать подтверждение того, что набор данных создан в соответствии с законодательством ЕС о защите авторских прав. Для крупного бизнеса также предусмотрена обязанность снижать риски нарушения авторских прав при интеграции моделей ИИ в свои продукты последующими поставщиками.

- При сборе данных для создания наборов данных для машинного обучения необходимо удостоверяться, что контент не защищён авторским правом в рамках законодательства ЕС. Для этого, как минимум, нужно следовать файлу robots.txt (запрет на сбор данных с сайтов), не дискриминировать такие сайты в поисковой выдаче (если модель используется как поисковая система) и не собирать данные из пиратских источников (имеется соответствующий список). Поставщики моделей ИИ обязуются следить за лучшими практиками в сфере защиты авторских прав (например, новыми технологиями машинного отказа от майнинга). Крупный бизнес также должен обсуждать существующие проблемы с правообладателями при посредничестве Еврокомиссии.

- Поставщики обязаны размещать на своих сайтах информацию о мерах, принимаемых для соблюдения требований отказа от сбора данных. Например, следует указывать информацию об используемых краулерах и их соответствии файлу robots.txt. Также необходимо создать единый контактный центр для взаимодействия с правообладателями.

- По запросу AI Office поставщики должны предоставлять детальную информацию об источниках данных в наборах данных, чтобы обеспечить проверку выполнения политики защиты авторских прав.
2🔥822👍1
Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 3

Друзья, возвращаюсь к вам с ещё одной частью разбора проект Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Сегодня пытаемся понять, что же представляют собой системные риски, которые могут исходить от некоторых моделей ИИ.

Что в регламенте?

Как я уже отмечал ранее, Регламент ЕС об ИИ выделяет две группы моделей ИИ: модели ИИ общего назначения и модели ИИ общего назначения, представляющие системные риски.

Системный риск определяется в документе следующим образом: это риск, характерный для высокоэффективных возможностей моделей ИИ общего назначения, оказывающий значительное влияние на рынок ЕС в силу своего охвата или в силу фактического или обоснованно прогнозируемого негативного воздействия на здоровье, личную и общественную безопасность, основные права человека или общество в целом. Такой риск может распространяться в масштабах всей цепочки создания стоимости.

Что в кодексе?

Кодекс определяет следующие пять групп системных рисков. Их природа связана с характеристиками моделей ИИ (можно увидеть на скриншоте).

- Киберпреступления: риски, связанные с использованием моделей ИИ для проведения кибератак, например, через обнаружение или эксплуатацию уязвимостей информационных систем.

- Химические, биологические, радиологические и ядерные риски (ХБРЯ): риски, связанные с использованием ИИ как продукции двойного назначения, включая разработку, использование и приобретение различных видов вооружений.

- Потеря контроля: риски, связанные с потерей контроля со стороны человека над продвинутыми автономными моделями ИИ.

- Автоматизированное использование моделей ИИ для исследований и разработки других моделей ИИ: риски, связанные с резким увеличением темпов развития ИИ-технологий, что потенциально может привести к их непредсказуемому развитию.

- Убеждение и манипулирование: риски, связанные с использованием моделей ИИ для дезинформации или манипуляции, способные нанести ущерб демократическим ценностям и правам человека. Это может выражаться во вмешательстве в выборы, потере доверия к СМИ, социальной гомогенизации или чрезмерном упрощении знаний.

- Дискриминация в крупном масштабе: риски, связанные с использованием моделей ИИ для дискриминации отдельных лиц, групп или сообществ.

Кроме того, в документе выделены три группы потенциальных источников риска, исходящих от моделей ИИ общего назначения: опасные возможности моделей ИИ; опасные свойства моделей ИИ, дополнительные факторы и социально-технический контекст (подробнее на скриншотах).

Следует отметить, что этот перечень пока довольно примерный. В процессе следующих итераций работы над документом количество групп и степень конкретности изложения материала могут измениться. Это было предметом обсуждения на соответствующей рабочей группе. Однако уже сейчас можно понять общий ход мыслей разработчиков документа.

В завершающем посте мы разберём, каким образом кодекс предлагает поставщикам моделей ИИ общего назначения уменьшать системные риски с технической и организационной сторон.
4👍22
Посетил GPAI Summit 2024: делюсь впечатлениями

Друзья, декабрь выдался адским, поэтому постов было меньше. Но все постепенно налаживается. Вместе с тем мне есть, чем поделиться. Например, 3–4 декабря я посетил в Белграде саммит GPAI.

Что еще за GPAI?

Да, я тоже с трудом себя переучивал, но GPAI — это не только ИИ общего назначения (General Purpose AI), но еще и Глобальное партнерство в сфере ИИ (Global Partnership on AI). В него входят страны ОЭСР и ряд дополнительных участников, которые договорились добровольно исполнять принципы ОЭСР.

Что было интересного?

Мероприятие было масштабным и включало множество секций и торжественных мероприятий.

Больше всего мне запомнилось выступление Стюарта Рассела, с книги которого во многом и началось мое путешествие в мир науки об ИИ. Ранее я многократно смотрел записи его лекций и докладов на мероприятиях, поэтому было особенно интересно и трогательно наконец увидеть его лекцию собственными глазами. Большая ее часть была посвящена возможности создания AGI и связанным с этим рискам, а также AI Safety. Кстати, про последнюю у ученого в 2019 году вышла замечательная книга — Human Compatible: Artificial Intelligence and the Problem of Control.

Если резюмировать сказанное, можно выделить два основных вывода:

1. AGI вполне можно создать к 2030 году. Однако существуют несколько фундаментальных проблем, таких как ограничения существующих архитектур и возможное исчерпание данных, которые могут остановить развитие технологий и привести к новой «зиме ИИ», как это уже случалось ранее несколько раз.

2. Все существующие модели ИИ подвержены совершению ошибок и уязвимы к взлому, поэтому важно прочертить «красные линии» их возможного использования.

Отдельная сессия была посвящена ИИ-регулированию, где также удалось послушать известных спикеров.

В частности, Габриэле Маццини, один из авторов Регламента ЕС об ИИ, рассказал об имплементации акта. Он также подчеркнул, что в скором времени будет разработан новый крупный документ — Digital Fairness Act, направленный на защиту прав потребителей на цифровых рынках и запрет недобросовестных практик.

Далее прошел круглый стол, на котором с небольшими докладами выступили: Мерв Хикок (Center for AI and Digital Policy), Киоко Йошинага (Keio University), Майя Богатай Янчич (Open Data and Intellectual Property), Тилль Кляйн (appliedAI), Каныш Тулеушин (министр цифрового развития, инноваций и аэрокосмической промышленности Казахстана). Модерировал дискуссию Милан Здравкович (University of Nis).

Обсуждение в основном было сосредоточено на соотношении мягкого и жесткого подходов к регулированию в сфере ИИ. Например, спикер из Японии отметила: чем более жесткие в стране социальные нормы, тем меньше необходимость в правовых нормах (сильное заявление, проверять мы его, конечно, не будем).

Маленький анекдот для любителей ИИ-регулирования по мотивам дискуссии на одной из секций:

Заместитель генсека ОЭСР Ульрик Вестергаард Кнудсен в своем выступлении рассуждал о том, что регулирование в сфере ИИ должно быть «умным», а не «глупым». На что модератор задал ему вопрос: «Считаете ли вы Регламент ЕС об ИИ примером умного регулирования?» А спикер ответил: «В Регламенте мне нравится только одна часть — определение систем ИИ, которое было позаимствовано из принципов ОЭСР» 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍108
Что представляет собой оценка воздействия на фундаментальные права человека для систем ИИ повышенного риска в соответствии с Регламентом ЕС об ИИ?

Друзья, поздравляю с наступившим Новым годом! Надеюсь, все успели хотя бы немного перевести дух и побыть с близкими 🤩. Ну а мы продолжаем разбираться в мире ИИ-регулирования, в котором уже произошло много интересного. Начнем с чего-то небольшого, но полезного для практики.

Рабочая группа по ИИ и данным Confederation of European Data Protection Organisations (CEDPO) недавно начала публиковать небольшие статьи, призванные объяснить отдельные положения Регламента и обратить внимание на проблемы и тонкости правоприменения (конечно, они не являются официальным толкованием).

Последняя из публикаций посвящена оценке воздействия на фундаментальные права человека для отдельных систем ИИ повышенного риска, предусмотренной статьей 27 Регламента.

Что это за оценка?

Статья 27 Регламента предусматривает необходимость проведения такой оценки для эксплуататоров (deployers) отдельных систем повышенного риска (кратко: публичные услуги, оценка кредитоспособности и страхования жизни) до развертывания. Важно отметить, что данная оценка призвана минимизировать новые риски, возникающие на стадии применения систем ИИ, и не отменяет обязательства, возложенные на их разработчиков.

Какие права относятся к фундаментальным?

Те, которые обозначены в Хартии ЕС об основных правах (детали можно посмотреть на скриншотах).

Что входит в оценку?

- описание назначения системы ИИ и процессов, в рамках которых она будет использоваться;

- описание периода времени и частоты использования системы ИИ;

- категории физических лиц и их групп, которые могут пострадать от использования системы ИИ;

- конкретные риски причинения вреда, которые могут повлиять на физических лиц или их группы;

- описание мер по обеспечению надзора со стороны человека в соответствии с инструкциями по применению системы ИИ;

- меры, которые должны быть приняты в случае возникновения негативных последствий, включая механизмы внутреннего управления и рассмотрения жалоб.

Позднее AI Office должен разработать шаблон документа и средства автоматизации, чтобы упростить процесс проведения оценки для эксплуататоров.

Как соотносится с GDPR?

Если какое-либо из перечисленных обязательств уже выполнено в рамках проведения оценки воздействия на защиту персональных данных, предусмотренной статьей 35 GDPR, то оценка воздействия на фундаментальные права человека для систем ИИ повышенного риска должна дополнять ее.

Что еще полезно изучить?

Если хотите более подробно изучить этот вопрос, рекомендую свежую статью Алессандро Мантелеро.

Также 28 января состоится презентация первой методологии по проведению оценки воздействия на фундаментальные права человека для систем ИИ повышенного риска.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥743👍3
Обновлён MIT AI Risk Repository

В конце года команда исследователей, занимающаяся ведением репозитория ИИ-рисков (MIT AI Risk Repository), объявила, что в него были добавлены риски из 13 новых источников.

К ним, например, можно отнести известные прошлогодние публикации:

- Bengio et al. (2024) International Scientific Report on the Safety of Advanced AI (interim report);

- Zeng et al. (2024) AI risk categorization decoded (AIR 2024): From government regulations to corporate policies;

- G'sell (2024) Regulating under uncertainty: Governance options for generative AI.

+ Китайский AI Safety Governance Framework и Американский NIST AI RMF: Generative Artificial Intelligence Profile (600-1).

Таким образом, теперь база данных содержит более 1000 рисков, основанных на классификациях из 56 источников.

Подробнее:

Ссылка на репозиторий

Обзор изменений

Статья с описанием репозитория и методик
64👍2🔥2