howtocomply_AI: право и ИИ
1.27K subscribers
204 photos
4 videos
6 files
292 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Ищем себя на компасе отношения к ИИ

Друзья, в пятницу отвелкаю вас от серьезьезных тем 🤩. Наверняка многие в разные этапы жизни проходили знаменитый компас политических предпочтений, который снова стал популярным из-за текущего хайпа вокруг противостояния между правыми и левыми (никогда такого не было и вот опять).

Благодаря автору поста теперь у нас есть возможность проверить свое отношение к развитию искусственного интеллекта (с определенной долей иронии, конечно).

Нашли себя? Делитесь в комментариях!

Я заметил, что балансирую где-то между правым верхним и нижним левым квадратами.

Пояснения от автора:

Ось тряски-восторга: является ли ИИ потенциальным злом или добром.
Тряска (ИИ — опасная вещь, которая изменит жизнь людей к худшему) vs Восторг (ИИ — полезная вещь, которая изменит жизнь людей к лучшему).

Ось скептики-верующие: насколько ИИ с его текущей траекторией развития вообще способен поменять мир вокруг.
Скептики (ИИ сейчас никакой не интеллект, его развитие зашло в тупик) vs Верующие (ИИ изменит всё, технология развивается семимильными шагами).ется семимильными шагами).


Оргинал можно найти тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥322
Что может быть лучше цветов и шампанского на 8 марта? Непредвзятые алгоритмы и равноправие

Друзья, поздравляю всех с праздником! Желаю вам вдохновения как у Фей-Фей Ли, а решимости – как у Сары Коннор (но без необходимости противостоять катастрофическим рискам) 🤩

Модели ИИ, безусловно, являются слепками общества со всеми его положительными и отрицательными чертами. При этом этот слепок не статичен: ИИ-системы не только отражают реальность, но и активно формируют ее, многократно усиливая эффекты за счет их целенаправленного использования — от автоматизации пропаганды до распространения дезинформации и разжигания агрессии. Более того, этот поток информации заполняет интернет, попадает в наборы данных и становится основой для последующих поколений ИИ-моделей. В результате негативные эффекты не просто сохраняются, а отдаются нарастающим эхом, создавая долгосрочные системные риски для общества.

Именно поэтому безопасность ИИ становится критически важной задачей, и ее неотъемлемым элементом является правовое регулирование. В последнее время мы много говорим о поиске баланса между развитием бизнеса и чрезмерными ограничениями, но эта дискуссия не должна приводить к обесцениванию необходимости правового регулирования как такового.

В качестве подарка делюсь небольшой подборкой исследований по вопросам равноправия и предвзятости в системах ИИ:

- Исследование, подготовленное по заказу Совета Европы, посвящено рискам ИИ, связанным с дискриминацией. Несмотря на то, что документ по современным меркам уже не новый (2023 год), он позволяет освежить знания о предвзятости ИИ и ознакомиться с объемным списком источников.

- Исследование под эгидой ЮНЕСКО, в котором анализируются специфические предвзятости больших языковых моделей в отношении женщин и девочек. Документ небольшой, но содержит много интересной информации. Например, о различиях в культурных и гендерных стереотипах, проявляющихся в результатах работы открытых ИИ-моделей в странах Глобального Юга и Севера.

- Свежий сборник статей The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence предлагает множество интересных публикаций на актуальные темы, включая вопросы этики и обеспечения равноправия.
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥53
Опубликован третий вариант текста Европейского Кодекса практик для ИИ общего назначения

Друзья, чудо свершилось: с опозданием в пару недель опубликован третий вариант Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice).

Текст изменился структурно и, на первый взгляд, стал проще. Также появились конкретные формы документов. Но не будем делать скороспелых выводов — с подробным разбором, как обычно, вернусь позже.

Кроме того, теперь запущен отдельный сайт, где кодекс можно изучить в более интерактивной форме с комментариями.

Мои обзоры предыдущих версий документа можно найти тут и тут. Также там можно почитать, что это вообще за документ и для чего он нужен.
522
Изучаем статистику и юзкейсы по использованию систем ИИ в России

Друзья, сегодня информация, которая не связана непосредственно с регулированием, но тоже на него влияет. На днях я наткнулся на документ, подготовленный Национальным центром развития искусственного интеллекта при Правительстве РФ (НЦРИИ) по итогам 2024 года. Он содержит результаты мониторинга внедрения решений в сфере ИИ в приоритетных отраслях экономики.

Мониторинг выполнен на основе анализа агрегированных баз данных и более 350 открытых источников информации. В ходе обзора проанализировано более 1000 сообщений информационных ресурсов о применении ИИ российскими организациями.

По результатам мониторинга отобрано 277 примеров внедрения ИИ в 16 приоритетных отраслях экономики.

Основные цифры:

- Промышленность лидирует среди отраслей по внедрению ИИ — 11,9 % кейсов.

- Второе место занимает торговля с долей 10,4 % внедрений.

- Основные используемые технологии — перспективные методы ИИ и распознавание и синтез речи (по 17,3 %).

- Подавляющее большинство проектов реализуется на федеральном уровне (70 %).

- Лидирующие разработчики ИИ-решений — университеты (34 %), «Яндекс» (22 %) и «Сбер» (19 %).

Также в документе можно ознакомиться со списком конкретных юзкейсов.

Однако необходимо помнить, что список очевидно не является полным: не учтены небольшие ИИ-проекты, а также те, которые сейчас находятся на этапе разработки или проектирования и ещё не были анонсированы публично.
7🔥33
Начался вебинар о будущем развитии законодательства ЕС об ответственности за вред, причиненный системами ИИ

Друзья, только что начался прямой эфир вебинара, на котором обсуждаются вопросы, связанные с будущим развитием законодательства ЕС об ответственности за вред, причиненный системами ИИ. Прежде всего, обсуждение касается особенностей применения Регламента ЕС об ИИ, а также множества вопросов, связанных с отказом от разработки Директивы об ответственности в сфере ИИ (AI Liability Directive, AILD) и дальнейшей гармонизацией подходов государств-членов.

Трансляцию и запись можно посмотреть здесь.

Спикеры:

Philipp Hacker – Professor of Law and Ethics of the Digital Society, European University Viadrina

Shu Li – Assistant Professor in Law and AI, Erasmus School of Law, Erasmus University Rotterdam

Beatrice Schütte – Postdoctoral Researcher, University of Helsinki and University of Lapland

Miriam Buiten – Professor of Law and Economics, University of St. Gallen

Mindy Duffourc – Assistant Professor of Private Law, Maastricht University

Jan De Bruyne – Professor of IT Law, KU Leuven, Head of KU Centre for IT & IP Law

Martin Ebers – Professor of IT Law, Tartu University, President of RAILS
631
Forwarded from вычислить по IP (Anastasia Skovpen)
В Китае опубликованы «Меры по маркировке контента, созданного или синтезированного искусственным интеллектом». Китай тут идет в ногу с ЕС, поэтому интересно наблюдать, где их дорожки сходятся.

Основная задача создать фреймворк для регулирования маркировки генераций, направленный в первую очередь на всех интернет-услуг (платформы, приложения), предлагающих контент, созданный или измененный с помощью ИИ.

Предлагается использовать два типа маркировки: явную и скрытую.

1. Явная маркировка: видимые маркеры (текст, символы, графические элементы) в контенте или встроенные в интерфейс.

2. Скрытая маркировка: технические маркеры (метаданные, цифровые водяные знаки), встроенные в данные файла и несчитываемые пользователями.

Документ описывает каким образом должна выглядеть маркировка для разных видов контента, например: текст должен содержать маркеры в начале, конце или середине текста, либо встроены в интерфейс; а статичные изображения и видео должны содержать маркеры на ключевых кадрах или в интерфейсах воспроизведения. Скрытая маркировка должна включать атрибуты контента, название/идентификатор поставщика, ID контента.

Очень важно, что провайдеры сервиса должен обеспечить маркировку таким образом, чтобы она сохранялась в скачанных или скопированных файлах.

Также возлагаются обязанности на платформы, распространяющие контент (соцсети и прочие информационные посредники): они должны проверять метаданные на наличие скрытой маркировки. Если контент помечен как ИИ, обязательно сопровождение материала видимым предупреждением.

Если же скрытых меток нет, но пользователь при загрузке заявляет об ИИ, интерфейс платформы должен посетить такой контент, как «вероятно создан ИИ».

Если скрытых меток нет, но сервисы платформы обнаружили использование ИИ, то предлагают маркировать такой материал фразой «подозревается создание ИИ».

Магазины приложений будут обязаны требовать раскрытия использования ИИ сервисов в приложении, а также проверять соответствие маркировки у поставщиков ИИ сервисов.

Из интересных предложений: если пользователи ИИ сервисов запрашивают контент без меток, они должны подтвердить свою ответственность, а провайдеры сервисов обязаны хранить логи не менее 6 месяцев.

Пользователи обязаны маркировать ИИ контент при публикации: удаление, изменение, подделка или сокрытие меток запрещены, равно как и предоставление инструментов для обхода маркировки.

Меры по маркировке вступают в силу 1 сентября 2025.
🔥8👍2
В Великобритании разрабатывают опросник AI Management Essentials (AIME)

Британский Department for Science, Innovation and Technology (DSIT) в декабре выпустил опросник, который призван помочь малому и среднему бизнесу самостоятельно оценить зрелость своих систем менеджмента ИИ.

Опросник основан на ключевых положениях таких документов, как EU AI Act, стандарт ISO/IEC 42001 и NIST AI Risk Management Framework. Предполагается, что инструмент позволит организациям идентифицировать пробелы в существующих практиках и получить рекомендации по их устранению.

В настоящее время AIME проходит стадию публичного обсуждения. После завершения консультаций планируется публикация обновлённой версии с учётом собранных комментариев.
🔥321
Заметил, что скриншоты о содержании AIME не приложились — отправляю в догонку 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍1
CyberLaw School запускает курс по регулированию ИИ. Мои лекции там тоже будут — приходите послушать

Друзья, CyberLaw School запускает новый курс по регулированию ИИ. На нём можно будет узнать как об основах нормативного правового регулирования в этой сфере и его ключевых проблемах, так и о том, как системы ИИ безопасно использовать в деятельности юриста.

В рамках курса я расскажу про регулирование ИИ в России, ответственность за вред, причинённый ИИ, а также про управление данными и интеллектуальной собственностью.

Записаться на курс и узнать все подробности можно по ссылке.
1🔥633
Опубликован отчёт AI Index Report за 2025 год от Stanford HAI

Друзья, принёс вам интересное чтиво на ночь. Сегодня вышел очередной отчёт AI Index Report от Stanford HAI (год пролетел незаметно). Отчёт получился гигантский, но нас традиционно интересует глава 6: Policy and Governance.

В этом году, в соответствии с политическим трендом, Россия вновь появилась в индексе — причём сразу на ведущих позициях по числу принятых законов в сфере ИИ за 2024 год. Качество этих инициатив, к сожалению, в индексе не оценивается (но мы с вами их оценили 🐱).

Пробежимся по основным выводам:

Во всем мире увеличивается количество упоминаний ИИ в законодательной повестке. В 2024 году в 75 ключевых странах упоминания ИИ в парламентских и законодательных обсуждениях выросли на 21,3 %, увеличившись с 1 557 в 2023 году до 1 889. С 2016 года общее количество таких упоминаний выросло более чем в девять раз.

Расширяется сеть международных институтов безопасности в сфере ИИ. Первые из них появились в ноябре 2023 года в США и Великобритании. Аналогичные или схожие организации в 2024 году были созданы в Японии, Франции, Германии, Италии, Сингапуре, Южной Корее, Австралии, Канаде и на уровне Европейского союза.

Штаты США становятся лидерами в законодательном регулировании ИИ на фоне медленного прогресса на федеральном уровне. В 2016 году был принят всего один закон на уровне штатов, касающийся ИИ; к 2023 году их количество выросло до 49. Только за последний год это число более чем удвоилось, достигнув 131. Хотя количество законопроектов об ИИ на федеральном уровне также увеличилось, фактически принятых актов остаётся немного.

Количество федеральных нормативных актов США, связанных с ИИ, стремительно растёт. В 2024 году было принято 59 нормативных актов по вопросам ИИ — более чем вдвое больше по сравнению с 25 в 2023 году. Эти акты исходили от 42 различных федеральных агентств, что также вдвое больше по сравнению с 21 агентством в предыдущем году.

Штаты США ужесточают регулирование дипфейков. До 2024 года только пять штатов — Калифорния, Мичиган, Вашингтон, Техас и Миннесота — приняли законы, регулирующие использование дипфейков в контексте выборов. В 2024 году аналогичные меры приняли ещё 15 штатов, включая Орегон, Нью-Мексико и Нью-Йорк. В целом к 2024 году регулирование дипфейков ввели уже 24 штата.

Правительства по всему миру инвестируют в инфраструктуру для развития ИИ. Канада объявила о пакете инвестиций в инфраструктуру ИИ на сумму 2,4 миллиарда долларов. Китай запустил фонд в размере 47,5 миллиарда долларов для стимулирования производства полупроводников. Франция выделила на развитие ИИ-инфраструктуры 109 миллиардов евро, Индия — 1,25 миллиарда долларов, а инициатива Project Transcendence в Саудовской Аравии предполагает инвестиции в объёме 100 миллиардов долларов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥43👍1
ИИ-ответственность внутри цепочки поставок систем ИИ: разбираем отчет Mozilla

Друзья, на прошлой неделе меня немного засосала работа, но вот я наконец-то выбрался к вам💻. Да и повод выдался более чем достойный: в начале месяца вышел классный отчёт от компании Mozilla — AI Liability Along the Value Chain.

Разберем основные идеи:

Авторы предлагают свою концепцию сочетания виновной и строгой ответственности:

По общему правилу на всех субъектов, вовлечённых в цепочку поставок систем ИИ, предлагается распространять правила о виновной ответственности. При этом в ряде случаев, если в отношения вовлечены сразу несколько субъектов (разные поставщики, эксплуатанты и поставщики компонентов), могут применяться правила солидарной ответственности — хотя авторы подчёркивают, что это зависит от конкретных обстоятельств.

Однако из этого правила предлагается несколько исключений:

Продуктовая ответственность — для поставщиков потребительских ИИ-продуктов, ориентированных на широкое использование непрофессиональной аудиторией. По сути, то, что уже реализовано в обновлённой PLD (про то, что это такое, писал тут).

Квази-строгая ответственность — для крупных участников рынка, обладающих значительным контролем над технологическими цепочками и влиянием на экономику. Это позволяет им воздействовать на других коммерческих субъектов внутри цепочки поставок систем ИИ. Авторы фактически предлагают ввести для них продуктовую ответственность, распространяющуюся даже за пределы классического деликтного права.

Строгая ответственность — для поставщиков ИИ-систем в наиболее опасных сферах, таких как критическая инфраструктура, безопасность, оборона.

Также авторы затрагивают сферу договорных отношений, особенно актуальную, когда правовое регулирование ещё находится в стадии разработки. В частности, отмечается: в B2B-сфере компании менее склонны уходить от ответственности, чем в B2C. Содержание договоров и политик, с одной стороны, напрямую влияет на исход судебных споров, а с другой — может быть оспорено, если противоречит закону или публичному порядку.

Кто-то ещё пользуется браузером Mozilla? У меня, например, он был до перехода год назад на Arc.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥533
Кто виноват, когда система ИИ ошибается, и что с этим делать?

В блоге Нетологии на Хабре вышла небольшая статья про ответственность за вред, причинённый системами ИИ, для которой я дал комментарий 🤢.

Внутри — о том, кто виноват, если при функционировании системы ИИ был причинён вред, каким образом ответственность распределяется внутри цепочки поставок, а также как можно снизить риски некачественной работы ИИ-систем с технической стороны.

Ознакомиться можно по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥653