howtocomply_AI: право и ИИ
1.27K subscribers
203 photos
4 videos
6 files
291 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Скоро стартует второй поток курса по AI Governance от RPPA, на котором я буду преподавать

Друзья, в этом году я продолжаю преподавать на курсе AI Governance, который проводит Regional Privacy Professionals Association.

Зачем и кому он нужен?

Курс поможет за несколько месяцев подробно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов.

Это будет полезно не только юристам, но и всем, кто вовлечён в выстраивание процессов вокруг систем ИИ, включая DPO, специалистов по комплаенсу, управлению рисками и информационной безопасностью, а также руководителей направлений, продуктовых и проектных менеджеров.

Чем, на мой взгляд, этот курс удачен?

- Все преподаватели — фанаты своего дела. Каждый из них отвечает за занятия в рамках своей экспертизы: технические основы преподаёт инженер, за оборот данных и IP отвечают профильные специалисты и т. д. Это даёт возможность получить ценные экспертные знания и ознакомиться с разными точками зрения.

- Курс ориентирован на практику. Он помогает освоить ключевые навыки для выстраивания системы управления ИИ в организации. Подробно рассматриваются такие её элементы, как работа с данными, интеллектуальная собственность, управление рисками и качеством, а также кибербезопасность. Кроме того, домашние задания основаны на разборе и обсуждении реальных кейсов, с которыми сталкиваются преподаватели.

Материал сбалансирован, поэтому изученные лучшие практики можно применять как в иностранных юрисдикциях, так и в России. Полученные знания также помогут в подготовке к международным сертификациям, например AIGP от IAPP.

Мой вклад в курс

В рамках курса я проведу занятия по регулированию в сфере разработки и применения систем и моделей ИИ в ЕС, США и КНР, а также приму участие в семинарах и других активностях 🐱 .

Когда стартует обучение?

Занятия во втором потоке начинаются уже через несколько недель. Более подробно с программой можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥743👍1
В России решили пожить ещё пару лет без регулирования в сфере ИИ

Именно такие новости вчера появились по итогам презентации нацпроекта «Экономика данных».

Это хорошо или плохо?

Очень часто правовое регулирование напрасно ассоциируют с палками в колёса бизнеса. Однако такой палкой может быть только некачественное (или даже намеренно вредное) либо чрезмерное регулирование. В то же время отсутствие чётких и понятных правил, напротив, заставляет бизнес тратить больше денег на комплаенс и оценку рисков или вовсе выбирать иные юрисдикции.

Понятны ли сейчас правила в России?

К сожалению, нет. До сих пор полностью не решён вопрос с доступом к данным для бизнеса. Большинство принятых решений привели лишь к созданию государственной монополии на данные, при которой государственные органы могут сами решать, кому предоставлять доступ, а кому — нет. Отсутствует однозначное понимание того, каким образом могут охраняться модели ИИ, а также входные и выходные результаты их работы. Продолжаются бесконечные споры об особенностях применения норм гражданского права к случаям причинения вреда в результате функционирования систем ИИ.

Кроме того, никак, помимо общего законодательства, не регулируется применение систем ИИ в наиболее чувствительных областях — таких как образование, труд, финансовые услуги и т. д. Как мы недавно увидели на примере DeepSeek, граждане никак не защищены и от некачественной работы иностранных продуктов.

Однако наиболее важной проблемой, о которой я неоднократно писал ранее, является отсутствие каких-либо требований к разработке и применению систем ИИ со стороны государственных органов. По сути, сейчас все эти вопросы остаются полностью произвольными (подробнее писал об этом тут).

Нужно ли уже что-то делать бизнесу?

В отсутствие государственного регулирования и сформулированных органами власти лучших практик единственными мотиваторами могут быть конкурентные преимущества и деловая репутация. Иными словами, с одной стороны, важно избежать наступления негативных последствий (утечек данных, низкого качества работы моделей, юридических проблем), а с другой — сделать так, чтобы использование ваших систем ИИ было прозрачным и не отпугивало контрагентов из-за чрезмерных рисков.

Поэтому вне зависимости от регулирования крайне важно внутри организации постепенно выстраивать комплексную систему управления ИИ.

Что уже можно начать делать?

В мире сейчас набирает популярность стандарт ИСО/МЭК 42001, направленный на создание и поддержание системы ИИ-менеджмента внутри организации. К его плюсам можно отнести интеграцию с другими стандартами ИСО/МЭК (как связанными с ИИ, так и из смежных отраслей), а также его совместимость с региональным мягким и жёстким регулированием. Например, внедрение ИСО/МЭК 42001 может стать первым шагом в подготовке к соблюдению Регламента ЕС об ИИ, а в сочетании с NIST AI RMF и специализированными стандартами и законодательством — основой для выхода на американский рынок.

Например, этот стандарт уже используют Microsoft и их поставщики, а также Anthropic и некоторые европейские компании.

Отдельно хочу отметить, что стандарт ИСО/МЭК 42001, равно как и ряд других примыкающих к нему стандартов в сфере ИИ, с незначительными изменениями был утверждён Росстандартом и начал применяться с 1 января 2025 года.

Таким образом, можно не ждать решения своих проблем от государства, а начать самостоятельно выстраивать процессы так, чтобы обеспечить безопасность своих продуктов и иметь в дальнейшем более понятные перспективы для выхода на международные рынки.

Если у вас или вашего бизнеса есть вопросы, связанные с ИИ, буду рад помочь — обращайтесь за консультацией 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥9621
Смотрим базу про LLM от Андрея Карпатого

Друзья, если кто-то ещё не видел, советую провести выходные с пользой. Исследователь Андрей Карпатый (ex-Tesla и OpenAI) продолжает делиться серией лекций, в которых простым языком рассказывает о внутреннем устройстве и сценариях работы с современными моделями ИИ.

Вчера у него вышла лекция, в которой он описывает, какие функции есть у наиболее популярных ИИ-продуктов и как ими эффективно пользоваться.

Если есть время, советую начать просмотр с предыдущей лекции, где Андрей на пальцах объясняет, как создаются и из чего состоят большие языковые модели.
6🔥53
В четверг участвую в подкасте, приходите обсудить будущее ИИ-регулирования и задать вопросы

Друзья, в этот четверг я приму участие в прямом эфире на канале моих друзей Privacy GDPR Russia.

Что обсудим?

Я поделюсь своим опытом работы в AI Governance, а также поразмышляем о том, каким будет будущее ИИ-регулирования в наши турбулентные времена и как оно повлияет на юристов и бизнес.

Буду рад дискуссии и вопросам, приходите!

Когда эфир?

6 марта в 18:00 по МСК.
🔥932
Что люди думают про ИИ: изучаем данные опросов из разных стран

Исследование с примерно таким названием недавно было опубликовано на сайте Centre for the Governance of AI. Важно отметить, что авторы не проводили отдельного изучения общественного мнения, а агрегировали данные из уже существующих исследований.

Что интересного?

- Осведомлённость об ИИ растёт, особенно после массового распространения генеративных систем ИИ, но знания о технологии остаются поверхностными. Многие респонденты затрудняются объяснить, как именно работает ИИ, и не всегда правильно определяют, используется ли он в конкретных продуктах и услугах.

- В США и Великобритании чаще преобладает обеспокоенность по поводу последствий развития ИИ. Например, в США за последний год число тех, кто беспокоится о развитии ИИ, заметно выросло. При этом повышение осведомлённости не делает людей автоматически технооптимистами. Наоборот, по мере знакомства с технологиями отношение становится всё более поляризованным.

- Большинство американцев и британцев считают, что ИИ увеличит безработицу в целом, хотя меньшая часть респондентов беспокоится за своё собственное рабочее место.

- В США и Великобритании значительное большинство людей (65–71%) выступает за регулирование в сфере ИИ. Однако уровень доверия к потенциальным регуляторам низкий: всего около четверти респондентов доверяют правительству, а доверие к технологическим компаниям ещё ниже. Большинство людей не верит в способность индустрии к эффективному саморегулированию.

- Отношение к ИИ сильно варьируется в зависимости от страны. Например, в Китае и Индии примерно две трети респондентов позитивно воспринимают влияние ИИ, тогда как в США и Великобритании доля оптимистов заметно ниже.

- Уровень поддержки развития ИИ зависит от сферы его применения. Например, в США поддержка использования ИИ в медицинской диагностике значительно выше, чем в финансовых услугах. Серьёзную обеспокоенность вызывает применение ИИ в военных целях. Использование автономного вооружения воспринимается негативно большинством опрошенных.
4🔥22
Сходил на подкаст про AI Governance. Делюсь с вами записью

Друзья, на днях я писал, что приму участие в прямом эфире про AI Governance на канале Privacy GDPR Russia.

Полную запись разговора можно найти по ссылке.

Если хотите продолжить дискуссию или задать вопросы, пишите в комментарии или в обратную связь🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥943
Ищем себя на компасе отношения к ИИ

Друзья, в пятницу отвелкаю вас от серьезьезных тем 🤩. Наверняка многие в разные этапы жизни проходили знаменитый компас политических предпочтений, который снова стал популярным из-за текущего хайпа вокруг противостояния между правыми и левыми (никогда такого не было и вот опять).

Благодаря автору поста теперь у нас есть возможность проверить свое отношение к развитию искусственного интеллекта (с определенной долей иронии, конечно).

Нашли себя? Делитесь в комментариях!

Я заметил, что балансирую где-то между правым верхним и нижним левым квадратами.

Пояснения от автора:

Ось тряски-восторга: является ли ИИ потенциальным злом или добром.
Тряска (ИИ — опасная вещь, которая изменит жизнь людей к худшему) vs Восторг (ИИ — полезная вещь, которая изменит жизнь людей к лучшему).

Ось скептики-верующие: насколько ИИ с его текущей траекторией развития вообще способен поменять мир вокруг.
Скептики (ИИ сейчас никакой не интеллект, его развитие зашло в тупик) vs Верующие (ИИ изменит всё, технология развивается семимильными шагами).ется семимильными шагами).


Оргинал можно найти тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥322
Что может быть лучше цветов и шампанского на 8 марта? Непредвзятые алгоритмы и равноправие

Друзья, поздравляю всех с праздником! Желаю вам вдохновения как у Фей-Фей Ли, а решимости – как у Сары Коннор (но без необходимости противостоять катастрофическим рискам) 🤩

Модели ИИ, безусловно, являются слепками общества со всеми его положительными и отрицательными чертами. При этом этот слепок не статичен: ИИ-системы не только отражают реальность, но и активно формируют ее, многократно усиливая эффекты за счет их целенаправленного использования — от автоматизации пропаганды до распространения дезинформации и разжигания агрессии. Более того, этот поток информации заполняет интернет, попадает в наборы данных и становится основой для последующих поколений ИИ-моделей. В результате негативные эффекты не просто сохраняются, а отдаются нарастающим эхом, создавая долгосрочные системные риски для общества.

Именно поэтому безопасность ИИ становится критически важной задачей, и ее неотъемлемым элементом является правовое регулирование. В последнее время мы много говорим о поиске баланса между развитием бизнеса и чрезмерными ограничениями, но эта дискуссия не должна приводить к обесцениванию необходимости правового регулирования как такового.

В качестве подарка делюсь небольшой подборкой исследований по вопросам равноправия и предвзятости в системах ИИ:

- Исследование, подготовленное по заказу Совета Европы, посвящено рискам ИИ, связанным с дискриминацией. Несмотря на то, что документ по современным меркам уже не новый (2023 год), он позволяет освежить знания о предвзятости ИИ и ознакомиться с объемным списком источников.

- Исследование под эгидой ЮНЕСКО, в котором анализируются специфические предвзятости больших языковых моделей в отношении женщин и девочек. Документ небольшой, но содержит много интересной информации. Например, о различиях в культурных и гендерных стереотипах, проявляющихся в результатах работы открытых ИИ-моделей в странах Глобального Юга и Севера.

- Свежий сборник статей The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence предлагает множество интересных публикаций на актуальные темы, включая вопросы этики и обеспечения равноправия.
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥53
Опубликован третий вариант текста Европейского Кодекса практик для ИИ общего назначения

Друзья, чудо свершилось: с опозданием в пару недель опубликован третий вариант Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice).

Текст изменился структурно и, на первый взгляд, стал проще. Также появились конкретные формы документов. Но не будем делать скороспелых выводов — с подробным разбором, как обычно, вернусь позже.

Кроме того, теперь запущен отдельный сайт, где кодекс можно изучить в более интерактивной форме с комментариями.

Мои обзоры предыдущих версий документа можно найти тут и тут. Также там можно почитать, что это вообще за документ и для чего он нужен.
522
Изучаем статистику и юзкейсы по использованию систем ИИ в России

Друзья, сегодня информация, которая не связана непосредственно с регулированием, но тоже на него влияет. На днях я наткнулся на документ, подготовленный Национальным центром развития искусственного интеллекта при Правительстве РФ (НЦРИИ) по итогам 2024 года. Он содержит результаты мониторинга внедрения решений в сфере ИИ в приоритетных отраслях экономики.

Мониторинг выполнен на основе анализа агрегированных баз данных и более 350 открытых источников информации. В ходе обзора проанализировано более 1000 сообщений информационных ресурсов о применении ИИ российскими организациями.

По результатам мониторинга отобрано 277 примеров внедрения ИИ в 16 приоритетных отраслях экономики.

Основные цифры:

- Промышленность лидирует среди отраслей по внедрению ИИ — 11,9 % кейсов.

- Второе место занимает торговля с долей 10,4 % внедрений.

- Основные используемые технологии — перспективные методы ИИ и распознавание и синтез речи (по 17,3 %).

- Подавляющее большинство проектов реализуется на федеральном уровне (70 %).

- Лидирующие разработчики ИИ-решений — университеты (34 %), «Яндекс» (22 %) и «Сбер» (19 %).

Также в документе можно ознакомиться со списком конкретных юзкейсов.

Однако необходимо помнить, что список очевидно не является полным: не учтены небольшие ИИ-проекты, а также те, которые сейчас находятся на этапе разработки или проектирования и ещё не были анонсированы публично.
7🔥33
Начался вебинар о будущем развитии законодательства ЕС об ответственности за вред, причиненный системами ИИ

Друзья, только что начался прямой эфир вебинара, на котором обсуждаются вопросы, связанные с будущим развитием законодательства ЕС об ответственности за вред, причиненный системами ИИ. Прежде всего, обсуждение касается особенностей применения Регламента ЕС об ИИ, а также множества вопросов, связанных с отказом от разработки Директивы об ответственности в сфере ИИ (AI Liability Directive, AILD) и дальнейшей гармонизацией подходов государств-членов.

Трансляцию и запись можно посмотреть здесь.

Спикеры:

Philipp Hacker – Professor of Law and Ethics of the Digital Society, European University Viadrina

Shu Li – Assistant Professor in Law and AI, Erasmus School of Law, Erasmus University Rotterdam

Beatrice Schütte – Postdoctoral Researcher, University of Helsinki and University of Lapland

Miriam Buiten – Professor of Law and Economics, University of St. Gallen

Mindy Duffourc – Assistant Professor of Private Law, Maastricht University

Jan De Bruyne – Professor of IT Law, KU Leuven, Head of KU Centre for IT & IP Law

Martin Ebers – Professor of IT Law, Tartu University, President of RAILS
631
Forwarded from вычислить по IP (Anastasia Skovpen)
В Китае опубликованы «Меры по маркировке контента, созданного или синтезированного искусственным интеллектом». Китай тут идет в ногу с ЕС, поэтому интересно наблюдать, где их дорожки сходятся.

Основная задача создать фреймворк для регулирования маркировки генераций, направленный в первую очередь на всех интернет-услуг (платформы, приложения), предлагающих контент, созданный или измененный с помощью ИИ.

Предлагается использовать два типа маркировки: явную и скрытую.

1. Явная маркировка: видимые маркеры (текст, символы, графические элементы) в контенте или встроенные в интерфейс.

2. Скрытая маркировка: технические маркеры (метаданные, цифровые водяные знаки), встроенные в данные файла и несчитываемые пользователями.

Документ описывает каким образом должна выглядеть маркировка для разных видов контента, например: текст должен содержать маркеры в начале, конце или середине текста, либо встроены в интерфейс; а статичные изображения и видео должны содержать маркеры на ключевых кадрах или в интерфейсах воспроизведения. Скрытая маркировка должна включать атрибуты контента, название/идентификатор поставщика, ID контента.

Очень важно, что провайдеры сервиса должен обеспечить маркировку таким образом, чтобы она сохранялась в скачанных или скопированных файлах.

Также возлагаются обязанности на платформы, распространяющие контент (соцсети и прочие информационные посредники): они должны проверять метаданные на наличие скрытой маркировки. Если контент помечен как ИИ, обязательно сопровождение материала видимым предупреждением.

Если же скрытых меток нет, но пользователь при загрузке заявляет об ИИ, интерфейс платформы должен посетить такой контент, как «вероятно создан ИИ».

Если скрытых меток нет, но сервисы платформы обнаружили использование ИИ, то предлагают маркировать такой материал фразой «подозревается создание ИИ».

Магазины приложений будут обязаны требовать раскрытия использования ИИ сервисов в приложении, а также проверять соответствие маркировки у поставщиков ИИ сервисов.

Из интересных предложений: если пользователи ИИ сервисов запрашивают контент без меток, они должны подтвердить свою ответственность, а провайдеры сервисов обязаны хранить логи не менее 6 месяцев.

Пользователи обязаны маркировать ИИ контент при публикации: удаление, изменение, подделка или сокрытие меток запрещены, равно как и предоставление инструментов для обхода маркировки.

Меры по маркировке вступают в силу 1 сентября 2025.
🔥8👍2
В Великобритании разрабатывают опросник AI Management Essentials (AIME)

Британский Department for Science, Innovation and Technology (DSIT) в декабре выпустил опросник, который призван помочь малому и среднему бизнесу самостоятельно оценить зрелость своих систем менеджмента ИИ.

Опросник основан на ключевых положениях таких документов, как EU AI Act, стандарт ISO/IEC 42001 и NIST AI Risk Management Framework. Предполагается, что инструмент позволит организациям идентифицировать пробелы в существующих практиках и получить рекомендации по их устранению.

В настоящее время AIME проходит стадию публичного обсуждения. После завершения консультаций планируется публикация обновлённой версии с учётом собранных комментариев.
🔥321
Заметил, что скриншоты о содержании AIME не приложились — отправляю в догонку 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍1
CyberLaw School запускает курс по регулированию ИИ. Мои лекции там тоже будут — приходите послушать

Друзья, CyberLaw School запускает новый курс по регулированию ИИ. На нём можно будет узнать как об основах нормативного правового регулирования в этой сфере и его ключевых проблемах, так и о том, как системы ИИ безопасно использовать в деятельности юриста.

В рамках курса я расскажу про регулирование ИИ в России, ответственность за вред, причинённый ИИ, а также про управление данными и интеллектуальной собственностью.

Записаться на курс и узнать все подробности можно по ссылке.
1🔥633
Опубликован отчёт AI Index Report за 2025 год от Stanford HAI

Друзья, принёс вам интересное чтиво на ночь. Сегодня вышел очередной отчёт AI Index Report от Stanford HAI (год пролетел незаметно). Отчёт получился гигантский, но нас традиционно интересует глава 6: Policy and Governance.

В этом году, в соответствии с политическим трендом, Россия вновь появилась в индексе — причём сразу на ведущих позициях по числу принятых законов в сфере ИИ за 2024 год. Качество этих инициатив, к сожалению, в индексе не оценивается (но мы с вами их оценили 🐱).

Пробежимся по основным выводам:

Во всем мире увеличивается количество упоминаний ИИ в законодательной повестке. В 2024 году в 75 ключевых странах упоминания ИИ в парламентских и законодательных обсуждениях выросли на 21,3 %, увеличившись с 1 557 в 2023 году до 1 889. С 2016 года общее количество таких упоминаний выросло более чем в девять раз.

Расширяется сеть международных институтов безопасности в сфере ИИ. Первые из них появились в ноябре 2023 года в США и Великобритании. Аналогичные или схожие организации в 2024 году были созданы в Японии, Франции, Германии, Италии, Сингапуре, Южной Корее, Австралии, Канаде и на уровне Европейского союза.

Штаты США становятся лидерами в законодательном регулировании ИИ на фоне медленного прогресса на федеральном уровне. В 2016 году был принят всего один закон на уровне штатов, касающийся ИИ; к 2023 году их количество выросло до 49. Только за последний год это число более чем удвоилось, достигнув 131. Хотя количество законопроектов об ИИ на федеральном уровне также увеличилось, фактически принятых актов остаётся немного.

Количество федеральных нормативных актов США, связанных с ИИ, стремительно растёт. В 2024 году было принято 59 нормативных актов по вопросам ИИ — более чем вдвое больше по сравнению с 25 в 2023 году. Эти акты исходили от 42 различных федеральных агентств, что также вдвое больше по сравнению с 21 агентством в предыдущем году.

Штаты США ужесточают регулирование дипфейков. До 2024 года только пять штатов — Калифорния, Мичиган, Вашингтон, Техас и Миннесота — приняли законы, регулирующие использование дипфейков в контексте выборов. В 2024 году аналогичные меры приняли ещё 15 штатов, включая Орегон, Нью-Мексико и Нью-Йорк. В целом к 2024 году регулирование дипфейков ввели уже 24 штата.

Правительства по всему миру инвестируют в инфраструктуру для развития ИИ. Канада объявила о пакете инвестиций в инфраструктуру ИИ на сумму 2,4 миллиарда долларов. Китай запустил фонд в размере 47,5 миллиарда долларов для стимулирования производства полупроводников. Франция выделила на развитие ИИ-инфраструктуры 109 миллиардов евро, Индия — 1,25 миллиарда долларов, а инициатива Project Transcendence в Саудовской Аравии предполагает инвестиции в объёме 100 миллиардов долларов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥43👍1