Еще один вечер дипфейков: смотрим на новые законопроекты в российском парламенте
Обычно я редко пишу про законопроекты, так как далеко не все из них становятся в конечном итоге законами. А даже если и становятся, то не всегда в первоначальном виде.
Однако с учетом того, что мы вчера разбирали китайский опыт маркировки синтетического контента, сегодня решил продолжить тему и обратить ваше внимание на несколько вчерашних законопроектов, внесенных в российский парламент.
Охрана голоса
Предлагается внести в ГК РФ новую статью: 152.3. Охрана голоса гражданина.
Она почти слово в слово повторяет уже существующую статью 152.1., которая направлена на охрану изображения.
Обнародование и дальнейшее использование голоса гражданина (в том числе записи, в которой он содержится, или записи, в которой содержится воссозданный с помощью специальных технологий голос гражданина) допускаются только с согласия этого гражданина. После смерти — с согласия членов семьи, за исключением случаев, когда имеется публичный интерес или запись производилась за плату.
Судя по пояснительной записке, документ был разработан Альянсом в сфере ИИ и Национальной Федерацией Музыкальной Индустрии.
Уголовная ответственность за дипфейки
Предлагается внести в ряд статей УК РФ квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и (или) биометрических данных гражданина.
Во время прочтения у меня сразу возникло внутреннее негодование. Однако отзывы Правительства и Верховного суда его несколько уменьшили:
1) дипфейки никак не урегулированы законодательно, так что их еще рано запрещать;
2) нет оснований полагать, что общественной опасности именно такого рода деяний достаточно, чтобы вводить более строгое наказание;
3) формулировка “фальсифицированные или искусственно созданные” — слишком расплывчатая.
Так что вряд ли документ будет принят в таком виде.
Оффтоп
В последнее время я довольно часто использую ChatGPT в голосовом режиме с моделькой GPT-4o. Например, мне с ней интересно поболтать во время приготовления еды или мытья посуды. Сегодня я случайно обнаружил забавный для юриста факт. Система правильно ставит ударение в слове договОр, но ошибается в других падежах. В моем случае она говорила договорАми вместо ударение на нужный слог — договОрами. Конечно, я дал фидбэк и сразу вспомнил времена учебы и преподавания на юрфаке 🐱.
_______
Источник | #howtocomply_AI
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Обычно я редко пишу про законопроекты, так как далеко не все из них становятся в конечном итоге законами. А даже если и становятся, то не всегда в первоначальном виде.
Однако с учетом того, что мы вчера разбирали китайский опыт маркировки синтетического контента, сегодня решил продолжить тему и обратить ваше внимание на несколько вчерашних законопроектов, внесенных в российский парламент.
Охрана голоса
Предлагается внести в ГК РФ новую статью: 152.3. Охрана голоса гражданина.
Она почти слово в слово повторяет уже существующую статью 152.1., которая направлена на охрану изображения.
Обнародование и дальнейшее использование голоса гражданина (в том числе записи, в которой он содержится, или записи, в которой содержится воссозданный с помощью специальных технологий голос гражданина) допускаются только с согласия этого гражданина. После смерти — с согласия членов семьи, за исключением случаев, когда имеется публичный интерес или запись производилась за плату.
Судя по пояснительной записке, документ был разработан Альянсом в сфере ИИ и Национальной Федерацией Музыкальной Индустрии.
Уголовная ответственность за дипфейки
Предлагается внести в ряд статей УК РФ квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и (или) биометрических данных гражданина.
Во время прочтения у меня сразу возникло внутреннее негодование. Однако отзывы Правительства и Верховного суда его несколько уменьшили:
1) дипфейки никак не урегулированы законодательно, так что их еще рано запрещать;
2) нет оснований полагать, что общественной опасности именно такого рода деяний достаточно, чтобы вводить более строгое наказание;
3) формулировка “фальсифицированные или искусственно созданные” — слишком расплывчатая.
Так что вряд ли документ будет принят в таком виде.
Оффтоп
В последнее время я довольно часто использую ChatGPT в голосовом режиме с моделькой GPT-4o. Например, мне с ней интересно поболтать во время приготовления еды или мытья посуды. Сегодня я случайно обнаружил забавный для юриста факт. Система правильно ставит ударение в слове договОр, но ошибается в других падежах. В моем случае она говорила договорАми вместо ударение на нужный слог — договОрами. Конечно, я дал фидбэк и сразу вспомнил времена учебы и преподавания на юрфаке 🐱.
_______
Источник | #howtocomply_AI
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Коммерсантъ
Подменяется в вину
Законодатели предложили добавить дипфейки в Уголовный кодекс
В Китае обсуждают уточнения требований по маркировке синтетического контента
Cyberspace Administration of China (CAC) опубликовала для общественных обсуждений документ, обобщающий практики по маркировке синтетического контента.
Напомню, что в Китае уже действует акт, который предполагает такую маркировку для поставщиков информационных услуг — Provisions on the Administration of Deep Synthesis Internet Information Services. На этот же акт ссылаются и временные меры по управлению сервисами генеративного ИИ (Interim Measures for the Management of Generative Artificial Intelligence Services).
На кого будет распространяться документ?
На всех поставщиков информационных услуг, определяемых тремя актами: двумя, которые мы уже рассмотрели выше, + более ранний акт о алгоритмических рекомендациях (Provisions on the Management of Algorithmic Recommendations in Internet Information Services).
В сферу действия не входят, например, предприятия, образовательные и научные организации, если они не предоставляют услуги населению.
Что включается в синтетический контент?
Текст, изображения, аудио-, видео- и другая информация, созданная, сгенерированная и синтезированная с использованием технологии ИИ.
Как есть виды маркировок?
Выделяется явная маркировка (логотип, графика, звук, текст) и скрытая (метаданные и иные технические средства маркировки, скрытые от глаз пользователя).
Скрытая маркировка будет обязательной для всех поставщиков сервисов глубокого синтеза.
Конкретизированы требования к чат-ботам
Контент должен быть явно помечен через текстовые, звуковые, визуальные подсказки или другие предупреждающие знаки в начале, конце или середине материала. Это включает текстовые метки для текстов, голосовые или звуковые сигналы для аудио, визуальные подсказки для изображений и видео, а также заметные предупреждающие знаки для виртуальных сцен. Также требуется явная идентификация синтетического контента при его загрузке, выгрузке и копировании.
Требования для держателей цифровых платформ
Они будут обязаны проверять:
а) метаданные файлов на наличие неявных идентификаторов и добавлять предупреждающие метки вокруг контента, если таковые идентификаторы обнаружены или заявлены пользователем;
б) если идентификаторы отсутствуют, но есть признаки синтеза, контент должен быть помечен как подозреваемо синтетический;
в) в метаданные должны быть внесены атрибуты синтетического контента, включая данные о платформе и номере контента;
г) платформы должны напоминать пользователям о необходимости заявлять, если контент является синтетическим.
Иные требования
Поставщики услуг должны будут в понятном для пользователя виде отразить требования к маркировке в пользовательском соглашении.
Если пользователь захочет получить контент без маркировки, то поставщик может его предоставить, указав на ответственность за его распространение в пользовательском соглашении. Также поставщик должен хранить оригиналы контента не менее шести месяцев.
Если речь идет про магазин приложений, то держатель платформы должен проверять, имеются ли в загружаемых приложениях функции по созданию синтетического контента.
Интересно, что специфических норм об ответственности не предусмотрено: нарушители будут преследоваться в рамках общего законодательства.
_______
Источник | #howtocomply_AI
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Cyberspace Administration of China (CAC) опубликовала для общественных обсуждений документ, обобщающий практики по маркировке синтетического контента.
Напомню, что в Китае уже действует акт, который предполагает такую маркировку для поставщиков информационных услуг — Provisions on the Administration of Deep Synthesis Internet Information Services. На этот же акт ссылаются и временные меры по управлению сервисами генеративного ИИ (Interim Measures for the Management of Generative Artificial Intelligence Services).
На кого будет распространяться документ?
На всех поставщиков информационных услуг, определяемых тремя актами: двумя, которые мы уже рассмотрели выше, + более ранний акт о алгоритмических рекомендациях (Provisions on the Management of Algorithmic Recommendations in Internet Information Services).
В сферу действия не входят, например, предприятия, образовательные и научные организации, если они не предоставляют услуги населению.
Что включается в синтетический контент?
Текст, изображения, аудио-, видео- и другая информация, созданная, сгенерированная и синтезированная с использованием технологии ИИ.
Как есть виды маркировок?
Выделяется явная маркировка (логотип, графика, звук, текст) и скрытая (метаданные и иные технические средства маркировки, скрытые от глаз пользователя).
Скрытая маркировка будет обязательной для всех поставщиков сервисов глубокого синтеза.
Конкретизированы требования к чат-ботам
Контент должен быть явно помечен через текстовые, звуковые, визуальные подсказки или другие предупреждающие знаки в начале, конце или середине материала. Это включает текстовые метки для текстов, голосовые или звуковые сигналы для аудио, визуальные подсказки для изображений и видео, а также заметные предупреждающие знаки для виртуальных сцен. Также требуется явная идентификация синтетического контента при его загрузке, выгрузке и копировании.
Требования для держателей цифровых платформ
Они будут обязаны проверять:
а) метаданные файлов на наличие неявных идентификаторов и добавлять предупреждающие метки вокруг контента, если таковые идентификаторы обнаружены или заявлены пользователем;
б) если идентификаторы отсутствуют, но есть признаки синтеза, контент должен быть помечен как подозреваемо синтетический;
в) в метаданные должны быть внесены атрибуты синтетического контента, включая данные о платформе и номере контента;
г) платформы должны напоминать пользователям о необходимости заявлять, если контент является синтетическим.
Иные требования
Поставщики услуг должны будут в понятном для пользователя виде отразить требования к маркировке в пользовательском соглашении.
Если пользователь захочет получить контент без маркировки, то поставщик может его предоставить, указав на ответственность за его распространение в пользовательском соглашении. Также поставщик должен хранить оригиналы контента не менее шести месяцев.
Если речь идет про магазин приложений, то держатель платформы должен проверять, имеются ли в загружаемых приложениях функции по созданию синтетического контента.
Интересно, что специфических норм об ответственности не предусмотрено: нарушители будут преследоваться в рамках общего законодательства.
_______
Источник | #howtocomply_AI
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
China Daily
China proposes new regulation on labeling AI-generated content
BEIJING -- The Cyberspace Administration of China (CAC) has released a draft regulation that aims to standardize the labeling of AI-generated synthetic content to protect national security and public interests.
Есть ли консенсус в том, какие положения должны содержать политики допустимого использования моделей ИИ? https://t.iss.one/howtocomply_AI/457
Для ответа на этот вопрос обратимся к статье Кевина Клаймана (Stanford HAI), которая была недавно опубликована в сборнике по итогам конференции AI Ethics and Society (кстати, там много других интересных докладов.) Автор проанализировал политики и схожие документы 30 наиболее известных разработчиков моделей ИИ в США, ЕС и Китае.
Остановимся на некоторых интересных выводах:
- законодательство отдельных стран и регионов уже обязывает разработчиков и провайдеров контролировать использование моделей, но, как правило, не устанавливает требований к конкретной форме документов. В Китае пост {...продолжить в источнике}
_______
Источник | #howtocomply_AI
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Для ответа на этот вопрос обратимся к статье Кевина Клаймана (Stanford HAI), которая была недавно опубликована в сборнике по итогам конференции AI Ethics and Society (кстати, там много других интересных докладов.) Автор проанализировал политики и схожие документы 30 наиболее известных разработчиков моделей ИИ в США, ЕС и Китае.
Остановимся на некоторых интересных выводах:
- законодательство отдельных стран и регионов уже обязывает разработчиков и провайдеров контролировать использование моделей, но, как правило, не устанавливает требований к конкретной форме документов. В Китае пост {...продолжить в источнике}
_______
Источник | #howtocomply_AI
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Telegram
howtocomply_AI: право и ИИ
Есть ли консенсус в том, какие положения должны содержать политики допустимого использования моделей ИИ?
Для ответа на этот вопрос обратимся к статье Кевина Клаймана (Stanford HAI), которая была недавно опубликована в сборнике по итогам конференции AI Ethics…
Для ответа на этот вопрос обратимся к статье Кевина Клаймана (Stanford HAI), которая была недавно опубликована в сборнике по итогам конференции AI Ethics…
Еврокомиссия опубликовала проект имплементационного акта о создании совета независимых экспертов для AI Office
На сайте Еврокомиссии для общественного обсуждения размещен проект имплементационного акта о создании совета независимых экспертов для поддержки AI Office.
Что это за совет?
Совет создается в соответствии со статьей 68 Регламента ЕС об ИИ, которая прямо предусмотрела необходимость формирования соответствующего органа для поддержки правоприменителей и принятия для этого отдельного имплементационного акта.
Для чего он нужен?
Главной задачей совета будет консультирование AI Office относительно применения положений Регламента к системам и моделям ИИ общего назначения:
- совет должен предупреждать AI Office в том случае, если он обнаружил, что какая-либо система или модель ИИ достигла пороговых значений или представляет неизвестные ранее риски и должна быть отнесена к группе, представляющих системные риски (прим.: такие модели ИИ можно условно назвать продвинутыми. Регламент накладывает на их провайдеров большие требования);
- совет содействует разработке инструментов и методик по оценке возможностей систем и моделей ИИ;
- совет предоставляет рекомендации по классификации моделей ИИ общего назначения, представляющих системные риски;
- совет готовит необходимые инструменты и шаблоны документов.
Помимо этого, совет также будет помогать AI Office и компетентным органам стран-членов ЕС в исполнении функций, возложенных на них Регламентом.
Кто в него будет входить?
Совет будет состоять из компетентных межотраслевых независимых экспертов и формироваться на два года на основе открытого конкурса. Для членов совета возможно однократное продление полномочий на еще один срок. Конкретная численность органа будет определяться отдельно каждые два года Еврокомиссией и AI Board (совет представителей стран-членов ЕС). Однако общая численность совета не должна превышать 60 человек (эта цифра пока под вопросом). Эксперты, которые отвечают критериям, но по каким-то причинам не попали в текущий совет, включаются в резервный список.
_______
Источник | #howtocomply_AI
@F_S_C_P
Стань спонсором!
На сайте Еврокомиссии для общественного обсуждения размещен проект имплементационного акта о создании совета независимых экспертов для поддержки AI Office.
Что это за совет?
Совет создается в соответствии со статьей 68 Регламента ЕС об ИИ, которая прямо предусмотрела необходимость формирования соответствующего органа для поддержки правоприменителей и принятия для этого отдельного имплементационного акта.
Для чего он нужен?
Главной задачей совета будет консультирование AI Office относительно применения положений Регламента к системам и моделям ИИ общего назначения:
- совет должен предупреждать AI Office в том случае, если он обнаружил, что какая-либо система или модель ИИ достигла пороговых значений или представляет неизвестные ранее риски и должна быть отнесена к группе, представляющих системные риски (прим.: такие модели ИИ можно условно назвать продвинутыми. Регламент накладывает на их провайдеров большие требования);
- совет содействует разработке инструментов и методик по оценке возможностей систем и моделей ИИ;
- совет предоставляет рекомендации по классификации моделей ИИ общего назначения, представляющих системные риски;
- совет готовит необходимые инструменты и шаблоны документов.
Помимо этого, совет также будет помогать AI Office и компетентным органам стран-членов ЕС в исполнении функций, возложенных на них Регламентом.
Кто в него будет входить?
Совет будет состоять из компетентных межотраслевых независимых экспертов и формироваться на два года на основе открытого конкурса. Для членов совета возможно однократное продление полномочий на еще один срок. Конкретная численность органа будет определяться отдельно каждые два года Еврокомиссией и AI Board (совет представителей стран-членов ЕС). Однако общая численность совета не должна превышать 60 человек (эта цифра пока под вопросом). Эксперты, которые отвечают критериям, но по каким-то причинам не попали в текущий совет, включаются в резервный список.
_______
Источник | #howtocomply_AI
@F_S_C_P
Стань спонсором!
European Commission - Have your say
Более сотни компаний согласились добровольно соблюдать отдельные положения Регламента ЕС об ИИ
Еврокомиссия опубликовала список из 115 компаний, которые подписали ИИ-пакт.
TLDR: ИИ-пакт направлен на то, чтобы бизнес добровольно начал исполнять ряд требований Регламента до того, как они начнут официально действовать (сроки — тут). Все это будет происходить в постоянной коммуникации компаний и компетентных органов, что позволит первым плавно и надежно подготовиться к соблюдению законодательных требований, а вторым — поработать над правоприменением и выработать лучшие практики.
Подробнее про пакт я писал тут и тут.
Кто, например, есть в списке?
Европа: Siemens, Airbus, IKEA, Deutsche Telekom, Vodafone, Orange, Dassault Systèmes, INGKA Group и Scania.
США: Microsoft, IBM, Google, Amazon, Palantir, Salesforce, Cisco, Autodesk, Hewlett Packard Enterprise, Motorola Solutions, Snap, Workday, Adobe, Intuit и Qualcomm.
Канада: Cohere.
Индия: Infosys, Tata Consulting Services (TCS) и Wipro.
Япония: NEC.
Австралия: Atlassian.
Израиль: Corsight AI.
Новая Зеландия: Waiheke.
Кого мы не видим в списке?
В исходном списке отсутствуют Meta (запрещена в РФ), Apple, Anthropic и все китайские компании (включая TikTok и Tencent).
Что это значит?
Ничего. Участие в пакте добровольное и не отменяет того, что компании готовятся самостоятельно. Например, Politico пишет, что Meta уже проводит меры по соответствию требованиям Регламента и не исключает возможности присоединиться к пакту позднее.
_______
Источник | #howtocomply_AI
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Еврокомиссия опубликовала список из 115 компаний, которые подписали ИИ-пакт.
TLDR: ИИ-пакт направлен на то, чтобы бизнес добровольно начал исполнять ряд требований Регламента до того, как они начнут официально действовать (сроки — тут). Все это будет происходить в постоянной коммуникации компаний и компетентных органов, что позволит первым плавно и надежно подготовиться к соблюдению законодательных требований, а вторым — поработать над правоприменением и выработать лучшие практики.
Подробнее про пакт я писал тут и тут.
Кто, например, есть в списке?
Европа: Siemens, Airbus, IKEA, Deutsche Telekom, Vodafone, Orange, Dassault Systèmes, INGKA Group и Scania.
США: Microsoft, IBM, Google, Amazon, Palantir, Salesforce, Cisco, Autodesk, Hewlett Packard Enterprise, Motorola Solutions, Snap, Workday, Adobe, Intuit и Qualcomm.
Канада: Cohere.
Индия: Infosys, Tata Consulting Services (TCS) и Wipro.
Япония: NEC.
Австралия: Atlassian.
Израиль: Corsight AI.
Новая Зеландия: Waiheke.
Кого мы не видим в списке?
В исходном списке отсутствуют Meta (запрещена в РФ), Apple, Anthropic и все китайские компании (включая TikTok и Tencent).
Что это значит?
Ничего. Участие в пакте добровольное и не отменяет того, что компании готовятся самостоятельно. Например, Politico пишет, что Meta уже проводит меры по соответствию требованиям Регламента и не исключает возможности присоединиться к пакту позднее.
_______
Источник | #howtocomply_AI
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Shaping Europe’s digital future
AI Pact
The AI Pact encourages and supports organisations to plan ahead for the implementation of AI Act measures.