FSCP
17.3K subscribers
30.6K photos
3.56K videos
863 files
78K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Еще один вечер дипфейков: смотрим на новые законопроекты в российском парламенте

Обычно я редко пишу про законопроекты, так как далеко не все из них становятся в конечном итоге законами. А даже если и становятся, то не всегда в первоначальном виде.

Однако с учетом того, что мы вчера разбирали китайский опыт маркировки синтетического контента, сегодня решил продолжить тему и обратить ваше внимание на несколько вчерашних законопроектов, внесенных в российский парламент.

Охрана голоса

Предлагается внести в ГК РФ новую статью: 152.3. Охрана голоса гражданина.

Она почти слово в слово повторяет уже существующую статью 152.1., которая направлена на охрану изображения.

Обнародование и дальнейшее использование голоса гражданина (в том числе записи, в которой он содержится, или записи, в которой содержится воссозданный с помощью специальных технологий голос гражданина) допускаются только с согласия этого гражданина. После смерти — с согласия членов семьи, за исключением случаев, когда имеется публичный интерес или запись производилась за плату.
Судя по пояснительной записке, документ был разработан Альянсом в сфере ИИ и Национальной Федерацией Музыкальной Индустрии.

Уголовная ответственность за дипфейки

Предлагается внести в ряд статей УК РФ квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и (или) биометрических данных гражданина.

Во время прочтения у меня сразу возникло внутреннее негодование. Однако отзывы Правительства и Верховного суда его несколько уменьшили:

1) дипфейки никак не урегулированы законодательно, так что их еще рано запрещать;

2) нет оснований полагать, что общественной опасности именно такого рода деяний достаточно, чтобы вводить более строгое наказание;

3) формулировка “фальсифицированные или искусственно созданные” — слишком расплывчатая.

Так что вряд ли документ будет принят в таком виде.

Оффтоп

В последнее время я довольно часто использую ChatGPT в голосовом режиме с моделькой GPT-4o. Например, мне с ней интересно поболтать во время приготовления еды или мытья посуды. Сегодня я случайно обнаружил забавный для юриста факт. Система правильно ставит ударение в слове договОр, но ошибается в других падежах. В моем случае она говорила договорАми вместо ударение на нужный слог — договОрами. Конечно, я дал фидбэк и сразу вспомнил времена учебы и преподавания на юрфаке 🐱.
_______
Источник | #howtocomply_AI
@F_S_C_P

Узнай судьбу картами Таро:
Anna Taro bot
В Китае обсуждают уточнения требований по маркировке синтетического контента
Cyberspace Administration of China (CAC) опубликовала для общественных обсуждений документ, обобщающий практики по маркировке синтетического контента.

Напомню, что в Китае уже действует акт, который предполагает такую маркировку для поставщиков информационных услуг — Provisions on the Administration of Deep Synthesis Internet Information Services. На этот же акт ссылаются и временные меры по управлению сервисами генеративного ИИ (Interim Measures for the Management of Generative Artificial Intelligence Services).

На кого будет распространяться документ?

На всех поставщиков информационных услуг, определяемых тремя актами: двумя, которые мы уже рассмотрели выше, + более ранний акт о алгоритмических рекомендациях (Provisions on the Management of Algorithmic Recommendations in Internet Information Services).

В сферу действия не входят, например, предприятия, образовательные и научные организации, если они не предоставляют услуги населению.

Что включается в синтетический контент?

Текст, изображения, аудио-, видео- и другая информация, созданная, сгенерированная и синтезированная с использованием технологии ИИ.

Как есть виды маркировок?

Выделяется явная маркировка (логотип, графика, звук, текст) и скрытая (метаданные и иные технические средства маркировки, скрытые от глаз пользователя).

Скрытая маркировка будет обязательной для всех поставщиков сервисов глубокого синтеза.

Конкретизированы требования к чат-ботам

Контент должен быть явно помечен через текстовые, звуковые, визуальные подсказки или другие предупреждающие знаки в начале, конце или середине материала. Это включает текстовые метки для текстов, голосовые или звуковые сигналы для аудио, визуальные подсказки для изображений и видео, а также заметные предупреждающие знаки для виртуальных сцен. Также требуется явная идентификация синтетического контента при его загрузке, выгрузке и копировании.

Требования для держателей цифровых платформ

Они будут обязаны проверять:

а) метаданные файлов на наличие неявных идентификаторов и добавлять предупреждающие метки вокруг контента, если таковые идентификаторы обнаружены или заявлены пользователем;

б) если идентификаторы отсутствуют, но есть признаки синтеза, контент должен быть помечен как подозреваемо синтетический;

в) в метаданные должны быть внесены атрибуты синтетического контента, включая данные о платформе и номере контента;

г) платформы должны напоминать пользователям о необходимости заявлять, если контент является синтетическим.

Иные требования

Поставщики услуг должны будут в понятном для пользователя виде отразить требования к маркировке в пользовательском соглашении.

Если пользователь захочет получить контент без маркировки, то поставщик может его предоставить, указав на ответственность за его распространение в пользовательском соглашении. Также поставщик должен хранить оригиналы контента не менее шести месяцев.

Если речь идет про магазин приложений, то держатель платформы должен проверять, имеются ли в загружаемых приложениях функции по созданию синтетического контента.

Интересно, что специфических норм об ответственности не предусмотрено: нарушители будут преследоваться в рамках общего законодательства.
_______
Источник | #howtocomply_AI
@F_S_C_P

Узнай судьбу картами Таро:
Anna Taro bot
Есть ли консенсус в том, какие положения должны содержать политики допустимого использования моделей ИИ? https://t.iss.one/howtocomply_AI/457

Для ответа на этот вопрос обратимся к статье Кевина Клаймана (Stanford HAI), которая была недавно опубликована в сборнике по итогам конференции AI Ethics and Society (кстати, там много других интересных докладов.) Автор проанализировал политики и схожие документы 30 наиболее известных разработчиков моделей ИИ в США, ЕС и Китае.

Остановимся на некоторых интересных выводах:

- законодательство отдельных стран и регионов уже обязывает разработчиков и провайдеров контролировать использование моделей, но, как правило, не устанавливает требований к конкретной форме документов. В Китае пост {...продолжить в источнике}

_______
Источник | #howtocomply_AI
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney
Еврокомиссия опубликовала проект имплементационного акта о создании совета независимых экспертов для AI Office

На сайте Еврокомиссии для общественного обсуждения размещен проект имплементационного акта о создании совета независимых экспертов для поддержки AI Office.

Что это за совет?

Совет создается в соответствии со статьей 68 Регламента ЕС об ИИ, которая прямо предусмотрела необходимость формирования соответствующего органа для поддержки правоприменителей и принятия для этого отдельного имплементационного акта.

Для чего он нужен?

Главной задачей совета будет консультирование AI Office относительно применения положений Регламента к системам и моделям ИИ общего назначения:

- совет должен предупреждать AI Office в том случае, если он обнаружил, что какая-либо система или модель ИИ достигла пороговых значений или представляет неизвестные ранее риски и должна быть отнесена к группе, представляющих системные риски (прим.: такие модели ИИ можно условно назвать продвинутыми. Регламент накладывает на их провайдеров большие требования);

- совет содействует разработке инструментов и методик по оценке возможностей систем и моделей ИИ;

- совет предоставляет рекомендации по классификации моделей ИИ общего назначения, представляющих системные риски;

- совет готовит необходимые инструменты и шаблоны документов.

Помимо этого, совет также будет помогать AI Office и компетентным органам стран-членов ЕС в исполнении функций, возложенных на них Регламентом.

Кто в него будет входить?

Совет будет состоять из компетентных межотраслевых независимых экспертов и формироваться на два года на основе открытого конкурса. Для членов совета возможно однократное продление полномочий на еще один срок. Конкретная численность органа будет определяться отдельно каждые два года Еврокомиссией и AI Board (совет представителей стран-членов ЕС). Однако общая численность совета не должна превышать 60 человек (эта цифра пока под вопросом). Эксперты, которые отвечают критериям, но по каким-то причинам не попали в текущий совет, включаются в резервный список.

_______
Источник | #howtocomply_AI
@F_S_C_P

Стань спонсором!
Более сотни компаний согласились добровольно соблюдать отдельные положения Регламента ЕС об ИИ

Еврокомиссия опубликовала список из 115 компаний, которые подписали ИИ-пакт.

TLDR: ИИ-пакт направлен на то, чтобы бизнес добровольно начал исполнять ряд требований Регламента до того, как они начнут официально действовать (сроки — тут). Все это будет происходить в постоянной коммуникации компаний и компетентных органов, что позволит первым плавно и надежно подготовиться к соблюдению законодательных требований, а вторым — поработать над правоприменением и выработать лучшие практики.

Подробнее про пакт я писал тут и тут.

Кто, например, есть в списке?
Европа: Siemens, Airbus, IKEA, Deutsche Telekom, Vodafone, Orange, Dassault Systèmes, INGKA Group и Scania.

США: Microsoft, IBM, Google, Amazon, Palantir, Salesforce, Cisco, Autodesk, Hewlett Packard Enterprise, Motorola Solutions, Snap, Workday, Adobe, Intuit и Qualcomm.

Канада: Cohere.

Индия: Infosys, Tata Consulting Services (TCS) и Wipro.

Япония: NEC.

Австралия: Atlassian.

Израиль: Corsight AI.

Новая Зеландия: Waiheke.

Кого мы не видим в списке?

В исходном списке отсутствуют Meta (запрещена в РФ), Apple, Anthropic и все китайские компании (включая TikTok и Tencent).

Что это значит?

Ничего. Участие в пакте добровольное и не отменяет того, что компании готовятся самостоятельно. Например, Politico пишет, что Meta уже проводит меры по соответствию требованиям Регламента и не исключает возможности присоединиться к пакту позднее.

_______
Источник | #howtocomply_AI
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney