В США создан институт и консорциум безопасности искусственного интеллекта
На прошлой неделе в США были предприняты дальнейшие шаги по формированию Института безопасности ИИ (USAISI) при Национальном институте стандартов и технологий (NIST). Его создание было предусмотрено октябрьским Указом Президента США в сфере разработки и применения систем ИИ, определившего ключевые направления государственной политики в данной сфере (разбирал его тут).
В начале февраля министром торговли США Джиной Раймондо были назначены ключевые сотрудники из числа руководства. Возглавила институт Элизабет Келли, ранее работавшая в администрации Президента США и занимавшая центральное место в разработке указа.
В поддержку института был создан консорциум, который объединяет более 200 разнообразных организаций, так или иначе связанных с разработкой или безопасностью передовых моделей и систем ИИ. Основной задачей консорциума станет разработка подходов и методов оценки передовых моделей и систем ИИ, требований к их безопасности, систем управления рисками.
На прошлой неделе в США были предприняты дальнейшие шаги по формированию Института безопасности ИИ (USAISI) при Национальном институте стандартов и технологий (NIST). Его создание было предусмотрено октябрьским Указом Президента США в сфере разработки и применения систем ИИ, определившего ключевые направления государственной политики в данной сфере (разбирал его тут).
В начале февраля министром торговли США Джиной Раймондо были назначены ключевые сотрудники из числа руководства. Возглавила институт Элизабет Келли, ранее работавшая в администрации Президента США и занимавшая центральное место в разработке указа.
В поддержку института был создан консорциум, который объединяет более 200 разнообразных организаций, так или иначе связанных с разработкой или безопасностью передовых моделей и систем ИИ. Основной задачей консорциума станет разработка подходов и методов оценки передовых моделей и систем ИИ, требований к их безопасности, систем управления рисками.
U.S. Department of Commerce
U.S. Commerce Secretary Gina Raimondo Announces Key Executive Leadership at U.S. AI Safety Institute
The National Institute for Standards and Technology (NIST) at Commerce will house the U.S. AI Safety Institute
❤4🦄2
Обновления по проекту Регламента ЕС об ИИ
Немного новостей в продолжение недавнего большого поста о текущем состоянии процесса принятия проекта Регламента ЕС об ИИ.
Сегодня на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO) абсолютным большинством голосов документ был принят к рассмотрению. Тем самым европарламентарии тоже подтвердили соглашение со своей стороны.
Теперь текст будет вынесен на пленарное заседание Европарламента предположительно 10-11 апреля. Если документ на нем будет принят, то он снова поступит в Евросовет для окончательного формального принятия.
Немного новостей в продолжение недавнего большого поста о текущем состоянии процесса принятия проекта Регламента ЕС об ИИ.
Сегодня на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO) абсолютным большинством голосов документ был принят к рассмотрению. Тем самым европарламентарии тоже подтвердили соглашение со своей стороны.
Теперь текст будет вынесен на пленарное заседание Европарламента предположительно 10-11 апреля. Если документ на нем будет принят, то он снова поступит в Евросовет для окончательного формального принятия.
European Parliament
Artificial Intelligence Act: committees confirm landmark agreement
MEPs have endorsed at committee level the provisional agreement on the Artificial Intelligence Act that ensures safety and complies with fundamental rights.
❤4 3👍2
Исследователи изучили влияние открытых базовых моделей на общество и предложили систему оценки рисков
Позавчера группа из 25 ученых, представляющих авторитетные американские образовательные и исследовательские организации и технологические компании, опубликовала препринт статьи о влиянии базовых моделей, распространяющихся по открытым лицензиям, на общество (On the Societal Impact of Open Foundation Models). Первые авторы – Саяш Капур (Princeton) и Риши Боммасани (Stanford) нам хорошо известны по другим публикациям, которые я разбирал на канале. Полный текст статьи можно прочитать тут, а выжимку – тут.
В работе исследователи рассмотрели три основных темы:
Во-первых, они выделили ключевые характеристики открытых моделей (широкий доступ к ним, гибкость настройки и доработки под конкретные требования, а также невозможность ограничения доступа к модели и внешнего контроля над ней).
Во-вторых, исходя из указанных характеристик, авторы раскрыли их положительные стороны (включают более широкие возможности по определению поведения модели (относительно частных), лучше стимулируют научный прогресс и инновационное развитие, более прозрачны, способствуют разнообразию и конкуренции).
В-третьих, авторы изучили исследованные в литературе сценарии вредного использования открытых базовых моделей в таких сферах, как биобезопасность, кибербезопасность, создание дипфейков на основе голоса, целевой фишинг, дезинформация, распространение интимных изображения без согласия и материалы о сексуальном насилии над детьми. На основе выявленных рисков исследователи предложили свою систему оценки рисков (пример в скриншоте сверху).
Данная система состоит из шести пунктов:
- определение угроз;
- существующие риски (без относительно существования открытых БМ);
- существующие методы уменьшения этих рисков (без относительно существования открытых БМ);
- специфические риски, характерные только для открытых БМ;
- потенциальные возможности по уменьшению таких рисков;
- существующие неопределенности и возможные предположения.
Более наглядно понять, каким образом работает данная система оценки риска, можно на скриншоте над постом. Там подробно описывается оценка рисков на примере кибербезопасности.
Следует отметить, что вопрос о необходимости отдельных подходов к правовому регулированию в сфере разработки и применения открытых базовых моделей сейчас активно обсуждается на разнообразных площадках в большинстве стран и регионов. Например, в Указе Президента США Указом Президента США в сфере разработки и применения систем ИИ компетентным органам поручено оценить соответствующие риски и подготовить доклад. Схожие задачи возложены и на новый Британский AI Safety Institute.
Также данный вопрос пока урегулирован законодателями по касательной . Например, актуальный текст проекта Регламента ЕС об ИИ будет распространяться на системы ИИ, распространяемые по открытым лицензиям, только в тех случаях, когда они подпадают к требованиям о прозрачности или/и базовым моделям общего назначения (Title IV) или относятся к запрещенным системам ИИ или системам ИИ повышенного риска. Не регулируются открытые модели и Китайскими временными мерами.
Позавчера группа из 25 ученых, представляющих авторитетные американские образовательные и исследовательские организации и технологические компании, опубликовала препринт статьи о влиянии базовых моделей, распространяющихся по открытым лицензиям, на общество (On the Societal Impact of Open Foundation Models). Первые авторы – Саяш Капур (Princeton) и Риши Боммасани (Stanford) нам хорошо известны по другим публикациям, которые я разбирал на канале. Полный текст статьи можно прочитать тут, а выжимку – тут.
В работе исследователи рассмотрели три основных темы:
Во-первых, они выделили ключевые характеристики открытых моделей (широкий доступ к ним, гибкость настройки и доработки под конкретные требования, а также невозможность ограничения доступа к модели и внешнего контроля над ней).
Во-вторых, исходя из указанных характеристик, авторы раскрыли их положительные стороны (включают более широкие возможности по определению поведения модели (относительно частных), лучше стимулируют научный прогресс и инновационное развитие, более прозрачны, способствуют разнообразию и конкуренции).
В-третьих, авторы изучили исследованные в литературе сценарии вредного использования открытых базовых моделей в таких сферах, как биобезопасность, кибербезопасность, создание дипфейков на основе голоса, целевой фишинг, дезинформация, распространение интимных изображения без согласия и материалы о сексуальном насилии над детьми. На основе выявленных рисков исследователи предложили свою систему оценки рисков (пример в скриншоте сверху).
Данная система состоит из шести пунктов:
- определение угроз;
- существующие риски (без относительно существования открытых БМ);
- существующие методы уменьшения этих рисков (без относительно существования открытых БМ);
- специфические риски, характерные только для открытых БМ;
- потенциальные возможности по уменьшению таких рисков;
- существующие неопределенности и возможные предположения.
Более наглядно понять, каким образом работает данная система оценки риска, можно на скриншоте над постом. Там подробно описывается оценка рисков на примере кибербезопасности.
Следует отметить, что вопрос о необходимости отдельных подходов к правовому регулированию в сфере разработки и применения открытых базовых моделей сейчас активно обсуждается на разнообразных площадках в большинстве стран и регионов. Например, в Указе Президента США Указом Президента США в сфере разработки и применения систем ИИ компетентным органам поручено оценить соответствующие риски и подготовить доклад. Схожие задачи возложены и на новый Британский AI Safety Institute.
Также данный вопрос пока урегулирован законодателями по касательной . Например, актуальный текст проекта Регламента ЕС об ИИ будет распространяться на системы ИИ, распространяемые по открытым лицензиям, только в тех случаях, когда они подпадают к требованиям о прозрачности или/и базовым моделям общего назначения (Title IV) или относятся к запрещенным системам ИИ или системам ИИ повышенного риска. Не регулируются открытые модели и Китайскими временными мерами.
Aisnakeoil
On the Societal Impact of Open Foundation Models
Adding precision to the debate on openness in AI
🔥3 3❤1👍1
ВОИС о юридических рисках применения генеративных систем ИИ
Всемирная организация интеллектуальной собственности опубликовала небольшую справку о ключевых юридических рисках в сфере интеллектуальной собственности, возникающих в связи с применением генеративных систем ИИ.
Почти в самом начале документа указано, что полностью избежать всех правовых рисков применения генеративных систем ИИ (как и многих других) невозможно. Его основной целью является описание наиболее существенных рисков и шагов по их уменьшению.
Например, предлагаются следующие рекомендации по их уменьшению:
- Использование конфиденциальной информации.
Внедрить внутреннюю политику, обучить персонал и поощрять ответственное использование генеративных систем ИИ. Например, развивать грамотность и понимание рисков и ограничений таких систем, не использовать отдельные системы. Если в компании есть системы, которые обучены на конфиденциальной информации, то необходимо контролировать допуск к ним сотрудников.
- Нарушения прав интеллектуальной собственности.
При выборе поставщика генеративных систем ИИ предпочтение следует отдать тем, которые гарантируют отсутствие защищенных данных в датасете. Если компания создает и тренирует собственные модели или донастраивает чужие, то необходимо следить за попаданием защищенной информации в наборы данных. Также необходимо внимательно следить за изменением требований отдельных юрисдикций о необходимости раскрытия защищенной информации (привет, проект регламента ЕС об ИИ).
- Особенности использования продуктов с открытыми лицензиями.
При использовании сторонних решений необходимо отдавать предпочтения тем компаниям, которые предоставляют гарантии того, что в их продуктах используется исходный код, полученный с соблюдением необходимых лицензий. Также следует внимательно следить за использованием элементов кода при создании собственных моделей и продуктов на их основе.
- Учет прав при копировании человеческих голосов и изображений.
Необходимо избегать использование продуктов, нарушающих чужие права. Также, если есть необходимость синтезировать чей-то голос или изображение, то обзавестись всей нужной в той или иной юрисдикции документацией.
- Интеллектуальные права на выходные результаты.
Внимательно изучить пользовательские и лицензионные соглашения тех поставщиков, чьи генеративные системы ИИ предполагается использовать. Постараться заключить с ними соглашения (с учетом юрисдикции), определяющие принадлежность прав на выходной результат. Также необходимо документировать все изменения, если сгенерированный контент каким-либо образом дорабатывается людьми. В качестве общей рекомендации по возможности необходимо использовать сгенерированные результаты в тех сценариях, где не столь важная их правовая охрана.
Также в конце доклада ВОИС расположили примерный чеклист для организаций, способный уменьшить возможные риски. Не буду расписывать его полностью, так как он частично совпадает с предыдущим блоком.
Изложу для понимания основные блоки:
- разработка внутренних политик и обучение персонала;
- мониторинг и управление рисками;
- ведение учета и документирование;
- использование средств по оценке систем ИИ;
- оценка данных и их наборов;
- оценка выходных результатов генеративных систем ИИ.
Всемирная организация интеллектуальной собственности опубликовала небольшую справку о ключевых юридических рисках в сфере интеллектуальной собственности, возникающих в связи с применением генеративных систем ИИ.
Почти в самом начале документа указано, что полностью избежать всех правовых рисков применения генеративных систем ИИ (как и многих других) невозможно. Его основной целью является описание наиболее существенных рисков и шагов по их уменьшению.
Например, предлагаются следующие рекомендации по их уменьшению:
- Использование конфиденциальной информации.
Внедрить внутреннюю политику, обучить персонал и поощрять ответственное использование генеративных систем ИИ. Например, развивать грамотность и понимание рисков и ограничений таких систем, не использовать отдельные системы. Если в компании есть системы, которые обучены на конфиденциальной информации, то необходимо контролировать допуск к ним сотрудников.
- Нарушения прав интеллектуальной собственности.
При выборе поставщика генеративных систем ИИ предпочтение следует отдать тем, которые гарантируют отсутствие защищенных данных в датасете. Если компания создает и тренирует собственные модели или донастраивает чужие, то необходимо следить за попаданием защищенной информации в наборы данных. Также необходимо внимательно следить за изменением требований отдельных юрисдикций о необходимости раскрытия защищенной информации (привет, проект регламента ЕС об ИИ).
- Особенности использования продуктов с открытыми лицензиями.
При использовании сторонних решений необходимо отдавать предпочтения тем компаниям, которые предоставляют гарантии того, что в их продуктах используется исходный код, полученный с соблюдением необходимых лицензий. Также следует внимательно следить за использованием элементов кода при создании собственных моделей и продуктов на их основе.
- Учет прав при копировании человеческих голосов и изображений.
Необходимо избегать использование продуктов, нарушающих чужие права. Также, если есть необходимость синтезировать чей-то голос или изображение, то обзавестись всей нужной в той или иной юрисдикции документацией.
- Интеллектуальные права на выходные результаты.
Внимательно изучить пользовательские и лицензионные соглашения тех поставщиков, чьи генеративные системы ИИ предполагается использовать. Постараться заключить с ними соглашения (с учетом юрисдикции), определяющие принадлежность прав на выходной результат. Также необходимо документировать все изменения, если сгенерированный контент каким-либо образом дорабатывается людьми. В качестве общей рекомендации по возможности необходимо использовать сгенерированные результаты в тех сценариях, где не столь важная их правовая охрана.
Также в конце доклада ВОИС расположили примерный чеклист для организаций, способный уменьшить возможные риски. Не буду расписывать его полностью, так как он частично совпадает с предыдущим блоком.
Изложу для понимания основные блоки:
- разработка внутренних политик и обучение персонала;
- мониторинг и управление рисками;
- ведение учета и документирование;
- использование средств по оценке систем ИИ;
- оценка данных и их наборов;
- оценка выходных результатов генеративных систем ИИ.
www.wipo.int
About IP
Intellectual property (IP) refers to creations of the mind, such as inventions; literary and artistic works; designs; and symbols, names and images used in commerce
🔥4👍2 2
ОЭСР дала пояснения по обновленному определению систем ИИ
Вчера ОЭСР выпустила меморандум, который призван подробно объяснить логику изменений, внесенных в определение систем ИИ, первоначально сформулированное в Принципах ОЭСР в сфере ИИ 2019 года.
Данные принципы крайне важны для регулирования в сфере ИИ, так как их отправные начала (в том числе и в терминологии) прямо положены в основу нормативных правовых актов многих юрисдикций, включая, например, ЕС, США, Великобританию, Канаду, Японию, а также косвенно влияли и на другие страны, которые не входят в ОЭСР (Китай, Россия).
Первоначальное определение в переводе на русский звучало следующим образом:
“Система ИИ — это машинная система, которая при заданном наборе целей, определяемых человеком, может делать прогнозы, давать рекомендации или принимать решения, влияющие на реальную или виртуальную среду. среды. Системы ИИ предназначены для работы с различными уровнями автономности”.
Для сравнения даю перевод новой версии:
“Система ИИ — это машинная система, которая для достижения явно или неявно поставленных целей на основе полученных входных данных определяет, каким образом генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, способные влиять на физическую или виртуальную среду. Системы ИИ различаются по уровню автономности и способности к адаптации после развертывания”.
В документе авторы подробно раскрывают ключевые признаки систем ИИ, которые положены в основу определения. Многие их этих признаков уже разбирались в литературе. Если хотите увидеть отдельный обзор, то напишите в комментариях.
Вчера ОЭСР выпустила меморандум, который призван подробно объяснить логику изменений, внесенных в определение систем ИИ, первоначально сформулированное в Принципах ОЭСР в сфере ИИ 2019 года.
Данные принципы крайне важны для регулирования в сфере ИИ, так как их отправные начала (в том числе и в терминологии) прямо положены в основу нормативных правовых актов многих юрисдикций, включая, например, ЕС, США, Великобританию, Канаду, Японию, а также косвенно влияли и на другие страны, которые не входят в ОЭСР (Китай, Россия).
Первоначальное определение в переводе на русский звучало следующим образом:
“Система ИИ — это машинная система, которая при заданном наборе целей, определяемых человеком, может делать прогнозы, давать рекомендации или принимать решения, влияющие на реальную или виртуальную среду. среды. Системы ИИ предназначены для работы с различными уровнями автономности”.
Для сравнения даю перевод новой версии:
“Система ИИ — это машинная система, которая для достижения явно или неявно поставленных целей на основе полученных входных данных определяет, каким образом генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения, способные влиять на физическую или виртуальную среду. Системы ИИ различаются по уровню автономности и способности к адаптации после развертывания”.
В документе авторы подробно раскрывают ключевые признаки систем ИИ, которые положены в основу определения. Многие их этих признаков уже разбирались в литературе. Если хотите увидеть отдельный обзор, то напишите в комментариях.
OECD
Explanatory memorandum on the updated OECD definition of an AI system
In November 2023, OECD member countries approved a revised version of the Organisation’s definition of an AI system. This document contains proposed clarifications to the definition of an AI system contained in the 2019 OECD Recommendation on AI (the “AI…
Дискуссия ВОИС по вопросам интеллектуальной собственности и передовых технологий
Всемирная организация интеллектуальной собственности анонсировала 13 и 14 марта проведение масштабной дискуссии, в рамках которой будет продолжено обсуждение рисков в сфере IP и генеративных систем ИИ.
Данные риски были рассмотрены в недавно опубликованной справке (разбирал ее чуть выше тут)
Зарегистрироваться и изучить программу можно по ссылке. Программа есть на русском языке, а также обещают синхронный перевод.
Всемирная организация интеллектуальной собственности анонсировала 13 и 14 марта проведение масштабной дискуссии, в рамках которой будет продолжено обсуждение рисков в сфере IP и генеративных систем ИИ.
Данные риски были рассмотрены в недавно опубликованной справке (разбирал ее чуть выше тут)
Зарегистрироваться и изучить программу можно по ссылке. Программа есть на русском языке, а также обещают синхронный перевод.
www.wipo.int
WIPO Conversation: Training the Machines – Bytes, Rights and the Copyright Conundrum (March 13-14, 2024)
Оценка требований в рамках проекта Регламента ЕС об ИИ_V.2
В сентябре прошлого года я писал о сервисе, разработанном исследователями из the Future of Life Institute, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта предстоит иметь дело.
Теперь он обновлен в соответствии с последним опубликованным текстом документа. Интерфейс тоже стал более удобным.
Однако напоминаю, что сервис не является юридической консультацией, а проект Регламента ЕС об ИИ еще не принят в финальной редакции.
В сентябре прошлого года я писал о сервисе, разработанном исследователями из the Future of Life Institute, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта предстоит иметь дело.
Теперь он обновлен в соответствии с последним опубликованным текстом документа. Интерфейс тоже стал более удобным.
Однако напоминаю, что сервис не является юридической консультацией, а проект Регламента ЕС об ИИ еще не принят в финальной редакции.
Telegram
howtocomply_AI: право и ИИ
Оценка требований в рамках проекта Регламента ЕС об ИИ
Исследователи из Future of Life Institute выпустили небольшой сервис, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта им предстоит иметь дело. Для этого необходимо…
Исследователи из Future of Life Institute выпустили небольшой сервис, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта им предстоит иметь дело. Для этого необходимо…
❤3🔥3 3
Брюссельский эффект Регламента ЕС об ИИ
За последнюю неделю появились обновления по важным проектам нормативных правовых актов в сфере ИИ.
Во-первых, проект Регламента ЕС об ИИ, как и ожидалось, был принят Европарламентом на пленарной сессии. Теперь ждем ориентировочно в мае его формальное одобрение Евросоветом и публикацию в официальном источнике финальной версии текста.
Во-вторых, состоялось последнее (10-ое) пленарное заседание Комитета по искусственному интеллекту (CAI) Совета Европы по разработке Рамочной конвенции по искусственному интеллекту, правам человека, демократии и верховенству права. Известный нам по работе в Euractiv Лука Бертуцци опубликовал у себя Линкедине текст проекта Конвенции (за что ему большое спасибо).
В связи с этим недавно наткнулся на статью двух исследователей из Европейского университетского института, посвященную анализу «Брюссельского эффекта» от грядущего Регламента. Данный термин был введен в научный оборот в 2012 году Ану Брэдфорд (Колумбийский университет) в одноименной статье (в 2020 году на эту же тему она опубликовала книгу).
Под Брюссельским эффектом понимается одностороннее влияние актов и стандартов, принятых на уровне ЕС, на законодательство других стран. Подобное явление ранее, например, наблюдалось в сфере законодательства об обороте данных, антимонопольном регулировании, защите окружающей среды и безопасности продуктов питания.
Еще с момента начала разработки проекту Регламента ЕС об ИИ по понятным причинам также прочили Брюссельский эффект. Этого никогда и не скрывали европейские законодатели, стремясь быстрее принять «первый в мире комплексный акт об ИИ», привлекая для консультаций экспертов из глобальных технологических гигантов и рекламируя свой подход на международных площадках.
В статье исследователи обращают внимание на так называемый «побочный эффект Брюссельского эффекта». Они его усматривают в том, что проект Регламента ЕС об ИИ прежде всего основан на подходе к безопасности продукции (направлен на установление обязанностей для производителей и поставщиков товаров) и достаточно слабо защищает фундаментальные ценности, такие как основные права человека, демократия и верховенство права. Поэтому авторы предполагают, что если законодатели других стран и регионов будут ориентироваться на европейский подход, то уровень защиты фундаментальных прав будет падать повсеместно.
В этой связи авторы обращают внимание на проект Европейской конвенции, основанной на горизонтальных для всех систем ИИ фундаментальных принципах прав человека, как на альтернативу в качестве международного законодателя моды в области ИИ-регулирования.
Вместе с тем необходимо отметить, что последний
опубликованный текст проект Конвенции является достаточно мягким и не налагает жесткие обязательства на государства (особенно на их частный сектор). За «беззубость» текст упрекнул и Европейский инспектор по защите данных (EDPS), ссылаясь на излишнюю декларативность и отсутствие «красных линий»🐹 при определении запрещенных систем ИИ (это отдается на откуп государствам).
За последнюю неделю появились обновления по важным проектам нормативных правовых актов в сфере ИИ.
Во-первых, проект Регламента ЕС об ИИ, как и ожидалось, был принят Европарламентом на пленарной сессии. Теперь ждем ориентировочно в мае его формальное одобрение Евросоветом и публикацию в официальном источнике финальной версии текста.
Во-вторых, состоялось последнее (10-ое) пленарное заседание Комитета по искусственному интеллекту (CAI) Совета Европы по разработке Рамочной конвенции по искусственному интеллекту, правам человека, демократии и верховенству права. Известный нам по работе в Euractiv Лука Бертуцци опубликовал у себя Линкедине текст проекта Конвенции (за что ему большое спасибо).
В связи с этим недавно наткнулся на статью двух исследователей из Европейского университетского института, посвященную анализу «Брюссельского эффекта» от грядущего Регламента. Данный термин был введен в научный оборот в 2012 году Ану Брэдфорд (Колумбийский университет) в одноименной статье (в 2020 году на эту же тему она опубликовала книгу).
Под Брюссельским эффектом понимается одностороннее влияние актов и стандартов, принятых на уровне ЕС, на законодательство других стран. Подобное явление ранее, например, наблюдалось в сфере законодательства об обороте данных, антимонопольном регулировании, защите окружающей среды и безопасности продуктов питания.
Еще с момента начала разработки проекту Регламента ЕС об ИИ по понятным причинам также прочили Брюссельский эффект. Этого никогда и не скрывали европейские законодатели, стремясь быстрее принять «первый в мире комплексный акт об ИИ», привлекая для консультаций экспертов из глобальных технологических гигантов и рекламируя свой подход на международных площадках.
В статье исследователи обращают внимание на так называемый «побочный эффект Брюссельского эффекта». Они его усматривают в том, что проект Регламента ЕС об ИИ прежде всего основан на подходе к безопасности продукции (направлен на установление обязанностей для производителей и поставщиков товаров) и достаточно слабо защищает фундаментальные ценности, такие как основные права человека, демократия и верховенство права. Поэтому авторы предполагают, что если законодатели других стран и регионов будут ориентироваться на европейский подход, то уровень защиты фундаментальных прав будет падать повсеместно.
В этой связи авторы обращают внимание на проект Европейской конвенции, основанной на горизонтальных для всех систем ИИ фундаментальных принципах прав человека, как на альтернативу в качестве международного законодателя моды в области ИИ-регулирования.
Вместе с тем необходимо отметить, что последний
опубликованный текст проект Конвенции является достаточно мягким и не налагает жесткие обязательства на государства (особенно на их частный сектор). За «беззубость» текст упрекнул и Европейский инспектор по защите данных (EDPS), ссылаясь на излишнюю декларативность и отсутствие «красных линий»
Please open Telegram to view this post
VIEW IN TELEGRAM
European Parliament
Artificial Intelligence Act: MEPs adopt landmark law
On Wednesday, Parliament approved the Artificial Intelligence Act that ensures safety and compliance with fundamental rights, while boosting innovation.
❤4 4
AI+Policy Symposium
Stanford Institute for Human-Centered AI (HAI) и Stanford Cyber Policy Center анонсировали проведение 16 апреля симпозиума о государственной политике и нормативном регулировании в сфере разработки и применения генеративных систем ИИ.
Обещают интересный набор спикеров из разных стран и регионов (в том числе БРИКС и Африки).
Зарегистрироваться и ознакомиться со списком участников можно по ссылке.
Stanford Institute for Human-Centered AI (HAI) и Stanford Cyber Policy Center анонсировали проведение 16 апреля симпозиума о государственной политике и нормативном регулировании в сфере разработки и применения генеративных систем ИИ.
Обещают интересный набор спикеров из разных стран и регионов (в том числе БРИКС и Африки).
Зарегистрироваться и ознакомиться со списком участников можно по ссылке.
hai.stanford.edu
AI+Policy Symposium: A Global Stocktaking | Stanford HAI
Concerns over the societal impacts of generative AI are prompting a flurry of regulatory and policy responses globally, with initiatives underway in the EU, China, Brazil, Japan, Singapore, the UK, and the US, as well as through multilateral organizations…
❤4🔥2 2
Обзор обновленной Директивы ЕС об ответственности за качество продукции (Product Liability Directive, PLD)
Друзья, подготовил для вас подробный обзор🐱 обновленной Директивы об ответственности за качество продукции (Product Liability Directive, PLD).
Директива должна прийти на смену одноименному акту 1985 года и стать ответом на современный уровень развития технологий. Особенно в сфере ИИ и робототехники.
12 марта Европарламент большинством голосов принял текст новой Директивы. Далее ее ждет формальное одобрение Евросоветом, публикация и вступление в силу.
Обращаю внимание, что данный текст еще не финальный, но максимально близок к нему.
С полным текстом обзора можно ознакомиться по ссылке.
Друзья, подготовил для вас подробный обзор
Директива должна прийти на смену одноименному акту 1985 года и стать ответом на современный уровень развития технологий. Особенно в сфере ИИ и робототехники.
12 марта Европарламент большинством голосов принял текст новой Директивы. Далее ее ждет формальное одобрение Евросоветом, публикация и вступление в силу.
Обращаю внимание, что данный текст еще не финальный, но максимально близок к нему.
С полным текстом обзора можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Обзор обновленной Директивы ЕС об ответственности за качество продукции (Product Liability Directive, PLD)
Краткая предыстория В Европейском союзе порядок привлечения к гражданско-правовой ответственности за ущерб, причиненный в результате использования продуктов ненадлежащего качества, определяется Директивой об ответственности за качество продукции (Product…
🔥7 3❤2👍1
В Anthropic задумались о необходимости внешнего независимого тестирования для систем и моделей ИИ
На днях компания Anthropic (недавно выпустившая новую версию своего чата Claude 3, почти сравнявшегося или превзошедшего GPT-4 по некоторым бенчмаркам) опубликовала заметку, в которой изложила, почему необходимы внешние независимые тестирования систем и моделей ИИ и каким образом их осуществлять.
Необходимость достаточно очевидна: модели ИИ и системы, которые на них основаны, могут представлять существенные риски дискриминации, дезинформации, а также обладать скрытыми и опасными возможностями.
В Anthropic отмечают, что компания, как и другие разработчики ИИ, создает и использует свои собственные подходы к тестированию. Например, Responsible Scaling Policy (RSP) (предусматривает четыре уровня ИИ-безопасности ASL1-ASL4+). Однако, по их мнению, необходимо выработать единый подход, который бы затем мог быть положен в основу нормативного правового регулирования. Такой подход должен включать:
− общий взгляд государства, науки и бизнеса относительно предмета и содержания тестирования;
− временной период, в который компании должны оценить свои продукты сами и подвергнуть их внешнему тестированию;
− двухступенчатое тестирование: автоматизированное обширное тестирование и тестирование с участием человека при выявлении отклонений на первой стадии;
− увеличение государственной поддержки организаций, компетентных проводить тестирования и разрабатывать их методологию;
− введение юридически обязательных тестирований для отдельных систем и моделей ИИ. Вопрос о таком водоразделе предполагается решить в ближайшие годы. Прим.: очевидно, тестирований должно быть много, и они должны различаться для разных групп систем и моделей ИИ, а не только для передовых;
− обеспечение эффективного баланса между обеспечением безопасности и простотой проведения тестов.
В зависимости от нормативных предписаний для разных систем и моделей ИИ могут быть предусмотрены разные наборы тестов, которые могут проводиться разными субъектами:
− для отдельной группы моделей и систем (скорее всего, самой обширной) тестирования могут проводиться частными компаниями или специализированными организациями. По аналогии с финансовыми аудитами государственные органы могут уполномочивать другие организации на сертификацию аудиторов и схем сертификации.;
− университеты и научные центры могут разрабатывать свои методы оценки и тестирования, которые затем могут быть применены государственными органами;
− для отдельных систем и моделей ИИ (продвинутых или разработанных для работы в наиболее чувствительных сферах) могут быть предусмотрены обязательные тестирования компетентными государственными органами.
Также в заметке поднимается интересный вопрос об оценке открыто распространяемых систем и моделей ИИ. В компании отмечают, что текущие продукты по большей части не представляют большой угрозы для их широкого распространения. Однако в дальнейшем выводить передовые модели сразу в широкий доступ может быть опасно. Для того, чтобы избежать негативных последствий, компания предлагает распространить тестирование и на опенсорс-решения. Такие тесты помогут оценить потенциальные опасности и ограничить отдельные характеристики продуктов или возможности по их модификации и настройки.
На днях компания Anthropic (недавно выпустившая новую версию своего чата Claude 3, почти сравнявшегося или превзошедшего GPT-4 по некоторым бенчмаркам) опубликовала заметку, в которой изложила, почему необходимы внешние независимые тестирования систем и моделей ИИ и каким образом их осуществлять.
Необходимость достаточно очевидна: модели ИИ и системы, которые на них основаны, могут представлять существенные риски дискриминации, дезинформации, а также обладать скрытыми и опасными возможностями.
В Anthropic отмечают, что компания, как и другие разработчики ИИ, создает и использует свои собственные подходы к тестированию. Например, Responsible Scaling Policy (RSP) (предусматривает четыре уровня ИИ-безопасности ASL1-ASL4+). Однако, по их мнению, необходимо выработать единый подход, который бы затем мог быть положен в основу нормативного правового регулирования. Такой подход должен включать:
− общий взгляд государства, науки и бизнеса относительно предмета и содержания тестирования;
− временной период, в который компании должны оценить свои продукты сами и подвергнуть их внешнему тестированию;
− двухступенчатое тестирование: автоматизированное обширное тестирование и тестирование с участием человека при выявлении отклонений на первой стадии;
− увеличение государственной поддержки организаций, компетентных проводить тестирования и разрабатывать их методологию;
− введение юридически обязательных тестирований для отдельных систем и моделей ИИ. Вопрос о таком водоразделе предполагается решить в ближайшие годы. Прим.: очевидно, тестирований должно быть много, и они должны различаться для разных групп систем и моделей ИИ, а не только для передовых;
− обеспечение эффективного баланса между обеспечением безопасности и простотой проведения тестов.
В зависимости от нормативных предписаний для разных систем и моделей ИИ могут быть предусмотрены разные наборы тестов, которые могут проводиться разными субъектами:
− для отдельной группы моделей и систем (скорее всего, самой обширной) тестирования могут проводиться частными компаниями или специализированными организациями. По аналогии с финансовыми аудитами государственные органы могут уполномочивать другие организации на сертификацию аудиторов и схем сертификации.;
− университеты и научные центры могут разрабатывать свои методы оценки и тестирования, которые затем могут быть применены государственными органами;
− для отдельных систем и моделей ИИ (продвинутых или разработанных для работы в наиболее чувствительных сферах) могут быть предусмотрены обязательные тестирования компетентными государственными органами.
Также в заметке поднимается интересный вопрос об оценке открыто распространяемых систем и моделей ИИ. В компании отмечают, что текущие продукты по большей части не представляют большой угрозы для их широкого распространения. Однако в дальнейшем выводить передовые модели сразу в широкий доступ может быть опасно. Для того, чтобы избежать негативных последствий, компания предлагает распространить тестирование и на опенсорс-решения. Такие тесты помогут оценить потенциальные опасности и ограничить отдельные характеристики продуктов или возможности по их модификации и настройки.
Anthropic
Third-party testing as a key ingredient of AI policy
We believe that the AI sector needs effective third-party testing for frontier AI systems. Developing a testing regime and associated policy interventions based on the insights of industry, government, and academia is the best way to avoid societal harm—whether…
❤4 4👍2🔥1
Лучшие практики по соблюдению требований проекта Регламента ЕС об ИИ в части обеспечения прозрачности использования чатботов и дипфейков
Бельгийский The Knowledge Centre Data & Society опубликовал отчет, разработанный юристами и представителями ИИ-индустрии с целью оценки особенностей применения на практике положений проекта Регламента ЕС о прозрачности, которые содержатся в статьях 13 и 52.
Статья 13 предусматривает, что системы ИИ повышенного риска должны сопровождаться инструкциями по использованию (instructions for use) и устанавливает требования к ним.
В рамках подготовки отчета были разработаны три модельные инструкции по использованию ИИ-продуктов: ПО для выявления патологий глаз на основе изображений сетчатки глаза, медицинский прибор для прогнозирования сердечных аритмий и инструмент для подбора персонала.
Статья 52 предусматривает требования по раскрытию информации для отдельных систем и моделей ИИ.
Авторы подготовили два модельных дисклеймера для HR-чатбота и инструмента по созданию дипфейков для документальных фильмов.
К посту прикладываю скриншоты, на которых авторы изложили общие рекомендации по составлению документов.
С полным текстом модельных документов можно ознакомиться в приложении к отчету.
Среди общих пожеланий к проекту Регламента ЕС об ИИ авторы отметили необходимость уточнения требований в будущих имплементационных актах, а также выработки более простых рекомендаций и шаблонов документов.
Отмечу, что это очень важная и своевременная инициатива. Если вы готовите ваш продукт к соответствию требованиям будущего Регламента, то советую ознакомиться.
Бельгийский The Knowledge Centre Data & Society опубликовал отчет, разработанный юристами и представителями ИИ-индустрии с целью оценки особенностей применения на практике положений проекта Регламента ЕС о прозрачности, которые содержатся в статьях 13 и 52.
Статья 13 предусматривает, что системы ИИ повышенного риска должны сопровождаться инструкциями по использованию (instructions for use) и устанавливает требования к ним.
В рамках подготовки отчета были разработаны три модельные инструкции по использованию ИИ-продуктов: ПО для выявления патологий глаз на основе изображений сетчатки глаза, медицинский прибор для прогнозирования сердечных аритмий и инструмент для подбора персонала.
Статья 52 предусматривает требования по раскрытию информации для отдельных систем и моделей ИИ.
Авторы подготовили два модельных дисклеймера для HR-чатбота и инструмента по созданию дипфейков для документальных фильмов.
К посту прикладываю скриншоты, на которых авторы изложили общие рекомендации по составлению документов.
С полным текстом модельных документов можно ознакомиться в приложении к отчету.
Среди общих пожеланий к проекту Регламента ЕС об ИИ авторы отметили необходимость уточнения требований в будущих имплементационных актах, а также выработки более простых рекомендаций и шаблонов документов.
Отмечу, что это очень важная и своевременная инициатива. Если вы готовите ваш продукт к соответствию требованиям будущего Регламента, то советую ознакомиться.
❤7 2
Канадские исследователи проанализировали 84 государственные инициативы в сфере ИИ
Обращаю ваше внимание на статью канадских исследователей, которые проанализировали государственные инициативы уровня федерации и отдельных провинций (Онтарио, Квебек, Альберта) в сфере ИИ.
Исследование в большей степени направлено на обобщение и анализ существующих инициатив. Таким образом, интересующимся рекомендую ознакомиться с перечнем всех исследованных документов в приложении.
Общие выводы достаточно ожидаемы: авторы рекомендуют госорганам сделать больший акцент на публикацию информации о результатах, которые были получены по итогам реализации принятых документов, а также выработать новый, более целостный подход к нормативному регулированию в сфере ИИ.
Обращаю ваше внимание на статью канадских исследователей, которые проанализировали государственные инициативы уровня федерации и отдельных провинций (Онтарио, Квебек, Альберта) в сфере ИИ.
Исследование в большей степени направлено на обобщение и анализ существующих инициатив. Таким образом, интересующимся рекомендую ознакомиться с перечнем всех исследованных документов в приложении.
Общие выводы достаточно ожидаемы: авторы рекомендуют госорганам сделать больший акцент на публикацию информации о результатах, которые были получены по итогам реализации принятых документов, а также выработать новый, более целостный подход к нормативному регулированию в сфере ИИ.
❤7 4
Опубликован индекс искусственного интеллекта и демократических ценностей за 2023 год
Американский Center for AI and Digital Policy выпустил пятую версию ежегодного доклада AI and Democratic Values Index 2023.
В 2023 году индекс охватывает 80 стран (в прошлом году – 75) и пересматривает прошлогодний рейтинг за счет уточнения критериев оценки. Отчет является результатом работы более 500 экспертов по регулированию в сфере ИИ из почти 90 стран.
Рейтинг составлен на основе 12 значимых факторов, которые оценивались при помощи ответов на формализованные вопросы о соответствии национального регулирования международным стандартам. В зависимости от ответов страны были разделены на пять уровней.
Про прошлогодний доклад и методику оценки стран можно почитать в посте тут.
Лидирующие места заняли Канада, Япония и Южная Корея.
В числе аутсайдеров – Азербайджан, Мьянма и Венесуэла.
Россию можно найти на четвертом уровне между Катаром и Тайландом.
Однако, на мой взгляд, интерес вызывает не сам рейтинг, а содержание доклада, в котором проанализировано текущее состояние регулирования в сфере ИИ на международном уровне и с той или иной степенью подробности во всех 80 странах. Но и документ вышел весьма обширным – 1600+ страниц🤩 .
Доклад можно найти тут.
Еще в этом году исследователи визуализировали доклад на интерактивной карте.
Американский Center for AI and Digital Policy выпустил пятую версию ежегодного доклада AI and Democratic Values Index 2023.
В 2023 году индекс охватывает 80 стран (в прошлом году – 75) и пересматривает прошлогодний рейтинг за счет уточнения критериев оценки. Отчет является результатом работы более 500 экспертов по регулированию в сфере ИИ из почти 90 стран.
Рейтинг составлен на основе 12 значимых факторов, которые оценивались при помощи ответов на формализованные вопросы о соответствии национального регулирования международным стандартам. В зависимости от ответов страны были разделены на пять уровней.
Про прошлогодний доклад и методику оценки стран можно почитать в посте тут.
Лидирующие места заняли Канада, Япония и Южная Корея.
В числе аутсайдеров – Азербайджан, Мьянма и Венесуэла.
Россию можно найти на четвертом уровне между Катаром и Тайландом.
Однако, на мой взгляд, интерес вызывает не сам рейтинг, а содержание доклада, в котором проанализировано текущее состояние регулирования в сфере ИИ на международном уровне и с той или иной степенью подробности во всех 80 странах. Но и документ вышел весьма обширным – 1600+ страниц
Доклад можно найти тут.
Еще в этом году исследователи визуализировали доклад на интерактивной карте.
Please open Telegram to view this post
VIEW IN TELEGRAM
Center for AI and Digital Policy
AIDV-2023
AI policy, Artificial Intelligence, EU AI Act, democratic values, data protection, fairness, innovation, universal guidelines for AI, human rights, CAIDP, Marc Rotenberg, Merve Hickok