Передовые базовые модели и опенсорс
Исследователи из Centre for the Governance of AI выпустили отчет, который призван обратить внимание на проблемные аспекты распространения передовых базовых моделей в качестве программного обеспечения с открытым исходным кодом (опенсорс). Например, они отмечают, что некоторые компании стали чаще выбирать открытые лицензии для выпуска на рынок если не передовых, то достаточно больших базовых моделей (привет, Llama 2). Вместе с тем авторы указывают на то, что текущие исследования свидетельствуют о наличии критических рисков, присущих развертыванию и использованию передовых базовых моделей (исследования и риски мы многократно разбирали у нас на канале). В связи с этим исследователи изложили ряд рекомендаций, позволяющих, по их мнению, эти риски уменьшить.
Во-первых, разработчики и государственные органы должны выработать критерии по признанию некоторых базовых моделей, представляющими чрезвычайные риски для их размещения по открытым лицензиям. Например, способными быть компонентами оружия или представляющими опасность для критической инфраструктуры. Такие модели могут быть запущены в опенсорс, но только через некоторое время и по достижению необходимых требований безопасности.
Во-вторых, решение о возможности распространения передовых базовых моделей через открытые лицензии должно быть основано на оценке рисков. Такая оценка рисков должна учитывать возможности по их вредному использованию, в том числе с учетом их возможной модификации.
В-третьих, разработчикам необходимо более гибко относится к размещению моделей на рынке. То есть учитывать разные варианты доступа к ним в зависимости от рисков, которые они представляют.
В-четвертых, государственным органам надлежит осуществлять надзор за тем, какой способ выхода передовых базовых моделей на рынок выбирают разработчики. В ряде случаев законодателю предлагается распространить на них меры по лицензированию и установить юридическую ответственность. Эти меры сейчас активно обсуждаются в Конгрессе США в рамках готовящихся законодательных предложений.
Исследователи из Centre for the Governance of AI выпустили отчет, который призван обратить внимание на проблемные аспекты распространения передовых базовых моделей в качестве программного обеспечения с открытым исходным кодом (опенсорс). Например, они отмечают, что некоторые компании стали чаще выбирать открытые лицензии для выпуска на рынок если не передовых, то достаточно больших базовых моделей (привет, Llama 2). Вместе с тем авторы указывают на то, что текущие исследования свидетельствуют о наличии критических рисков, присущих развертыванию и использованию передовых базовых моделей (исследования и риски мы многократно разбирали у нас на канале). В связи с этим исследователи изложили ряд рекомендаций, позволяющих, по их мнению, эти риски уменьшить.
Во-первых, разработчики и государственные органы должны выработать критерии по признанию некоторых базовых моделей, представляющими чрезвычайные риски для их размещения по открытым лицензиям. Например, способными быть компонентами оружия или представляющими опасность для критической инфраструктуры. Такие модели могут быть запущены в опенсорс, но только через некоторое время и по достижению необходимых требований безопасности.
Во-вторых, решение о возможности распространения передовых базовых моделей через открытые лицензии должно быть основано на оценке рисков. Такая оценка рисков должна учитывать возможности по их вредному использованию, в том числе с учетом их возможной модификации.
В-третьих, разработчикам необходимо более гибко относится к размещению моделей на рынке. То есть учитывать разные варианты доступа к ним в зависимости от рисков, которые они представляют.
В-четвертых, государственным органам надлежит осуществлять надзор за тем, какой способ выхода передовых базовых моделей на рынок выбирают разработчики. В ряде случаев законодателю предлагается распространить на них меры по лицензированию и установить юридическую ответственность. Эти меры сейчас активно обсуждаются в Конгрессе США в рамках готовящихся законодательных предложений.
www.governance.ai
Open-Sourcing Highly Capable Foundation Models | GovAI
We evaluate the risks and benefits of open-sourcing, as well as alternative methods for pursuing open-source objectives.
🔥2👍1
В продолжение темы также обращаем внимание на препринт статьи The Gradient of Generative AI Release: Methods and Considerations. В публикации автор (Ирен Солайман из Hugging Face) предложила ступенчатую схему вывода базовых моделей на рынок.
❤2
Регулирование в сфере ИИ на местном уровне
Сегодня обращаем ваше внимание на платформу AI Localism. Задачей исследователей, которые занимаются ее наполнением, является сбор информации о нормативных правовых актах и документах концептуального характера в сфере разработки и применения систем ИИ на местном уровне.
На сегодняшний день львиная доля данных собрана из Северной Америки и Европы.
В США большая часть актов посвящена особенностям использования (или запрету) технологий распознавания лиц и иных сценариев применения систем ИИ государственными органами. Однако есть и инициативы относительно особенностей оборота данных и генеративных систем ИИ.
В Европе и Азии инициативы по большей части направлены на использование систем ИИ органами власти и бизнесом для развития инфраструктуры умного города, а также ответственному использованию технологий.
Сегодня обращаем ваше внимание на платформу AI Localism. Задачей исследователей, которые занимаются ее наполнением, является сбор информации о нормативных правовых актах и документах концептуального характера в сфере разработки и применения систем ИИ на местном уровне.
На сегодняшний день львиная доля данных собрана из Северной Америки и Европы.
В США большая часть актов посвящена особенностям использования (или запрету) технологий распознавания лиц и иных сценариев применения систем ИИ государственными органами. Однако есть и инициативы относительно особенностей оборота данных и генеративных систем ИИ.
В Европе и Азии инициативы по большей части направлены на использование систем ИИ органами власти и бизнесом для развития инфраструктуры умного города, а также ответственному использованию технологий.
👍5
Legal and technical challenges of large generative AI models
Если кому-то вдруг плохо спится, то делимся с вами ссылкой на 10-часовую запись воркшопа про технические и юридические проблемы, возникающие вокруг генеративных систем ИИ. Очень много интересных спикеров и темы на любой вкус. Разбивку на доклады можно посмотреть в таймкодах.
Если кому-то вдруг плохо спится, то делимся с вами ссылкой на 10-часовую запись воркшопа про технические и юридические проблемы, возникающие вокруг генеративных систем ИИ. Очень много интересных спикеров и темы на любой вкус. Разбивку на доклады можно посмотреть в таймкодах.
YouTube
Legal and technical challenges of large generative AI models | ML Workshop
Large Generative AI Models, such as ChatGPT, GPT-4 or Stable Diffusion, are revolutionizing the way we communicate, create, and work. They are rapidly and profoundly impacting all sectors of society, from business development to medicine, from education to…
🔥5❤2
Проблемы оценки базовых моделей и систем ИИ
Недавно на сайте Anthropic вышла новая статья об оценке систем ИИ. Следует начать обзор с двух отправных тезисов, которые в ней содержатся: крайне сложно создать надежные методики оценки систем ИИ и без создания таких методик невозможно безопасное управление системами ИИ.
Статья по большей части состоит из разбора практических проблем, с которыми столкнулась компания при проведении оценки своих базовых моделей с помощью разных методик. В конце статьи содержатся краткие рекомендации для законодателей и правоприменителей. Из первой части рассмотрим наиболее интересные юридически-релевантные выводы, а вторую изучим полностью.
Во-первых, все методики оценки имеют свои слабые стороны и массу особенностей по применению относительно каждой отдельной базовой модели. Для применения многих методик разработчикам приходится подстраивать их под свои продукты, что очень затратно по времени и ресурсам.
Во-вторых, необходим поиск компромиссов между полезностью и безвредностью моделей. Тот факт, что модель будет во всех пограничных случаях отказываться от ответа на вопросы, не является перспективным выходом из положения.
В-третьих, учитывая скорость развития технологий, внешний независимый аудит передовых базовых моделей должен строиться на тесном взаимодействии разработчиков и аудиторов (сложно представить, каким образом это может быть устроено без потери эффективности. Может, лучше это вынести на предварительный аудит).
В-четвертых, люди считали модели, дообученные с помощью Конституционных принципов ИИ (что это такое, можно почитать тут) более безобидными, чем с использованием метода красной команды, состоящей из людей.
В качестве рекомендации для законодателей и правоприменителей в Anthropic отметили следующие:
Отбор наиболее эффективных методик оценки и направление финансирование на них вместо распыления ресурсов на большое число команд. Качество оценок должно быть важнее их количества.
Поддержка внедрения существующих высококачественных методик оценки, а также создание удобных инструментов для бизнеса по их использованию.
Регулярный анализ и проверка надежности существующих методов оценки.
Увеличение финансирования для государственных органов, занимающихся разработкой методик оценки (например, Национальный институт стандартов и технологий (NIST)). Также предлагается создать таблицу лидеров среди безопасного ИИ, что может подстегнуть конкуренцию среди компаний.
Создание «безопасной гавани», которая позволит компаниям сотрудничать с государственными органами для оценки базовых моделей и систем ИИ в интересах национальной безопасности (по сути, предлагается отдельный вид песочниц с особыми требованиями к гостайне).
Недавно на сайте Anthropic вышла новая статья об оценке систем ИИ. Следует начать обзор с двух отправных тезисов, которые в ней содержатся: крайне сложно создать надежные методики оценки систем ИИ и без создания таких методик невозможно безопасное управление системами ИИ.
Статья по большей части состоит из разбора практических проблем, с которыми столкнулась компания при проведении оценки своих базовых моделей с помощью разных методик. В конце статьи содержатся краткие рекомендации для законодателей и правоприменителей. Из первой части рассмотрим наиболее интересные юридически-релевантные выводы, а вторую изучим полностью.
Во-первых, все методики оценки имеют свои слабые стороны и массу особенностей по применению относительно каждой отдельной базовой модели. Для применения многих методик разработчикам приходится подстраивать их под свои продукты, что очень затратно по времени и ресурсам.
Во-вторых, необходим поиск компромиссов между полезностью и безвредностью моделей. Тот факт, что модель будет во всех пограничных случаях отказываться от ответа на вопросы, не является перспективным выходом из положения.
В-третьих, учитывая скорость развития технологий, внешний независимый аудит передовых базовых моделей должен строиться на тесном взаимодействии разработчиков и аудиторов (сложно представить, каким образом это может быть устроено без потери эффективности. Может, лучше это вынести на предварительный аудит).
В-четвертых, люди считали модели, дообученные с помощью Конституционных принципов ИИ (что это такое, можно почитать тут) более безобидными, чем с использованием метода красной команды, состоящей из людей.
В качестве рекомендации для законодателей и правоприменителей в Anthropic отметили следующие:
Отбор наиболее эффективных методик оценки и направление финансирование на них вместо распыления ресурсов на большое число команд. Качество оценок должно быть важнее их количества.
Поддержка внедрения существующих высококачественных методик оценки, а также создание удобных инструментов для бизнеса по их использованию.
Регулярный анализ и проверка надежности существующих методов оценки.
Увеличение финансирования для государственных органов, занимающихся разработкой методик оценки (например, Национальный институт стандартов и технологий (NIST)). Также предлагается создать таблицу лидеров среди безопасного ИИ, что может подстегнуть конкуренцию среди компаний.
Создание «безопасной гавани», которая позволит компаниям сотрудничать с государственными органами для оценки базовых моделей и систем ИИ в интересах национальной безопасности (по сути, предлагается отдельный вид песочниц с особыми требованиями к гостайне).
Anthropic
Challenges in evaluating AI systems
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
👍4🔥1
Бизнес-ориентированный подход ASEAN
Вчера вышла статья Рейтер с некоторыми подробностями о готовящемся для принятия проекте рекомендательного документа об этике и государственном управлении в сфере ИИ на уровне Ассоциации государств Юго-Восточной Азии (ASEAN).
По данным источников издания, проект рассылается для отзывов крупнейшим техногигантам. Ожидается, что он будет доработан к концу января 2024 года.
Интересно, что, по имеющейся информации, проект не выделяет круг запрещенных систем ИИ, как это предполагает подход ЕС. Частным компаниям будет предлагаться внедрять системы управления рисками по разработке и внедрению систем ИИ. Частные регуляторные вопросы будут отданы на откуп органам власти каждой отдельной страны.
В этом плане путь, избранный ASEAN, близок к подходу США с NIST AI Risk Management Framework (разбирали его подробно тут). Такой же гибкий подход предпочли в Японии и Южной Корее.
Также интересно, что ранее в этом году представители ЕС совершили тур азиатским странам, призванный продемонстрировать плюсы европейского подхода и призвать к установлению аналогичных нормативных положений.
Вчера вышла статья Рейтер с некоторыми подробностями о готовящемся для принятия проекте рекомендательного документа об этике и государственном управлении в сфере ИИ на уровне Ассоциации государств Юго-Восточной Азии (ASEAN).
По данным источников издания, проект рассылается для отзывов крупнейшим техногигантам. Ожидается, что он будет доработан к концу января 2024 года.
Интересно, что, по имеющейся информации, проект не выделяет круг запрещенных систем ИИ, как это предполагает подход ЕС. Частным компаниям будет предлагаться внедрять системы управления рисками по разработке и внедрению систем ИИ. Частные регуляторные вопросы будут отданы на откуп органам власти каждой отдельной страны.
В этом плане путь, избранный ASEAN, близок к подходу США с NIST AI Risk Management Framework (разбирали его подробно тут). Такой же гибкий подход предпочли в Японии и Южной Корее.
Также интересно, что ранее в этом году представители ЕС совершили тур азиатским странам, призванный продемонстрировать плюсы европейского подхода и призвать к установлению аналогичных нормативных положений.
Reuters
Exclusive: Southeast Asia eyes hands-off AI rules, defying EU ambitions
Southeast Asian countries are taking a business-friendly approach to AI regulation in a setback to the European Union's push for globally harmonised rules that align with its own stringent framework.
👍6
ИИ в глазах смотрящего
Недавно было опубликовано исследование о том, каким образом меняется отношение людей к системам ИИ (чат-ботам в данном случае) на основе того, какой информацией они владеют о последних. Исследование не является юридическим, однако поднимает массу релевантных праву вопросов.
В ходе исследования люди 30 минут взаимодействовали с чат-ботом, который был разработан для того, чтобы быть компаньоном в сфере психического здоровья. На основе диалога люди должны были определить, порекомендуют ли они продукт другу, а затем оценивали работу системы ИИ и делились своими общими впечатлениями.
Половина участников взаимодействовали с чат-ботом на основе базовой модели GPT-3, а другая половина - с чат-ботом, основанным на более простом ПО по обработке естественного языка ELIZA, разработанном в MIT в 1960-х годах.
Исследователи набрали 310 участников и случайным образом разделили их на три группы, каждой из которых была дана разная информация о системе ИИ. Одной группе было сказано, что у агента нет никаких мотивов, второй - что чат-бот имеет благожелательные намерения и заботится о благополучии пользователя, третьей - что агент имеет злые намерения и будет пытаться обмануть пользователя.
Результаты опроса показали, что даже общая информация может сильно повлиять на отношение пользователя к системе ИИ. Более того, позитивное описание имело больший эффект. Только 44% испытуемых, получивших негативную информацию, поверили ей, в то время как 88% испытуемых из позитивной и 79% из нейтральных групп посчитали чат-бот настроенным соответствующим образом.
Исследование показывает, что восприятие системы ИИ и эффективность работы с ней очень сильно зависит от того, какой информацией о ней обладает пользователь. Также на людей довольно легко надеть "розовые очки" и снизить их бдительность через правильную рекламу и чрезмерно позитивные описания продуктов. Таким образом, необходимы требования к компаниям относительно разработки адекватных и понятных правил пользования системой ИИ, содержащей уведомления о возможных негативных последствиях. Это же должно касаться и интерфейсов, с которыми взаимодействуют люди.
Недавно было опубликовано исследование о том, каким образом меняется отношение людей к системам ИИ (чат-ботам в данном случае) на основе того, какой информацией они владеют о последних. Исследование не является юридическим, однако поднимает массу релевантных праву вопросов.
В ходе исследования люди 30 минут взаимодействовали с чат-ботом, который был разработан для того, чтобы быть компаньоном в сфере психического здоровья. На основе диалога люди должны были определить, порекомендуют ли они продукт другу, а затем оценивали работу системы ИИ и делились своими общими впечатлениями.
Половина участников взаимодействовали с чат-ботом на основе базовой модели GPT-3, а другая половина - с чат-ботом, основанным на более простом ПО по обработке естественного языка ELIZA, разработанном в MIT в 1960-х годах.
Исследователи набрали 310 участников и случайным образом разделили их на три группы, каждой из которых была дана разная информация о системе ИИ. Одной группе было сказано, что у агента нет никаких мотивов, второй - что чат-бот имеет благожелательные намерения и заботится о благополучии пользователя, третьей - что агент имеет злые намерения и будет пытаться обмануть пользователя.
Результаты опроса показали, что даже общая информация может сильно повлиять на отношение пользователя к системе ИИ. Более того, позитивное описание имело больший эффект. Только 44% испытуемых, получивших негативную информацию, поверили ей, в то время как 88% испытуемых из позитивной и 79% из нейтральных групп посчитали чат-бот настроенным соответствующим образом.
Исследование показывает, что восприятие системы ИИ и эффективность работы с ней очень сильно зависит от того, какой информацией о ней обладает пользователь. Также на людей довольно легко надеть "розовые очки" и снизить их бдительность через правильную рекламу и чрезмерно позитивные описания продуктов. Таким образом, необходимы требования к компаниям относительно разработки адекватных и понятных правил пользования системой ИИ, содержащей уведомления о возможных негативных последствиях. Это же должно касаться и интерфейсов, с которыми взаимодействуют люди.
MIT News
Is AI in the eye of the beholder?
Priming users about the motives of an AI agent had a significant impact on their perceptions of that agent and how effective they believed this AI mental health companion was, according to an MIT study. Not only did priming change users’ perceptions, it also…
🔥5👍4🦄1
Дипфейкам бой
В США недавно был опубликован согласованный двумя партиями законопроект, направленный на защиту артистов от несанкционированного копирования их лиц и голосов с помощью генеративных систем ИИ.
Законопроектом вводится термин “цифровая копия”, который означает вновь созданное или сгенерированное компьютером электронное представление изображения, голоса или визуального образа физического лица, которое: а) является практически неотличимым от реального изображения, голоса или облика этого лица; б) зафиксировано в звукозаписи или аудиовизуальном произведении, в котором это лицо фактически не принимало участие.
Документ запрещает производство цифровой копии без согласия соответствующего лица или правообладателя. Исключениями являются, например: новостные, общественные или спортивной передачи, документальные, биографические или комедийные произведения, критика, научные исследования.
Соответствующее право будут действовать в течение всей жизни лица и семидесяти лет после его смерти в отношении правопреемников. Законопроект также предусматривает размер гражданско-правовой ответственности.
По информации The Verge, представители индустрии позитивно оценили концептуальную идею законопроекта. Текст документа размещен для отзывов со стороны представителей индустрии.
С его полным текстом можно ознакомиться по ссылке.
В США недавно был опубликован согласованный двумя партиями законопроект, направленный на защиту артистов от несанкционированного копирования их лиц и голосов с помощью генеративных систем ИИ.
Законопроектом вводится термин “цифровая копия”, который означает вновь созданное или сгенерированное компьютером электронное представление изображения, голоса или визуального образа физического лица, которое: а) является практически неотличимым от реального изображения, голоса или облика этого лица; б) зафиксировано в звукозаписи или аудиовизуальном произведении, в котором это лицо фактически не принимало участие.
Документ запрещает производство цифровой копии без согласия соответствующего лица или правообладателя. Исключениями являются, например: новостные, общественные или спортивной передачи, документальные, биографические или комедийные произведения, критика, научные исследования.
Соответствующее право будут действовать в течение всей жизни лица и семидесяти лет после его смерти в отношении правопреемников. Законопроект также предусматривает размер гражданско-правовой ответственности.
По информации The Verge, представители индустрии позитивно оценили концептуальную идею законопроекта. Текст документа размещен для отзывов со стороны представителей индустрии.
С его полным текстом можно ознакомиться по ссылке.
The Verge
No Fakes Act wants to protect actors and singers from unauthorized AI replicas
The bill wants to stop unauthorized AI replicas.
👍3🦄1
Базовые модели в проекте Регламента ЕС об ИИ
На днях появилась информация о новых предложениях, которые рассматриваются в ходе приводящегося обсуждения финального текста проекта Регламента ЕС об ИИ. В Евросовете (под председательством Испании) предварительно договорились о применении многоуровневого подхода к базовым моделям (модели, которые, например, лежат в основе генеративных систем ИИ, таких как ChatGPT, Claude, Bard и т.п.).
Все подобные модели предложено разделить на две группы:
Базовые модели (модели ИИ, способные эффективно выполнять широкий спектр специфических задач). Для оценки возможностей таких моделей предлагается установить соответствующие показатели имплементационными актами. На поставщиков базовых моделей будут распространяться как: а) горизонтальные обязательства (обеспечение прозрачности, документирование, оценку на этапе разработки); б) вертикальные обязательства (после выхода на рынок поставщики должны будут предоставлять информацию и документацию другим субъектам в цепочке поставки).
Продвинутые базовые модели (их еще называют в литературе передовые). Пока не ясные критерии отнесение моделей к продвинутым, но предполагается, что в основе этого будут лежать некие пороговые значения по объему данных, параметров, вычислительных мощностей и опасности для пользователей. Эти предложения очень резонируют с отчетом The Future Society, который был разобран в посте ранее. Предполагается, что такие модели обладают значительными преимуществами в функциональности, а значит, их выведение на рынок потребует соблюдения дополнительных требований: регулярных проверок с помощью метода красной команды, прохождение внешнего независимого аудита, наличие системы управления рисками.
Также предлагается сохранить термин системы ИИ общего назначения. Их отличительной чертой от обычных систем ИИ будет более 10 тыс. зарегистрированных бизнес-пользователей или 45 млн. конечных пользователей. Для этой группы систем ИИ предполагается установить требования о регулярном проведение внешней проверки с целью выявления уязвимостей, а также о наличии системы управления рисками. Поставщики также должны будут исключать все сценарии использования систем ИИ, представляющие повышенный риск.
Что касается общих вопросов, то по-прежнему предполагается, чтобы поставщики базовых моделей продемонстрировали, что они приняли адекватные меры для обеспечения обучения моделей в соответствии с законодательством ЕС об авторском праве, а также предоставили правообладателям возможность отказаться от использования своих произведений в обучающих наборах данных. Также предлагается сохранить требования о маркировке сгенерированного контента.
Данные предложения в дальнейшем будут обсуждаться с Еврокомиссией и Европарламентом в ходе приводящегося трилога.
На днях появилась информация о новых предложениях, которые рассматриваются в ходе приводящегося обсуждения финального текста проекта Регламента ЕС об ИИ. В Евросовете (под председательством Испании) предварительно договорились о применении многоуровневого подхода к базовым моделям (модели, которые, например, лежат в основе генеративных систем ИИ, таких как ChatGPT, Claude, Bard и т.п.).
Все подобные модели предложено разделить на две группы:
Базовые модели (модели ИИ, способные эффективно выполнять широкий спектр специфических задач). Для оценки возможностей таких моделей предлагается установить соответствующие показатели имплементационными актами. На поставщиков базовых моделей будут распространяться как: а) горизонтальные обязательства (обеспечение прозрачности, документирование, оценку на этапе разработки); б) вертикальные обязательства (после выхода на рынок поставщики должны будут предоставлять информацию и документацию другим субъектам в цепочке поставки).
Продвинутые базовые модели (их еще называют в литературе передовые). Пока не ясные критерии отнесение моделей к продвинутым, но предполагается, что в основе этого будут лежать некие пороговые значения по объему данных, параметров, вычислительных мощностей и опасности для пользователей. Эти предложения очень резонируют с отчетом The Future Society, который был разобран в посте ранее. Предполагается, что такие модели обладают значительными преимуществами в функциональности, а значит, их выведение на рынок потребует соблюдения дополнительных требований: регулярных проверок с помощью метода красной команды, прохождение внешнего независимого аудита, наличие системы управления рисками.
Также предлагается сохранить термин системы ИИ общего назначения. Их отличительной чертой от обычных систем ИИ будет более 10 тыс. зарегистрированных бизнес-пользователей или 45 млн. конечных пользователей. Для этой группы систем ИИ предполагается установить требования о регулярном проведение внешней проверки с целью выявления уязвимостей, а также о наличии системы управления рисками. Поставщики также должны будут исключать все сценарии использования систем ИИ, представляющие повышенный риск.
Что касается общих вопросов, то по-прежнему предполагается, чтобы поставщики базовых моделей продемонстрировали, что они приняли адекватные меры для обеспечения обучения моделей в соответствии с законодательством ЕС об авторском праве, а также предоставили правообладателям возможность отказаться от использования своих произведений в обучающих наборах данных. Также предлагается сохранить требования о маркировке сгенерированного контента.
Данные предложения в дальнейшем будут обсуждаться с Еврокомиссией и Европарламентом в ходе приводящегося трилога.
EURACTIV
AI Act: EU countries headed to tiered approach on foundation models amid broader compromise
The EU approach to powerful AI models is taking shape as European countries discuss possible concessions in the upcoming negotiations on the world’s first comprehensive Artificial Intelligence (AI) rulebook.
👍3🦄2👾2🔥1
Как должен выглядеть компетентный орган в сфере ИИ?
Исследователи из The Future Society опубликовали документ, в котором изложили свое видение относительно будущего органа на уровне ЕС, компетентного в сфере ИИ. Актуальный текст проекта Регламента ЕС об ИИ предусматривает создание AI Office (в предыдущем тексте он именовался AI Board). Документ достаточно подробно определяет его будущую структуру и компетенцию.
Вместе с тем исследователи на основе анализа схожих органов на уровне ЕС и в других странах предлагают некоторые улучшения. Рассмотрим наиболее интересные из них:
Во-первых, ввести многоуровневую модель распределения полномочий по аналогии с Актом о цифровых услугах (Digital Services Act (DSA)). В рамках данной модели часть поставщиков передовых систем ИИ общего назначения и базовых моделей будут иметь дело непосредственно с AI Office, а другие поставщики – с компетентными органами государств-членов. По мнению исследователей, это поможет сбалансировать разделение полномочий и избежать конкуренции правоприменителей разных государств-членов, которые будут заинтересованы в инициировании громких разбирательств в отношении лидеров рынка.
Во-вторых, проект Регламента ОБ ИИ, как и Общий Регламент по защите данных (General Data Protection Regulation (GDPR)), имеет экстерриториальное действие. В связи с этим исследователи предлагают заранее выстаивать сотрудничество с государствами, не входящими в ЕС, чтобы упростить правоприменение и расширить международное сотрудничество.
В-третьих, выстроить модель управления, при которой AI Office будет работать в постоянной взаимосвязи с поставщиками передовых систем ИИ общего назначения и базовых моделей. Это позволит реализовывать более эффективную политику в условиях технологического развития.
Исследователи из The Future Society опубликовали документ, в котором изложили свое видение относительно будущего органа на уровне ЕС, компетентного в сфере ИИ. Актуальный текст проекта Регламента ЕС об ИИ предусматривает создание AI Office (в предыдущем тексте он именовался AI Board). Документ достаточно подробно определяет его будущую структуру и компетенцию.
Вместе с тем исследователи на основе анализа схожих органов на уровне ЕС и в других странах предлагают некоторые улучшения. Рассмотрим наиболее интересные из них:
Во-первых, ввести многоуровневую модель распределения полномочий по аналогии с Актом о цифровых услугах (Digital Services Act (DSA)). В рамках данной модели часть поставщиков передовых систем ИИ общего назначения и базовых моделей будут иметь дело непосредственно с AI Office, а другие поставщики – с компетентными органами государств-членов. По мнению исследователей, это поможет сбалансировать разделение полномочий и избежать конкуренции правоприменителей разных государств-членов, которые будут заинтересованы в инициировании громких разбирательств в отношении лидеров рынка.
Во-вторых, проект Регламента ОБ ИИ, как и Общий Регламент по защите данных (General Data Protection Regulation (GDPR)), имеет экстерриториальное действие. В связи с этим исследователи предлагают заранее выстаивать сотрудничество с государствами, не входящими в ЕС, чтобы упростить правоприменение и расширить международное сотрудничество.
В-третьих, выстроить модель управления, при которой AI Office будет работать в постоянной взаимосвязи с поставщиками передовых систем ИИ общего назначения и базовых моделей. Это позволит реализовывать более эффективную политику в условиях технологического развития.
👍7🦄1
Обзор указа Президента США в сфере разработки и примения систем ИИ и обновления по Форуму передовых базовых моделей
Друзья, пока Сэм Альтман при неоднозначных обстоятельствах покинул OpenAI (но пока ушел недалеко в Microsoft), канал возвращается из вынужденных каникул в новый сезон. За этот небольшой период времени произошло много всего интересного. Начнем с США.
30 октября был опубликован текст Указа Президента США “О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия”. Документ содержит массу поручений органам исполнительной власти и окажет сильное воздействие на формирование управленческого и регуляторного пространства.
Подготовил для вас обзор наиболее интересных с юридической точки зрения положений. Полный текст доступен по ссылке под постом.
Также появились новости относительно Форума передовых базовых моделей, который недавно образовали такие компании, как Google, Microsoft, OpenAI и Anthropic. Новость о его создании я разбирал в посте тут. Компаниями был учрежден фонд на сумму большее 10 миллионов долларов для поддержки исследований в сфере безопасности ИИ, а также утвержден директор (Крис Мезерол - эксперт по ИИ-безопасности).
Друзья, пока Сэм Альтман при неоднозначных обстоятельствах покинул OpenAI (но пока ушел недалеко в Microsoft), канал возвращается из вынужденных каникул в новый сезон. За этот небольшой период времени произошло много всего интересного. Начнем с США.
30 октября был опубликован текст Указа Президента США “О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия”. Документ содержит массу поручений органам исполнительной власти и окажет сильное воздействие на формирование управленческого и регуляторного пространства.
Подготовил для вас обзор наиболее интересных с юридической точки зрения положений. Полный текст доступен по ссылке под постом.
Также появились новости относительно Форума передовых базовых моделей, который недавно образовали такие компании, как Google, Microsoft, OpenAI и Anthropic. Новость о его создании я разбирал в посте тут. Компаниями был учрежден фонд на сумму большее 10 миллионов долларов для поддержки исследований в сфере безопасности ИИ, а также утвержден директор (Крис Мезерол - эксперт по ИИ-безопасности).
Telegraph
Обзор Указа Президента США о разработке и применении ИИ
30 октября 2023 года был издан Указ Президента США “О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия” (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence).…
👍6🦄2🔥1
Искусственный интеллект и литература
В прошлом месяце коллеги из издания Подтекст, которые занимаются классической и современной русской литературой, подготовили материал об использовании писателями генеративных систем ИИ в качестве источника вдохновения.
Дал для материала небольшой комментарий о юридической стороне вопроса. Если совсем коротко, то пользоваться генеративными системами ИИ можно, но предварительно внимательно читать пользовательские соглашения и лицензионные договоры.
Полный текст доступен по ссылке под постом.
В прошлом месяце коллеги из издания Подтекст, которые занимаются классической и современной русской литературой, подготовили материал об использовании писателями генеративных систем ИИ в качестве источника вдохновения.
Дал для материала небольшой комментарий о юридической стороне вопроса. Если совсем коротко, то пользоваться генеративными системами ИИ можно, но предварительно внимательно читать пользовательские соглашения и лицензионные договоры.
Полный текст доступен по ссылке под постом.
podtext.iss.onedia
Слово живое и цифровое: как нейросети повлияют на литературу
Как генеративные системы повлияют на литературу и книжный рынок? И регулирует ли авторское право совместное творчество с нейросетям?
🔥8🦄2👍1
Хиросимский кодекс с одиннадцатью принципами для разработчиков передовых систем ИИ
В рамках запущенного на площадке G7 после саммита в мае Хиросимского процесса в прошлом месяце был представлен Международный кодекс поведения для организаций, разрабатывающих передовые системы ИИ. Про Хиросимский процесс писал отдельно тут.
Документ рассчитан на любые организации (как частные, так и государственные), разрабатывающие передовые системы ИИ. Интересно, что этим организациям предписывается руководствоваться в своих действиях риск- ориентированным подходом, который, например, лежит в основе проекта Регламента ЕС об ИИ.
Соразмерно рискам организациям предписывается соблюдать ряд мер, вытекающих из одиннадцати руководящих принципов. Многие из этих принципов достаточно общие и уже содержались в иных документах национального или регионального уровня:
1. Принимать надлежащие меры для выявления, оценки и снижения рисков на протяжении всего жизненного цикла систем ИИ. Надлежит тестировать системы ИИ, а также проводить испытания их устойчивости с помощью метода красных команд. Отдельное внимание уже традиционно уделяется различным рискам, таким как использование систем ИИ для создания химического, биологического, ядерного оружия, кибератак.
2. Выявлять и устранять уязвимости и сценарии неправильного использования. Рекомендуется обращаться к внешним экспертам для поиска проблем и уязвимостей, а также вести соответствующую документацию.
3. Разглашать информацию возможностях и ограничениях работы систем ИИ. Рекомендуется публиковать о вовремя обновлять отчеты о работе систем и техническую документацию.
4. Обмениваться релевантной информацией с другими организациями.
5. Внедрять основанную на риск-ориентированном подходе политику по управлению рисками. Это включает раскрытие политики конфиденциальности, подсказок для пользователя и расширенных данных о выходных результатах работы системы ИИ.
6. Инвестировать в средства безопасности и внедрять их на протяжении всего жизненного цикла систем ИИ. Эти меры включают обеспечение безопасности параметров, архитектуры и инфраструктуры.
7. Аутентифицировать и маркировать синтетический контент. При этом средства маркировки должны иметь идентификатор системы ИИ, которая создала контент, но не обязательно раскрывать информацию о пользователе.
8. Инвестировать в развитие механизмов по обеспечению безопасности систем ИИ и обмениваться информацией о передовых исследованиях в этой области.
9. В приоритетном порядке использовать системы ИИ для решения глобальных проблем человечества (климат, экология, здравоохранение и т.п.).
10. Содействовать разработке технических стандартов на международном уровне.
11. Осуществлять меры по обеспечению качества данных, защите конфиденциальности и интеллектуальной собственности.
В рамках запущенного на площадке G7 после саммита в мае Хиросимского процесса в прошлом месяце был представлен Международный кодекс поведения для организаций, разрабатывающих передовые системы ИИ. Про Хиросимский процесс писал отдельно тут.
Документ рассчитан на любые организации (как частные, так и государственные), разрабатывающие передовые системы ИИ. Интересно, что этим организациям предписывается руководствоваться в своих действиях риск- ориентированным подходом, который, например, лежит в основе проекта Регламента ЕС об ИИ.
Соразмерно рискам организациям предписывается соблюдать ряд мер, вытекающих из одиннадцати руководящих принципов. Многие из этих принципов достаточно общие и уже содержались в иных документах национального или регионального уровня:
1. Принимать надлежащие меры для выявления, оценки и снижения рисков на протяжении всего жизненного цикла систем ИИ. Надлежит тестировать системы ИИ, а также проводить испытания их устойчивости с помощью метода красных команд. Отдельное внимание уже традиционно уделяется различным рискам, таким как использование систем ИИ для создания химического, биологического, ядерного оружия, кибератак.
2. Выявлять и устранять уязвимости и сценарии неправильного использования. Рекомендуется обращаться к внешним экспертам для поиска проблем и уязвимостей, а также вести соответствующую документацию.
3. Разглашать информацию возможностях и ограничениях работы систем ИИ. Рекомендуется публиковать о вовремя обновлять отчеты о работе систем и техническую документацию.
4. Обмениваться релевантной информацией с другими организациями.
5. Внедрять основанную на риск-ориентированном подходе политику по управлению рисками. Это включает раскрытие политики конфиденциальности, подсказок для пользователя и расширенных данных о выходных результатах работы системы ИИ.
6. Инвестировать в средства безопасности и внедрять их на протяжении всего жизненного цикла систем ИИ. Эти меры включают обеспечение безопасности параметров, архитектуры и инфраструктуры.
7. Аутентифицировать и маркировать синтетический контент. При этом средства маркировки должны иметь идентификатор системы ИИ, которая создала контент, но не обязательно раскрывать информацию о пользователе.
8. Инвестировать в развитие механизмов по обеспечению безопасности систем ИИ и обмениваться информацией о передовых исследованиях в этой области.
9. В приоритетном порядке использовать системы ИИ для решения глобальных проблем человечества (климат, экология, здравоохранение и т.п.).
10. Содействовать разработке технических стандартов на международном уровне.
11. Осуществлять меры по обеспечению качества данных, защите конфиденциальности и интеллектуальной собственности.
Reuters
Exclusive: G7 to agree AI code of conduct for companies
The voluntary code of conduct will set a landmark for how major countries govern artificial intelligence amid privacy concerns and security risks, the document seen by Reuters showed.
👍5🦄2🔥1
Рейтер написал о существенном прорыве в развитии ИИ, который стал одной из причин корпоративных войн в OpenAI на прошлых выходных
Пятничное околоюридическое. Наверное, многие, как и я, все прошлые выходные с попкорном наблюдали за тем, что происходит внутри одной из компаний ИИ-лидеров OpenAI.
Вчера Рейтер выпустил материал со ссылкой на несколько источников внутри компании, в котором сообщил о том, что ряд сотрудников до всех последних событий направил письмо в адрес совета директоров с целью сообщить о значительных успехах в одном из проектов, связанных с использованием ИИ в академических исследованиях.
По информации издания, в компании ведутся исследования в рамках проекта под названием Q* (Q-Star), в результате которого якобы модели были обучены решать математические задачи школьного уровня. Это и послужило причиной того, что исследователи в письме выразили настороженность относительно опасности таких разработок для будущего человечества в связи с созданием AGI (общего ИИ). Подробностей крайне мало, чтобы можно было относиться к этому серьезно.
Также, по информации Блумберга, у генерального директора OpenAI Сэма Альтмана ранее уже возникали разногласия с другими коллегами по вопросам безопасности. Например, с Ильей Суцкевером, который внес значительный вклад в имеющиеся достижения компании. По данным издания, Суцкевер был озабочен тем, что Альтман концентрируется на коммерческом внедрении продуктов, но недостаточно занимается их безопасностью и митигированием возможных долгосрочных рисков. Недавно Суцкевер возглавил новый проект компании Superalignment по созданию специальных моделей, которые будут направлены на выравнивание ценностей и задач человека и ИИ, тем самым обеспечивая его подконтрольность и безопасность.
Важно отметить, что сам факт наличия подобных проблем в компании лидере в сфере ИИ в очередной раз ставит вопрос о необходимости защиты от человеческого фактора.
С юридической точки зрения в этом могло бы помочь нормативное регулирование, которое позволит: 1) обязать компании раскрывать информацию об исследованиях и разработке моделей в наиболее опасных областях и допускать к ним исследователей; 2) установить требования о внешней независимой оценке или аудите моделей на всех этапах жизненного цикла; 3) обязать создавать независимые внутренние подразделения и внедрять системы управления рисками.
Иногда юристы тоже могут помогать в спасении мира🐱 .
Краткая предыстория:
Вскоре после успешной презентации новых продуктов и фич внезапным решением совета директоров был отправлен в отставку один из сооснователей компании и по совместительству современная ИИ-икона Сэм Альтман. Вместе с ним о своем желании уйти заявили более 90% сотрудников компании. В СМИ и пабликах и ранее иронизировали об ощущении религиозного культа в компании после больших успехов в последние пару лет. Но ситуация развивалась быстро, и сначала Альтману и его соратникам предложили работу по соседству в Microsoft (Microsoft сейчас является крупнейшим инвестором OpenAI и активно интегрирует их модели в свои продукты), а затем они были возвращены в компанию с новым советом директоров.
Пятничное околоюридическое. Наверное, многие, как и я, все прошлые выходные с попкорном наблюдали за тем, что происходит внутри одной из компаний ИИ-лидеров OpenAI.
Вчера Рейтер выпустил материал со ссылкой на несколько источников внутри компании, в котором сообщил о том, что ряд сотрудников до всех последних событий направил письмо в адрес совета директоров с целью сообщить о значительных успехах в одном из проектов, связанных с использованием ИИ в академических исследованиях.
По информации издания, в компании ведутся исследования в рамках проекта под названием Q* (Q-Star), в результате которого якобы модели были обучены решать математические задачи школьного уровня. Это и послужило причиной того, что исследователи в письме выразили настороженность относительно опасности таких разработок для будущего человечества в связи с созданием AGI (общего ИИ). Подробностей крайне мало, чтобы можно было относиться к этому серьезно.
Также, по информации Блумберга, у генерального директора OpenAI Сэма Альтмана ранее уже возникали разногласия с другими коллегами по вопросам безопасности. Например, с Ильей Суцкевером, который внес значительный вклад в имеющиеся достижения компании. По данным издания, Суцкевер был озабочен тем, что Альтман концентрируется на коммерческом внедрении продуктов, но недостаточно занимается их безопасностью и митигированием возможных долгосрочных рисков. Недавно Суцкевер возглавил новый проект компании Superalignment по созданию специальных моделей, которые будут направлены на выравнивание ценностей и задач человека и ИИ, тем самым обеспечивая его подконтрольность и безопасность.
Важно отметить, что сам факт наличия подобных проблем в компании лидере в сфере ИИ в очередной раз ставит вопрос о необходимости защиты от человеческого фактора.
С юридической точки зрения в этом могло бы помочь нормативное регулирование, которое позволит: 1) обязать компании раскрывать информацию об исследованиях и разработке моделей в наиболее опасных областях и допускать к ним исследователей; 2) установить требования о внешней независимой оценке или аудите моделей на всех этапах жизненного цикла; 3) обязать создавать независимые внутренние подразделения и внедрять системы управления рисками.
Иногда юристы тоже могут помогать в спасении мира
Краткая предыстория:
Вскоре после успешной презентации новых продуктов и фич внезапным решением совета директоров был отправлен в отставку один из сооснователей компании и по совместительству современная ИИ-икона Сэм Альтман. Вместе с ним о своем желании уйти заявили более 90% сотрудников компании. В СМИ и пабликах и ранее иронизировали об ощущении религиозного культа в компании после больших успехов в последние пару лет. Но ситуация развивалась быстро, и сначала Альтману и его соратникам предложили работу по соседству в Microsoft (Microsoft сейчас является крупнейшим инвестором OpenAI и активно интегрирует их модели в свои продукты), а затем они были возвращены в компанию с новым советом директоров.
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say
Ahead of OpenAI CEO Sam Altman’s four days in exile, several staff researchers wrote a letter to the board of directors warning of a powerful artificial intelligence discovery that they said could threaten humanity, two people familiar with the matter told…
❤9🦄3
Продолжение противостояния вокруг регулирования в сфере разработки и применения базовых моделей в ЕС
В течение последних месяцев не утихают дискуссии вокруг регулирования в сфере разработки и применения базовых моделей в проекте Регламента ЕС об ИИ. Документ уже вошел в финальную стадию правотворческого процесса, и по большому счету, данный вопрос остался единственным из существенных, которые мешают его принятию.
Прим.: 1) в упрощенном понимании – базовая модель – модель ИИ, которая обучена на большом объеме данных, формирует универсальные выходные результаты и может быть адаптирована для решения широкого круга задач; 2) система ИИ общего назначения - система ИИ, в основе которой лежит базовая модель.
Все три варианта текста проекта Регламента содержат разные подходы к регулированию таких моделей: только общие требования ко всем системам ИИ по уровням риска и без установления дополнительных требований для разработчиков базовых моделей (текст Еврокомиссии); установление дополнительных требований для систем ИИ общего назначения (текст Евросовета); установление отдельных требований к базовым моделям, а системы ИИ общего назначения подпадают под общие требования по уровням риска (текст Европарламента).
В прошлом месяце были опубликованы предложения Евросовета под председательством Испании по введению двухуровневых требований к поставщикам базовых моделей. Было предложено разделить все базовые модели на две группы (продвинутые и все остальные) и установить более широкий объем требований к поставщикам продвинутых базовых моделей. Также проводилось различие между базовыми моделями и системами ИИ общего назначения. Подробно я разбирал это в посте тут.
Однако неделю назад издание Politico опубликовало non-paper (неофициальный документ с выражением позиции), от национальных органов Италии, Франции и Германии. В документе, с одной стороны, предлагается сохранить выделение базовых модели и систем ИИ общего назначения в силу их специфики, но с другой – вернуться к оригинальному риск-ориентированному подходу (в рамках the new legislative framework) и установить лишь требования к различным субъектам для вывода систем ИИ на рынок с соблюдением технологической нейтральности законодательства. Предлагается также отказаться от двухуровневых требований, которые были предложены Евросоветом, а также сблизить регуляторные подходы с принципами G7 (разбирал их совсем недавно тут).
Таким образом, вместо дополнительных законодательных требований для разработчиков базовых моделей предполагается обязать их внедрять добровольные правила поведения и сопровождать продукты карточками моделей с информацией о их предназначении, параметрах, возможных ограничениях и предвзятостях, результатах тестирования.
Такая позиция во многом связана с тем, что в этих странах появились собственные ИИ-компании (например, Mistral AI, Aleph Alpha), за счет которых власти надеются занять свое место в глобальной ИИ-гонке. Отсюда и возникло нежелание стеснять их юридическими требованиями.
Несколькими днями позднее появилась информация о том, что Еврокомиссией подготовлен и направлен для обсуждения компромиссный вариант регулирования. По данным Euractiv, теперь предлагается использовать термины модель ИИ общего назначения и система ИИ общего назначения. В плане требований к субъектам текст представляет собой более упрощенный вариант предложений Евросовета с добавлением кодексов лучших практик и карточек моделей из нонпейпера.
Также ряд ученых и разработчиков инициировали открытое письмо с поддержкой предложений Евросовета.
С высокой долей вероятности вопрос будет решен в течение нескольких следующих недель.
Буду держать вас в курсе🤩 .
В течение последних месяцев не утихают дискуссии вокруг регулирования в сфере разработки и применения базовых моделей в проекте Регламента ЕС об ИИ. Документ уже вошел в финальную стадию правотворческого процесса, и по большому счету, данный вопрос остался единственным из существенных, которые мешают его принятию.
Прим.: 1) в упрощенном понимании – базовая модель – модель ИИ, которая обучена на большом объеме данных, формирует универсальные выходные результаты и может быть адаптирована для решения широкого круга задач; 2) система ИИ общего назначения - система ИИ, в основе которой лежит базовая модель.
Все три варианта текста проекта Регламента содержат разные подходы к регулированию таких моделей: только общие требования ко всем системам ИИ по уровням риска и без установления дополнительных требований для разработчиков базовых моделей (текст Еврокомиссии); установление дополнительных требований для систем ИИ общего назначения (текст Евросовета); установление отдельных требований к базовым моделям, а системы ИИ общего назначения подпадают под общие требования по уровням риска (текст Европарламента).
В прошлом месяце были опубликованы предложения Евросовета под председательством Испании по введению двухуровневых требований к поставщикам базовых моделей. Было предложено разделить все базовые модели на две группы (продвинутые и все остальные) и установить более широкий объем требований к поставщикам продвинутых базовых моделей. Также проводилось различие между базовыми моделями и системами ИИ общего назначения. Подробно я разбирал это в посте тут.
Однако неделю назад издание Politico опубликовало non-paper (неофициальный документ с выражением позиции), от национальных органов Италии, Франции и Германии. В документе, с одной стороны, предлагается сохранить выделение базовых модели и систем ИИ общего назначения в силу их специфики, но с другой – вернуться к оригинальному риск-ориентированному подходу (в рамках the new legislative framework) и установить лишь требования к различным субъектам для вывода систем ИИ на рынок с соблюдением технологической нейтральности законодательства. Предлагается также отказаться от двухуровневых требований, которые были предложены Евросоветом, а также сблизить регуляторные подходы с принципами G7 (разбирал их совсем недавно тут).
Таким образом, вместо дополнительных законодательных требований для разработчиков базовых моделей предполагается обязать их внедрять добровольные правила поведения и сопровождать продукты карточками моделей с информацией о их предназначении, параметрах, возможных ограничениях и предвзятостях, результатах тестирования.
Такая позиция во многом связана с тем, что в этих странах появились собственные ИИ-компании (например, Mistral AI, Aleph Alpha), за счет которых власти надеются занять свое место в глобальной ИИ-гонке. Отсюда и возникло нежелание стеснять их юридическими требованиями.
Несколькими днями позднее появилась информация о том, что Еврокомиссией подготовлен и направлен для обсуждения компромиссный вариант регулирования. По данным Euractiv, теперь предлагается использовать термины модель ИИ общего назначения и система ИИ общего назначения. В плане требований к субъектам текст представляет собой более упрощенный вариант предложений Евросовета с добавлением кодексов лучших практик и карточек моделей из нонпейпера.
Также ряд ученых и разработчиков инициировали открытое письмо с поддержкой предложений Евросовета.
С высокой долей вероятности вопрос будет решен в течение нескольких следующих недель.
Буду держать вас в курсе
Please open Telegram to view this post
VIEW IN TELEGRAM
EURACTIV
AI Act: EU Commission attempts to revive tiered approach shifting to General Purpose AI
The European Commission circulated on Sunday (19 November) a possible compromise on the AI law to break the deadlock on foundation models, applying the tiered approach to General Purpose AI and introducing codes of practice for models with systemic risks.
👍6🔥1🦄1
Выводы из предыдущего поста
Из всего вышеизложенного хочется сформулировать две дополняющих друг друга мысли:
1. В силу особенностей распространения базовых моделей и систем ИИ общего назначения регулировать все этапы их жизненного цикла необходимо. Перекладывание груза требований и ответственности с примерно двадцати глобальных технологических гигантов на фактических нижестоящих поставщиков не является ни рациональным, ни справедливым. Более того, нижестоящие поставщики зачастую не имеют необходимой информации об инфраструктуре и обучении модели, а также о ведущихся доработках. Это мы еще даже не начали обсуждать вопрос возможных катастрофических рисков от передовых систем ИИ и их потенциальных эмерджентных возможностях.
2. Однако нормативное регулирование не должно быть сфокусировано только на бигтэках и передовых базовых моделях/системах ИИ. Разработка и применение всех других моделей и систем ИИ, которых есть и будет большинство, требует не меньше внимания со стороны законодателя. В этом, например, в ЕС куда больше преуспели, чем в США с фокусированием в последнем указе Президента США на базовых моделях двойного назначения (законопроекты пока в счет не берем).
Также наглядно можно посмотреть сравнение требований разных документов в материале от the Future of Life Institute.
Из всего вышеизложенного хочется сформулировать две дополняющих друг друга мысли:
1. В силу особенностей распространения базовых моделей и систем ИИ общего назначения регулировать все этапы их жизненного цикла необходимо. Перекладывание груза требований и ответственности с примерно двадцати глобальных технологических гигантов на фактических нижестоящих поставщиков не является ни рациональным, ни справедливым. Более того, нижестоящие поставщики зачастую не имеют необходимой информации об инфраструктуре и обучении модели, а также о ведущихся доработках. Это мы еще даже не начали обсуждать вопрос возможных катастрофических рисков от передовых систем ИИ и их потенциальных эмерджентных возможностях.
2. Однако нормативное регулирование не должно быть сфокусировано только на бигтэках и передовых базовых моделях/системах ИИ. Разработка и применение всех других моделей и систем ИИ, которых есть и будет большинство, требует не меньше внимания со стороны законодателя. В этом, например, в ЕС куда больше преуспели, чем в США с фокусированием в последнем указе Президента США на базовых моделях двойного назначения (законопроекты пока в счет не берем).
Также наглядно можно посмотреть сравнение требований разных документов в материале от the Future of Life Institute.
👍4👾2🦄1
pdf
EU AI Act Risk-Based Approach.pdf
EU AI Act Risk-Based Approach.pdf
4.8 MB
Статья о риск-ориентированном подходе в проекте Регламента ЕС об ИИ
В прошлом месяце у меня с коллегой вышла статья с общим анализом риск-ориентированного подхода, на котором основывается проект Регламента ЕС об ИИ, и выявлением некоторых присущих ему проблем. К сожалению, большая часть текста была написана еще летом, поэтому в ней отсутствует разбор новых предложений Евросовета, Еврокомиссии и отдельных стран ЕС. Тем не менее, оба этих вопроса рассмотрены в моих недавних постах тут и тут.
Статья вышла на английском языке. Прикладываю к посту аннотацию на русском. Полный текст можно скачать по ссылке на странице журнала или в пдф файле под постом.
Аннотация:
В статье анализируется риск-ориентированный подход, который лежит в основе проекта Регламента ЕС об ИИ. Предполагается, что данный акт будет принят до конца 2023 года и станет центральным звеном в системе правого регулирования отношений, связанных разработкой и применением систем искусственного интеллекта в Европейском союзе. Вместе с тем постоянное изменение технологических реалий создает новые проблемы и вызовы для законодателей, сбалансированное решение которых займет еще годы. Также широкое распространение за последний год базовых моделей и систем искусственного интеллекта общего назначения потребует доработки первоначальной концепции риск-ориентированного подхода. В настоящем исследовании проанализированы общие проблемы, присущие риск-ориентированному подходу, такие как определение круга систем искусственного интеллекта, их классификация по уровням риска для прав человека, а также распространение оптимального набора юридических требований для каждой группы таких систем. Делается вывод, что для более гибкого подхода к нормативному правовому регулированию необходимо дифференцировать требования как по уровням риска, так и по всем этапам их жизненного цикла и уровням автономности. Отдельно анализируются проблемы распространения риск-ориентированного подхода на базовые модели и системы искусственного интеллекта общего назначения.
В прошлом месяце у меня с коллегой вышла статья с общим анализом риск-ориентированного подхода, на котором основывается проект Регламента ЕС об ИИ, и выявлением некоторых присущих ему проблем. К сожалению, большая часть текста была написана еще летом, поэтому в ней отсутствует разбор новых предложений Евросовета, Еврокомиссии и отдельных стран ЕС. Тем не менее, оба этих вопроса рассмотрены в моих недавних постах тут и тут.
Статья вышла на английском языке. Прикладываю к посту аннотацию на русском. Полный текст можно скачать по ссылке на странице журнала или в пдф файле под постом.
Аннотация:
В статье анализируется риск-ориентированный подход, который лежит в основе проекта Регламента ЕС об ИИ. Предполагается, что данный акт будет принят до конца 2023 года и станет центральным звеном в системе правого регулирования отношений, связанных разработкой и применением систем искусственного интеллекта в Европейском союзе. Вместе с тем постоянное изменение технологических реалий создает новые проблемы и вызовы для законодателей, сбалансированное решение которых займет еще годы. Также широкое распространение за последний год базовых моделей и систем искусственного интеллекта общего назначения потребует доработки первоначальной концепции риск-ориентированного подхода. В настоящем исследовании проанализированы общие проблемы, присущие риск-ориентированному подходу, такие как определение круга систем искусственного интеллекта, их классификация по уровням риска для прав человека, а также распространение оптимального набора юридических требований для каждой группы таких систем. Делается вывод, что для более гибкого подхода к нормативному правовому регулированию необходимо дифференцировать требования как по уровням риска, так и по всем этапам их жизненного цикла и уровням автономности. Отдельно анализируются проблемы распространения риск-ориентированного подхода на базовые модели и системы искусственного интеллекта общего назначения.
🔥7🦄2👾2👍1
Еврокомиссия объявила о создании ИИ-Пакта в поддержку реализации положений проекта Регламента ЕС об ИИ
В ноябре Еврокомиссия призвала ключевых европейских и иностранных отраслевых игроков к участие в ИИ-Пакте. Последний направлен на то, чтобы сверить часы и подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ.
В рамках Пакта предлагается, чтобы стейкхолдеры собирали релевантную информацию и обменивались лучшими практиками между собой и Еврокомиссией. Также у компаний будет возможность подготовить свои продукты к соответствию требованиям Регламента и предварительно продемонстрировать это компетентным органам. Для этого они будут подписывать декларации о сотрудничестве, в которых будет публично сообщаться о поэтапном добровольном принятии обязательств по соблюдению требований Регламента.
Еврокомиссия, со своей стороны, обязуется всячески помогать компаниям на этом пути. Например, через объяснение нормативных положений, содействие в построении внутренних процессов, обучение персонала.
Старт проекта намечен на начало 2024 года после сбора заявок от всех заинтересованных компаний.
В ноябре Еврокомиссия призвала ключевых европейских и иностранных отраслевых игроков к участие в ИИ-Пакте. Последний направлен на то, чтобы сверить часы и подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ.
В рамках Пакта предлагается, чтобы стейкхолдеры собирали релевантную информацию и обменивались лучшими практиками между собой и Еврокомиссией. Также у компаний будет возможность подготовить свои продукты к соответствию требованиям Регламента и предварительно продемонстрировать это компетентным органам. Для этого они будут подписывать декларации о сотрудничестве, в которых будет публично сообщаться о поэтапном добровольном принятии обязательств по соблюдению требований Регламента.
Еврокомиссия, со своей стороны, обязуется всячески помогать компаниям на этом пути. Например, через объяснение нормативных положений, содействие в построении внутренних процессов, обучение персонала.
Старт проекта намечен на начало 2024 года после сбора заявок от всех заинтересованных компаний.
Shaping Europe’s digital future
AI Pact
The AI Pact encourages and supports organisations to plan ahead for the implementation of AI Act measures.
❤5👍1 1
Каким образом американские бигтэки лоббируют уменьшение требований к поставщикам базовых моделей и систем ИИ в процессе принятия проекта Регламента ЕС об ИИ
Пока мы ждем пресс-конференцию по итогам последнего трилога по проекту Регламента ЕС об ИИ, обращаю ваше внимание на исследование, подготовленное Corporate Europe Observatory (предыдущее их исследование разобрано тут). В исследовании анализируется, каким образом в процессе обсуждения проекта Регламента ЕС об ИИ за последние несколько лет менялись позиции законодателей, а также какую роль в этом играли американские корпорации (а также с недавних пор и отдельные страны Европы с их ИИ-стартапами). В документе очень много интересных деталей, рассмотрим некоторые из них. В следующем посте будет выложена инфографика из исследования.
Во-первых, авторы демонстрируют тенденцию смещения риторики вокруг вопроса о регулировании в сфере разработки и применения моделей и систем ИИ общего назначения. Первоначальная жесткая позиция об отнесении их к группе систем ИИ повышенного риска сменилась на установление дополнительных требований по раскрытию информации внутри цепочки поставки и прозрачности. Также интерес вызывает и то, что исследователи подчеркивают выгоду бигтектов от смещения дискурса от сквозного регулирования всех систем ИИ в сторону разработки и применения только лишь передовых базовых моделей и митигирования потенциально порождаемых ими катастрофических рисков.
Во-вторых, в статье показывается поэтапное смягчение позиции относительно отнесения систем ИИ к группе повышенного риска (на поставщиков которых распространяются наиболее объемные обязательства). В последней версии документа системы ИИ повышенного риска, выделенные на основе сфер применения (приложение III), будут признаны таковыми, только если они потенциально представляют значительную опасность для жизни, безопасности и основным правам человека. А системы ИИ, предназначенные для управления и эксплуатации критически важной цифровой инфраструктуры, дополнительно должны создавать существенные риски для окружающей среды. Введение данного дополнительного слоя требований стало значительным шагом в сторону либерализации требований к бизнесу.
В-третьих, произошел полный отказ от введения внешнего независимого аудита для систем ИИ. В тексте документа предусматриваются два вида процедуры оценки соответствия: а) оценка, основанная на внутреннем контроле в соответствии с Приложением VI; б) оценка, основанная на проверке системы оценки качества и технической документации с участием нотифицированного органа в соответствии с Приложением VII. При этом последняя процедура будет использоваться для относительно небольшой категории случаев, когда неприменимы технические стандарты и единые спецификации, разработанные Еврокомиссией, либо поставщик добровольно решил пройти внешнюю оценку соответствия вне зависимости от отнесения системы ИИ к тому или иному уровню риска.
Пресс-конференцию по итогам трилога можно посмотреть по ссылке, но время начала уже переносили два раза подряд.
Пока мы ждем пресс-конференцию по итогам последнего трилога по проекту Регламента ЕС об ИИ, обращаю ваше внимание на исследование, подготовленное Corporate Europe Observatory (предыдущее их исследование разобрано тут). В исследовании анализируется, каким образом в процессе обсуждения проекта Регламента ЕС об ИИ за последние несколько лет менялись позиции законодателей, а также какую роль в этом играли американские корпорации (а также с недавних пор и отдельные страны Европы с их ИИ-стартапами). В документе очень много интересных деталей, рассмотрим некоторые из них. В следующем посте будет выложена инфографика из исследования.
Во-первых, авторы демонстрируют тенденцию смещения риторики вокруг вопроса о регулировании в сфере разработки и применения моделей и систем ИИ общего назначения. Первоначальная жесткая позиция об отнесении их к группе систем ИИ повышенного риска сменилась на установление дополнительных требований по раскрытию информации внутри цепочки поставки и прозрачности. Также интерес вызывает и то, что исследователи подчеркивают выгоду бигтектов от смещения дискурса от сквозного регулирования всех систем ИИ в сторону разработки и применения только лишь передовых базовых моделей и митигирования потенциально порождаемых ими катастрофических рисков.
Во-вторых, в статье показывается поэтапное смягчение позиции относительно отнесения систем ИИ к группе повышенного риска (на поставщиков которых распространяются наиболее объемные обязательства). В последней версии документа системы ИИ повышенного риска, выделенные на основе сфер применения (приложение III), будут признаны таковыми, только если они потенциально представляют значительную опасность для жизни, безопасности и основным правам человека. А системы ИИ, предназначенные для управления и эксплуатации критически важной цифровой инфраструктуры, дополнительно должны создавать существенные риски для окружающей среды. Введение данного дополнительного слоя требований стало значительным шагом в сторону либерализации требований к бизнесу.
В-третьих, произошел полный отказ от введения внешнего независимого аудита для систем ИИ. В тексте документа предусматриваются два вида процедуры оценки соответствия: а) оценка, основанная на внутреннем контроле в соответствии с Приложением VI; б) оценка, основанная на проверке системы оценки качества и технической документации с участием нотифицированного органа в соответствии с Приложением VII. При этом последняя процедура будет использоваться для относительно небольшой категории случаев, когда неприменимы технические стандарты и единые спецификации, разработанные Еврокомиссией, либо поставщик добровольно решил пройти внешнюю оценку соответствия вне зависимости от отнесения системы ИИ к тому или иному уровню риска.
Пресс-конференцию по итогам трилога можно посмотреть по ссылке, но время начала уже переносили два раза подряд.
corporateeurope.org
Byte by byte
Tech giants are receiving privileged and disproportionate access to senior European policymakers during the final stages of negotiating the AI Act. Fundamental rights and protections of copyright and the environment are being sacrificed for the sake of corporate…
❤3 2 1