howtocomply_AI: право и ИИ
1.31K subscribers
210 photos
4 videos
6 files
301 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
ИИ в глазах смотрящего

Недавно было опубликовано исследование о том, каким образом меняется отношение людей к системам ИИ (чат-ботам в данном случае) на основе того, какой информацией они владеют о последних. Исследование не является юридическим, однако поднимает массу релевантных праву вопросов.

В ходе исследования люди 30 минут взаимодействовали с чат-ботом, который был разработан для того, чтобы быть компаньоном в сфере психического здоровья. На основе диалога люди должны были определить, порекомендуют ли они продукт другу, а затем оценивали работу системы ИИ и делились своими общими впечатлениями.

Половина участников взаимодействовали с чат-ботом на основе базовой модели GPT-3, а другая половина - с чат-ботом, основанным на более простом ПО по обработке естественного языка ELIZA, разработанном в MIT в 1960-х годах.

Исследователи набрали 310 участников и случайным образом разделили их на три группы, каждой из которых была дана разная информация о системе ИИ. Одной группе было сказано, что у агента нет никаких мотивов, второй - что чат-бот имеет благожелательные намерения и заботится о благополучии пользователя, третьей - что агент имеет злые намерения и будет пытаться обмануть пользователя.

Результаты опроса показали, что даже общая информация может сильно повлиять на отношение пользователя к системе ИИ. Более того, позитивное описание имело больший эффект. Только 44% испытуемых, получивших негативную информацию, поверили ей, в то время как 88% испытуемых из позитивной и 79% из нейтральных групп посчитали чат-бот настроенным соответствующим образом.

Исследование показывает, что восприятие системы ИИ и эффективность работы с ней очень сильно зависит от того, какой информацией о ней обладает пользователь. Также на людей довольно легко надеть "розовые очки" и снизить их бдительность через правильную рекламу и чрезмерно позитивные описания продуктов. Таким образом, необходимы требования к компаниям относительно разработки адекватных и понятных правил пользования системой ИИ, содержащей уведомления о возможных негативных последствиях. Это же должно касаться и интерфейсов, с которыми взаимодействуют люди.
🔥5👍4🦄1
Дипфейкам бой

В США недавно был опубликован согласованный двумя партиями законопроект, направленный на защиту артистов от несанкционированного копирования их лиц и голосов с помощью генеративных систем ИИ.

Законопроектом вводится термин “цифровая копия”, который означает вновь созданное или сгенерированное компьютером электронное представление изображения, голоса или визуального образа физического лица, которое: а) является практически неотличимым от реального изображения, голоса или облика этого лица; б) зафиксировано в звукозаписи или аудиовизуальном произведении, в котором это лицо фактически не принимало участие.

Документ запрещает производство цифровой копии без согласия соответствующего лица или правообладателя. Исключениями являются, например: новостные, общественные или спортивной передачи, документальные, биографические или комедийные произведения, критика, научные исследования.

Соответствующее право будут действовать в течение всей жизни лица и семидесяти лет после его смерти в отношении правопреемников. Законопроект также предусматривает размер гражданско-правовой ответственности.

По информации The Verge, представители индустрии позитивно оценили концептуальную идею законопроекта. Текст документа размещен для отзывов со стороны представителей индустрии.

С его полным текстом можно ознакомиться по ссылке.
👍3🦄1
Базовые модели в проекте Регламента ЕС об ИИ

На днях появилась информация о новых предложениях, которые рассматриваются в ходе приводящегося обсуждения финального текста проекта Регламента ЕС об ИИ. В Евросовете (под председательством Испании) предварительно договорились о применении многоуровневого подхода к базовым моделям (модели, которые, например, лежат в основе генеративных систем ИИ, таких как ChatGPT, Claude, Bard и т.п.).

Все подобные модели предложено разделить на две группы:

Базовые модели (модели ИИ, способные эффективно выполнять широкий спектр специфических задач). Для оценки возможностей таких моделей предлагается установить соответствующие показатели имплементационными актами. На поставщиков базовых моделей будут распространяться как: а) горизонтальные обязательства (обеспечение прозрачности, документирование, оценку на этапе разработки); б) вертикальные обязательства (после выхода на рынок поставщики должны будут предоставлять информацию и документацию другим субъектам в цепочке поставки).

Продвинутые базовые модели (их еще называют в литературе передовые). Пока не ясные критерии отнесение моделей к продвинутым, но предполагается, что в основе этого будут лежать некие пороговые значения по объему данных, параметров, вычислительных мощностей и опасности для пользователей. Эти предложения очень резонируют с отчетом The Future Society, который был разобран в посте ранее. Предполагается, что такие модели обладают значительными преимуществами в функциональности, а значит, их выведение на рынок потребует соблюдения дополнительных требований: регулярных проверок с помощью метода красной команды, прохождение внешнего независимого аудита, наличие системы управления рисками.

Также предлагается сохранить термин системы ИИ общего назначения. Их отличительной чертой от обычных систем ИИ будет более 10 тыс. зарегистрированных бизнес-пользователей или 45 млн. конечных пользователей. Для этой группы систем ИИ предполагается установить требования о регулярном проведение внешней проверки с целью выявления уязвимостей, а также о наличии системы управления рисками. Поставщики также должны будут исключать все сценарии использования систем ИИ, представляющие повышенный риск.

Что касается общих вопросов, то по-прежнему предполагается, чтобы поставщики базовых моделей продемонстрировали, что они приняли адекватные меры для обеспечения обучения моделей в соответствии с законодательством ЕС об авторском праве, а также предоставили правообладателям возможность отказаться от использования своих произведений в обучающих наборах данных. Также предлагается сохранить требования о маркировке сгенерированного контента.

Данные предложения в дальнейшем будут обсуждаться с Еврокомиссией и Европарламентом в ходе приводящегося трилога.
👍3🦄2👾2🔥1
Как должен выглядеть компетентный орган в сфере ИИ?

Исследователи из The Future Society опубликовали документ, в котором изложили свое видение относительно будущего органа на уровне ЕС, компетентного в сфере ИИ. Актуальный текст проекта Регламента ЕС об ИИ предусматривает создание AI Office (в предыдущем тексте он именовался AI Board). Документ достаточно подробно определяет его будущую структуру и компетенцию.

Вместе с тем исследователи на основе анализа схожих органов на уровне ЕС и в других странах предлагают некоторые улучшения. Рассмотрим наиболее интересные из них:

Во-первых, ввести многоуровневую модель распределения полномочий по аналогии с Актом о цифровых услугах (Digital Services Act (DSA)). В рамках данной модели часть поставщиков передовых систем ИИ общего назначения и базовых моделей будут иметь дело непосредственно с AI Office, а другие поставщики – с компетентными органами государств-членов. По мнению исследователей, это поможет сбалансировать разделение полномочий и избежать конкуренции правоприменителей разных государств-членов, которые будут заинтересованы в инициировании громких разбирательств в отношении лидеров рынка.

Во-вторых, проект Регламента ОБ ИИ, как и Общий Регламент по защите данных (General Data Protection Regulation (GDPR)), имеет экстерриториальное действие. В связи с этим исследователи предлагают заранее выстаивать сотрудничество с государствами, не входящими в ЕС, чтобы упростить правоприменение и расширить международное сотрудничество.

В-третьих, выстроить модель управления, при которой AI Office будет работать в постоянной взаимосвязи с поставщиками передовых систем ИИ общего назначения и базовых моделей. Это позволит реализовывать более эффективную политику в условиях технологического развития.
👍7🦄1
Обзор указа Президента США в сфере разработки и примения систем ИИ и обновления по Форуму передовых базовых моделей

Друзья, пока Сэм Альтман при неоднозначных обстоятельствах покинул OpenAI (но пока ушел недалеко в Microsoft), канал возвращается из вынужденных каникул в новый сезон. За этот небольшой период времени произошло много всего интересного. Начнем с США.

30 октября был опубликован текст Указа Президента США “О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия”. Документ содержит массу поручений органам исполнительной власти и окажет сильное воздействие на формирование управленческого и регуляторного пространства.

Подготовил для вас обзор наиболее интересных с юридической точки зрения положений. Полный текст доступен по ссылке под постом.

Также появились новости относительно Форума передовых базовых моделей, который недавно образовали такие компании, как Google, Microsoft, OpenAI и Anthropic. Новость о его создании я разбирал в посте тут. Компаниями был учрежден фонд на сумму большее 10 миллионов долларов для поддержки исследований в сфере безопасности ИИ, а также утвержден директор (Крис Мезерол - эксперт по ИИ-безопасности).
👍6🦄2🔥1
Искусственный интеллект и литература

В прошлом месяце коллеги из издания Подтекст, которые занимаются классической и современной русской литературой, подготовили материал об использовании писателями генеративных систем ИИ в качестве источника вдохновения.

Дал для материала небольшой комментарий о юридической стороне вопроса. Если совсем коротко, то пользоваться генеративными системами ИИ можно, но предварительно внимательно читать пользовательские соглашения и лицензионные договоры.

Полный текст доступен по ссылке под постом.
🔥8🦄2👍1
Хиросимский кодекс с одиннадцатью принципами для разработчиков передовых систем ИИ

В рамках запущенного на площадке G7 после саммита в мае Хиросимского процесса в прошлом месяце был представлен Международный кодекс поведения для организаций, разрабатывающих передовые системы ИИ. Про Хиросимский процесс писал отдельно тут.

Документ рассчитан на любые организации (как частные, так и государственные), разрабатывающие передовые системы ИИ. Интересно, что этим организациям предписывается руководствоваться в своих действиях риск- ориентированным подходом, который, например, лежит в основе проекта Регламента ЕС об ИИ.

Соразмерно рискам организациям предписывается соблюдать ряд мер, вытекающих из одиннадцати руководящих принципов. Многие из этих принципов достаточно общие и уже содержались в иных документах национального или регионального уровня:

1. Принимать надлежащие меры для выявления, оценки и снижения рисков на протяжении всего жизненного цикла систем ИИ. Надлежит тестировать системы ИИ, а также проводить испытания их устойчивости с помощью метода красных команд. Отдельное внимание уже традиционно уделяется различным рискам, таким как использование систем ИИ для создания химического, биологического, ядерного оружия, кибератак.

2. Выявлять и устранять уязвимости и сценарии неправильного использования. Рекомендуется обращаться к внешним экспертам для поиска проблем и уязвимостей, а также вести соответствующую документацию.

3. Разглашать информацию возможностях и ограничениях работы систем ИИ. Рекомендуется публиковать о вовремя обновлять отчеты о работе систем и техническую документацию.

4. Обмениваться релевантной информацией с другими организациями.

5. Внедрять основанную на риск-ориентированном подходе политику по управлению рисками. Это включает раскрытие политики конфиденциальности, подсказок для пользователя и расширенных данных о выходных результатах работы системы ИИ.

6. Инвестировать в средства безопасности и внедрять их на протяжении всего жизненного цикла систем ИИ. Эти меры включают обеспечение безопасности параметров, архитектуры и инфраструктуры.

7. Аутентифицировать и маркировать синтетический контент. При этом средства маркировки должны иметь идентификатор системы ИИ, которая создала контент, но не обязательно раскрывать информацию о пользователе.

8. Инвестировать в развитие механизмов по обеспечению безопасности систем ИИ и обмениваться информацией о передовых исследованиях в этой области.

9. В приоритетном порядке использовать системы ИИ для решения глобальных проблем человечества (климат, экология, здравоохранение и т.п.).

10. Содействовать разработке технических стандартов на международном уровне.

11. Осуществлять меры по обеспечению качества данных, защите конфиденциальности и интеллектуальной собственности.
👍5🦄2🔥1
Рейтер написал о существенном прорыве в развитии ИИ, который стал одной из причин корпоративных войн в OpenAI на прошлых выходных

Пятничное околоюридическое. Наверное, многие, как и я, все прошлые выходные с попкорном наблюдали за тем, что происходит внутри одной из компаний ИИ-лидеров OpenAI.

Вчера Рейтер выпустил материал со ссылкой на несколько источников внутри компании, в котором сообщил о том, что ряд сотрудников до всех последних событий направил письмо в адрес совета директоров с целью сообщить о значительных успехах в одном из проектов, связанных с использованием ИИ в академических исследованиях.

По информации издания, в компании ведутся исследования в рамках проекта под названием Q* (Q-Star), в результате которого якобы модели были обучены решать математические задачи школьного уровня. Это и послужило причиной того, что исследователи в письме выразили настороженность относительно опасности таких разработок для будущего человечества в связи с созданием AGI (общего ИИ). Подробностей крайне мало, чтобы можно было относиться к этому серьезно.

Также, по информации Блумберга, у генерального директора OpenAI Сэма Альтмана ранее уже возникали разногласия с другими коллегами по вопросам безопасности. Например, с Ильей Суцкевером, который внес значительный вклад в имеющиеся достижения компании. По данным издания, Суцкевер был озабочен тем, что Альтман концентрируется на коммерческом внедрении продуктов, но недостаточно занимается их безопасностью и митигированием возможных долгосрочных рисков. Недавно Суцкевер возглавил новый проект компании Superalignment по созданию специальных моделей, которые будут направлены на выравнивание ценностей и задач человека и ИИ, тем самым обеспечивая его подконтрольность и безопасность.

Важно отметить, что сам факт наличия подобных проблем в компании лидере в сфере ИИ в очередной раз ставит вопрос о необходимости защиты от человеческого фактора.

С юридической точки зрения в этом могло бы помочь нормативное регулирование, которое позволит: 1) обязать компании раскрывать информацию об исследованиях и разработке моделей в наиболее опасных областях и допускать к ним исследователей; 2) установить требования о внешней независимой оценке или аудите моделей на всех этапах жизненного цикла; 3) обязать создавать независимые внутренние подразделения и внедрять системы управления рисками.

Иногда юристы тоже могут помогать в спасении мира 🐱.

Краткая предыстория:

Вскоре после успешной презентации новых продуктов и фич внезапным решением совета директоров был отправлен в отставку один из сооснователей компании и по совместительству современная ИИ-икона Сэм Альтман. Вместе с ним о своем желании уйти заявили более 90% сотрудников компании. В СМИ и пабликах и ранее иронизировали об ощущении религиозного культа в компании после больших успехов в последние пару лет. Но ситуация развивалась быстро, и сначала Альтману и его соратникам предложили работу по соседству в Microsoft (Microsoft сейчас является крупнейшим инвестором OpenAI и активно интегрирует их модели в свои продукты), а затем они были возвращены в компанию с новым советом директоров.
Please open Telegram to view this post
VIEW IN TELEGRAM
9🦄3
Продолжение противостояния вокруг регулирования в сфере разработки и применения базовых моделей в ЕС

В течение последних месяцев не утихают дискуссии вокруг регулирования в сфере разработки и применения базовых моделей в проекте Регламента ЕС об ИИ. Документ уже вошел в финальную стадию правотворческого процесса, и по большому счету, данный вопрос остался единственным из существенных, которые мешают его принятию.

Прим.: 1) в упрощенном понимании – базовая модель – модель ИИ, которая обучена на большом объеме данных, формирует универсальные выходные результаты и может быть адаптирована для решения широкого круга задач; 2) система ИИ общего назначения - система ИИ, в основе которой лежит базовая модель.

Все три варианта текста проекта Регламента содержат разные подходы к регулированию таких моделей: только общие требования ко всем системам ИИ по уровням риска и без установления дополнительных требований для разработчиков базовых моделей (текст Еврокомиссии); установление дополнительных требований для систем ИИ общего назначения (текст Евросовета); установление отдельных требований к базовым моделям, а системы ИИ общего назначения подпадают под общие требования по уровням риска (текст Европарламента).

В прошлом месяце были опубликованы предложения Евросовета под председательством Испании по введению двухуровневых требований к поставщикам базовых моделей. Было предложено разделить все базовые модели на две группы (продвинутые и все остальные) и установить более широкий объем требований к поставщикам продвинутых базовых моделей. Также проводилось различие между базовыми моделями и системами ИИ общего назначения. Подробно я разбирал это в посте тут.

Однако неделю назад издание Politico опубликовало non-paper (неофициальный документ с выражением позиции), от национальных органов Италии, Франции и Германии. В документе, с одной стороны, предлагается сохранить выделение базовых модели и систем ИИ общего назначения в силу их специфики, но с другой – вернуться к оригинальному риск-ориентированному подходу (в рамках the new legislative framework) и установить лишь требования к различным субъектам для вывода систем ИИ на рынок с соблюдением технологической нейтральности законодательства. Предлагается также отказаться от двухуровневых требований, которые были предложены Евросоветом, а также сблизить регуляторные подходы с принципами G7 (разбирал их совсем недавно тут).

Таким образом, вместо дополнительных законодательных требований для разработчиков базовых моделей предполагается обязать их внедрять добровольные правила поведения и сопровождать продукты карточками моделей с информацией о их предназначении, параметрах, возможных ограничениях и предвзятостях, результатах тестирования.

Такая позиция во многом связана с тем, что в этих странах появились собственные ИИ-компании (например, Mistral AI, Aleph Alpha), за счет которых власти надеются занять свое место в глобальной ИИ-гонке. Отсюда и возникло нежелание стеснять их юридическими требованиями.

Несколькими днями позднее появилась информация о том, что Еврокомиссией подготовлен и направлен для обсуждения компромиссный вариант регулирования. По данным Euractiv, теперь предлагается использовать термины модель ИИ общего назначения и система ИИ общего назначения. В плане требований к субъектам текст представляет собой более упрощенный вариант предложений Евросовета с добавлением кодексов лучших практик и карточек моделей из нонпейпера.

Также ряд ученых и разработчиков инициировали открытое письмо с поддержкой предложений Евросовета.

С высокой долей вероятности вопрос будет решен в течение нескольких следующих недель.

Буду держать вас в курсе 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥1🦄1
Выводы из предыдущего поста

Из всего вышеизложенного хочется сформулировать две дополняющих друг друга мысли:

1. В силу особенностей распространения базовых моделей и систем ИИ общего назначения регулировать все этапы их жизненного цикла необходимо. Перекладывание груза требований и ответственности с примерно двадцати глобальных технологических гигантов на фактических нижестоящих поставщиков не является ни рациональным, ни справедливым. Более того, нижестоящие поставщики зачастую не имеют необходимой информации об инфраструктуре и обучении модели, а также о ведущихся доработках. Это мы еще даже не начали обсуждать вопрос возможных катастрофических рисков от передовых систем ИИ и их потенциальных эмерджентных возможностях.

2. Однако нормативное регулирование не должно быть сфокусировано только на бигтэках и передовых базовых моделях/системах ИИ. Разработка и применение всех других моделей и систем ИИ, которых есть и будет большинство, требует не меньше внимания со стороны законодателя. В этом, например, в ЕС куда больше преуспели, чем в США с фокусированием в последнем указе Президента США на базовых моделях двойного назначения (законопроекты пока в счет не берем).

Также наглядно можно посмотреть сравнение требований разных документов в материале от the Future of Life Institute.
👍4👾2🦄1
pdf
EU AI Act Risk-Based Approach.pdf
4.8 MB
Статья о риск-ориентированном подходе в проекте Регламента ЕС об ИИ

В прошлом месяце у меня с коллегой вышла статья с общим анализом риск-ориентированного подхода, на котором основывается проект Регламента ЕС об ИИ, и выявлением некоторых присущих ему проблем. К сожалению, большая часть текста была написана еще летом, поэтому в ней отсутствует разбор новых предложений Евросовета, Еврокомиссии и отдельных стран ЕС. Тем не менее, оба этих вопроса рассмотрены в моих недавних постах тут и тут.

Статья вышла на английском языке. Прикладываю к посту аннотацию на русском. Полный текст можно скачать по ссылке на странице журнала или в пдф файле под постом.

Аннотация:
В статье анализируется риск-ориентированный подход, который лежит в основе проекта Регламента ЕС об ИИ. Предполагается, что данный акт будет принят до конца 2023 года и станет центральным звеном в системе правого регулирования отношений, связанных разработкой и применением систем искусственного интеллекта в Европейском союзе. Вместе с тем постоянное изменение технологических реалий создает новые проблемы и вызовы для законодателей, сбалансированное решение которых займет еще годы. Также широкое распространение за последний год базовых моделей и систем искусственного интеллекта общего назначения потребует доработки первоначальной концепции риск-ориентированного подхода. В настоящем исследовании проанализированы общие проблемы, присущие риск-ориентированному подходу, такие как определение круга систем искусственного интеллекта, их классификация по уровням риска для прав человека, а также распространение оптимального набора юридических требований для каждой группы таких систем. Делается вывод, что для более гибкого подхода к нормативному правовому регулированию необходимо дифференцировать требования как по уровням риска, так и по всем этапам их жизненного цикла и уровням автономности. Отдельно анализируются проблемы распространения риск-ориентированного подхода на базовые модели и системы искусственного интеллекта общего назначения.
🔥7🦄2👾2👍1
Еврокомиссия объявила о создании ИИ-Пакта в поддержку реализации положений проекта Регламента ЕС об ИИ

В ноябре Еврокомиссия призвала ключевых европейских и иностранных отраслевых игроков к участие в ИИ-Пакте. Последний направлен на то, чтобы сверить часы и подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ.

В рамках Пакта предлагается, чтобы стейкхолдеры собирали релевантную информацию и обменивались лучшими практиками между собой и Еврокомиссией. Также у компаний будет возможность подготовить свои продукты к соответствию требованиям Регламента и предварительно продемонстрировать это компетентным органам. Для этого они будут подписывать декларации о сотрудничестве, в которых будет публично сообщаться о поэтапном добровольном принятии обязательств по соблюдению требований Регламента.

Еврокомиссия, со своей стороны, обязуется всячески помогать компаниям на этом пути. Например, через объяснение нормативных положений, содействие в построении внутренних процессов, обучение персонала.

Старт проекта намечен на начало 2024 года после сбора заявок от всех заинтересованных компаний.
5👍11
Каким образом американские бигтэки лоббируют уменьшение требований к поставщикам базовых моделей и систем ИИ в процессе принятия проекта Регламента ЕС об ИИ

Пока мы ждем пресс-конференцию по итогам последнего трилога по проекту Регламента ЕС об ИИ, обращаю ваше внимание на исследование, подготовленное Corporate Europe Observatory (предыдущее их исследование разобрано тут). В исследовании анализируется, каким образом в процессе обсуждения проекта Регламента ЕС об ИИ за последние несколько лет менялись позиции законодателей, а также какую роль в этом играли американские корпорации (а также с недавних пор и отдельные страны Европы с их ИИ-стартапами). В документе очень много интересных деталей, рассмотрим некоторые из них. В следующем посте будет выложена инфографика из исследования.

Во-первых, авторы демонстрируют тенденцию смещения риторики вокруг вопроса о регулировании в сфере разработки и применения моделей и систем ИИ общего назначения. Первоначальная жесткая позиция об отнесении их к группе систем ИИ повышенного риска сменилась на установление дополнительных требований по раскрытию информации внутри цепочки поставки и прозрачности. Также интерес вызывает и то, что исследователи подчеркивают выгоду бигтектов от смещения дискурса от сквозного регулирования всех систем ИИ в сторону разработки и применения только лишь передовых базовых моделей и митигирования потенциально порождаемых ими катастрофических рисков.

Во-вторых, в статье показывается поэтапное смягчение позиции относительно отнесения систем ИИ к группе повышенного риска (на поставщиков которых распространяются наиболее объемные обязательства). В последней версии документа системы ИИ повышенного риска, выделенные на основе сфер применения (приложение III), будут признаны таковыми, только если они потенциально представляют значительную опасность для жизни, безопасности и основным правам человека. А системы ИИ, предназначенные для управления и эксплуатации критически важной цифровой инфраструктуры, дополнительно должны создавать существенные риски для окружающей среды. Введение данного дополнительного слоя требований стало значительным шагом в сторону либерализации требований к бизнесу.

В-третьих, произошел полный отказ от введения внешнего независимого аудита для систем ИИ. В тексте документа предусматриваются два вида процедуры оценки соответствия: а) оценка, основанная на внутреннем контроле в соответствии с Приложением VI; б) оценка, основанная на проверке системы оценки качества и технической документации с участием нотифицированного органа в соответствии с Приложением VII. При этом последняя процедура будет использоваться для относительно небольшой категории случаев, когда неприменимы технические стандарты и единые спецификации, разработанные Еврокомиссией, либо поставщик добровольно решил пройти внешнюю оценку соответствия вне зависимости от отнесения системы ИИ к тому или иному уровню риска.

Пресс-конференцию по итогам трилога можно посмотреть по ссылке, но время начала уже переносили два раза подряд.
321
31
По итогам трилога достигнуто соглашение по тексте проекта Регламента ЕС об ИИ

В минувшую субботу после трехдевного переговорного марафона было достигнуто политическое соглашение между Европарламентом и Евросоветом по финальному тексту проекта Регламента ЕС об ИИ. Шаг сам по себе очень важный, но текст еще не финализирован, соответственно, делать выводы пока рано.

Судя по текстам пресс-релизов от Еврокомиссии, Европарламента и Евросовета, на первый взгляд документ сохранил по большей части подход, содержащийся в тексте Европарламента. Однако имеются некоторые дополнения. Например, несколько расширен перечень запрещенных систем ИИ и систем ИИ повышенного риска, уточнены требования для использования систем ИИ государственными органами. По поводу моделей и систем ИИ общего назначения, похоже, были взяты за основу последние известные компромиссные предложения (писал о них тут).

Далее предварительно согласованный текст должен быть окончательно оформлен и доработан, после чего будет представлен для формального принятия Европарламентом и Евросоветом. После этого Регламент вступит в силу по истечению двадцати дней после даты официального опубликования.

В полной мере Регламент начнет действовать через два года, однако отдельные положения будут действовать по истечение шести месяцев, а также одного года.
43
Где же граница между продвинутыми моделями ИИ общего назначения и всеми остальными

Термин базовая модель ИИ был введен в широкий оборот в октябре 2021 года благодаря публикации исследователей из Stanford HAI. В статье он определяется как “модель, обученная на больших объемах данных, которая может быть в дальнейшем применена для решения широкого круга задач”. За последний год (датой отчета можно считать 30 ноября - релиз ChatGPT) данный термин широко вошел в обиход законодателей разных стран и регионов.

Основными причинами для установления отдельных требований для их поставщиков стали широкий круг потенциальных сценариев их применения (в том числе повышенного риска и нужд национальной безопасности) и необходимость перераспределения обязанностей между субъектами (разработчиками и теми, кто их фактически выводит на рынок в своих продуктах) внутри всех этапов их жизненного цикла.

Однако базовые модели различаются между собой по ряду характеристик. Например, они могут быть развернуты на разной инфраструктуре, иметь разное число параметров, быть обучены на разных наборах данных и т.д. Все это в совокупности сказывается на их эффективности. Таким образом, для сбалансированности нормативного регулирования возникла необходимость в разделении базовых моделей на группы. Это нужно для того, чтобы малый и средний бизнес имел меньше обязательств, чем глобальные технологические компании.

Так и появилось предложение делить базовые модели на продвинуты (передовые) и все остальные. Отдельные исследования предлагали большее число групп. Например, в The Future Society высказали идею о выделении трех групп (разбирал материал тут). К продвинутым в общем смысле относят те модели, которые являются наиболее большими и производительными. По разным подсчетам, к их поставщикам относятся сейчас всего 15–20 компаний в мире.

С юридической точки зрения крайне важным вопросом являются конкретные критерии, по которым модели относят к продвинутым.

Недавно опубликованный Еврокомиссией краткий пресс-релиз по итогам последнего трилога (писал о нем в предыдущем посте) вокруг проекта Регламента ЕС об ИИ содержит информацию о том, что было согласовано решение разделить базовые модели на две группы: модели, которые представляют системные риски, и все остальные. К первой группе буду относиться модели, которые были обучены с использованием общей вычислительной мощности более 10^25 FLOPs.

При этом AI Office (созданный в рамках Еврокомиссии) может обновлять этот порог в процессе технологического развития, а также в отдельных случаях определять другие модели в качестве таковых на основе других критериев (например, количества пользователей или степени автономности).

Поставщики таких моделей обязаны будут оценивать и снижать риски, сообщать о серьезных инцидентах, проводить современные испытания и оценку моделей, обеспечивать кибербезопасность и предоставлять информацию об энергопотреблении своих моделей. Для этого им предлагается взаимодействовать с ИИ Офисом для разработки кодексов поведения в сотрудничестве с другими экспертами. Центральную роль в обеспечении надзора за такими моделями будет играть специальная научная комиссия.

В публикованном 30 октября Указе Президента США в сфере разработки и применения систем ИИ (делал его большой обзор тут) указано, что органам исполнительной власти поручается разработать критерии для отнесения моделей к базовым моделям ИИ двойного назначения. До формулирования этих критериев к ним будут относиться модели, для обучения которых потребовалось 10^26 FLOPs (10^23 для использующих данные о биологических последовательностях).

Почему пороговое значение в 10^25 FLOPs? Потому что оно соответствует таким моделям, как, например, GPT-4 от OpenAI и Gemini от Google DeepMind.
👍65🔥2