howtocomply_AI: право и ИИ
1.31K subscribers
210 photos
4 videos
6 files
301 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
TIME100/AI

Сегодня журнал Time выпустил список из ста наиболее влиятельных людей в сфере ИИ.

Нашлось в нем место и для людей, связанных с юриспруденцией и госуправлением. Работы и выступления многих из них мы разбирали в наших постах.

Изучаем!
🔥8
О регулировании рекомендательных алгоритмов в Китае

Совсем недавно в России был принят федеральный закон, регулирующий применение рекомендательных алгоритмов. О нем мы писали подробно здесь. Он вступает в силу с 1 октября этого года. В свете этого стало любопытно посмотреть, как же в других странах осуществляется подобное регулирование.

Одной из первых стран, в которых был принят акт о рекомендательных алгоритмах, является Китай. В этой стране еще с марта 2022 года действует Приказ Администрации киберпространства Китая “О регулировании применения рекомендательных алгоритмов информационных Интернет-служб”.

Первая половина акта посвящена таким общим вопросам, как необходимость преследования социально полезных целей и соблюдения запрета на размещение и продвижение нелегального контента на онлайн-платформах. Конкретные права и обязанности поставщиков услуг и пользователей предусмотрены в главе 3, среди них:

– поставщики услуг должны ясно информировать пользователей о применении рекомендательных алгоритмов и публиковать сведения о принципах, целях и основных механизмах, используемых при оказании пользователям услуг при помощи такой технологии;

– поставщики услуг должны предоставлять пользователям выбор не использовать в их отношении рекомендательный алгоритм или легкодоступную возможность полного отключения алгоритма. В случаях, когда пользователь решил отключить рекомендательный алгоритм, поставщик должен немедленно прекратить его применение;

– поставщики услуг должны предоставлять пользователям возможность выбора или удаления пользовательских меток (ориентированных на их персональные характеристики), используемых рекомендательными алгоритмами;

– поставщики услуг не вправе продвигать несовершеннолетним лицам информацию, которая может привести к вредным для них последствиям, например, негативно влиять на их физическое или психическое здоровье;

– при оказании услуг при помощи рекомендательных алгоритмов пожилым людям необходимо соблюдать их потребности и особенности, связанные с возрастом. Например, необходимо защищать их от интернет-мошенничества;

– если поставщики услуг применяют рекомендательные алгоритмы на платформах, на которых люди ищут работу, то они должны защищать права и интересы работников, такие как право на получение вознаграждения, отдых и отпуск и т.д., а также совершенствовать алгоритмы, связанные с регистрацией и распределением заказов на платформе, рабочим временем, выплатой вознаграждения и т.д.;

– если поставщики услуг продают товары или оказывают услуги пользователям, то они должны защищать их права на честную торговлю, запрещается использование алгоритмов, влекущих к созданию необоснованно разных условий, например, установление разных цен на товары и услуги в зависимости от покупательских привычек и других подобных характеристик потребителей.

За нарушение положений Приказа предусматривается различная ответственность. Указывается, что если за противоправное деяние предусмотрена ответственность другими актами, то наказание применяется на их основании. В отношении остальных случаев компетентным органам предписывается направлять поставщикам услуг предупреждения (при наличии информации о несоблюдении положений Приказа), а если они не будут принимать меры для прекращения неправомерного поведения, то органы вправе приостановить доступ к соответствующим интернет-ресурсам и наложить на поставщиков услуг штраф в размере от 10 000 до 100 000 юаней.

Китайские законодатели в целом занимают активную позицию в регулировании применения технологий ИИ. Помимо акта про рекомендательные алгоритмы у них уже действует регулирование, касающееся использования генеративных систем ИИ. Мы ранее делали отдельный пост на эту тему.
👍3👎1🔥1
Парадокс Моравека: почему системы ИИ хорошо играют в го, но плохо бегают

Парадокс Моравека - это концепция, которая заключается в том, что отдельные присущие человеку и иным живым существам навыки крайне сложно воспроизвести. Концепция была сформулирована Хансом Моравеком, Родни Бруксом, Марвином Минским и другими учеными в 1980-х годах.
Ханс Моравек писал в 1988 году: «сравнительно легко заставить компьютеры демонстрировать показатели взрослого человека в тестах на интеллект или при игре в шашки, и трудно или невозможно привить им навыки годовалого ребенка, когда речь идет о восприятии и мобильности».

Иными словами, задачи, которые люди считают легкими и интуитивными, такие как распознавание лиц, понимание естественного языка, навигация и перемещение в пространстве, часто требуют для их воспроизведения разработки более сложных алгоритмов и значительных вычислительных мощностей. С другой стороны, задачи, которые люди считают сложными, такие как комплексные математические вычисления, игра в шахматы или го на уровне гроссмейстера, поддаются программированию намного проще.

Парадокс возникает из-за того факта, что эволюция миллионы лет готовила наше «железо» и «софт» для задач выживания. Однако навыки, связанные с более молодыми функциями мозга, даются нам крайне сложно.
👍81🔥1
Политика Великобритании в сфере ИИ: между парламентом и правительством

Нижняя палата парламента Великобритании опубликовала отчет, в котором содержится обширный анализ текущей политики правительства в области ИИ. Парламентарии выделили двенадцать актуальных проблем, требующих принятия мер со стороны государства. К ним отнесены вызовы, касающиеся вопросов предвзядости и непрозрачности алгоритмов, риска нарушения приватности при обучении базовых моделей, необходимости адаптации режимов ответственности и некоторые другие. Не стали перечислять все, поскольку они достаточно хорошо известны. Смысл подготовленного отчета заключается в том, что правительство будет обязано представить Палате общин план мер по разрешению всех обозначенных в отчете проблем.

Из любопытных деталей отчета можно выделить то, что в Великобритании со скепсисом относятся к риск-ориентированному подходу, в частности, к проекту Регламента Европейского союза об ИИ. В документе отмечается, что такой подход является чрезмерно жестким. Он ставит под угрозу технологическую конкурентоспособность европейцев, поскольку соблюдение его положений повлечет очень высокие затраты для технологических компаний.

Одновременно с этим парламентарии поддерживают ранее разработанную правительством Белую книгу, в соответствии с которой регулирование ИИ должно происходить на основе “про-инновационного подхода”. Суть этого подхода состоит в следующем:

– предлагается регулировать использование систем ИИ в зависимости от сфер применения. Обязанность по первичному регулированию возлагается на отраслевые государственные органы;

– предусматривается регулирование только в отношении очевидно опасных систем ИИ, а не тех, использование которых несет гипотетический или низкий риск для человека;

– регулирование на первом этапе будет осуществляться преимущественно отраслевыми органами на основе специально разработанных межотраслевых принципов – при этом они не будут закреплены законодательно;

– предлагается межотраслевые принципы в начале сделать необязательными. Регулирующим органам рекомендуется сперва использовать «мягкое регулирование», в частности, принимать руководства, не имеющие обязательную юридическую силу для субъектов индустрии ИИ.

Идея британцев заключается в том, чтобы апробировать такой подход на практике и в последующем – в зависимости от результатов – законодательно обязать отраслевые органы регулировать применение систем ИИ в своих секторах. На этот момент обращается внимание парламентариев в отчете. Они опасаются, что принятие такого законодательного акта может затянуться аж до конца 2025 года, т.е. до тех пор, пока не будет избран новый состав Палаты общин. Таким образом, в Великобритании, возможно, не скоро появится полноценное законодательное регулирование в сфере ИИ.
🔥6👍21
Новые законодательные инициативы в сфере ИИ в США

В сентябре сенаторы Ричард Блюменталь и Джош Хоули представили первые концептуальные положения будущего нормативного правового регулирования в сфере ИИ, которые были согласованы обеими партиями.

В рамках концепции предполагается:

Ввести обязательное лицензирование для отдельных базовых моделей, применяющихся в сферах повышенного риска. Для этого предполагается создать независимый надзорный орган, который будет иметь широкую компетенцию по текущей и последующей проверке базовых моделей, подлежащих лицензированию.

Установить юридическую ответственность за вред, причиненный системами ИИ. Для этого предполагается обеспечить возможность подачи судебных исков против компаний-разработчиков за нарушение прав человека (например, неприкосновенности частной жизни), а также необходимым образом актуализировать законодательство.

Защитить национальную безопасность и конкуренцию. Предполагается ввести ограничения на экспорт передовых базовых моделей и иных связанных с ИИ технологий в недружественные страны.

Обеспечить прозрачность разработки и применения систем ИИ, включая раскрытие необходимой информации о работе системы, уведомления пользователей о том, что они взаимодействуют с системой ИИ, и маркировку дипфейков.

Ввести дополнительные меры безопасности для обеспечения контроля за оборотом персональных данных и установить ограничения на использование систем ИИ детьми.

Ранее Блюменталь-Хоули также инициировали законопроект, который предполагает отказ в отношении генеративных систем ИИ от иммунитета в соответствии с разделом 230 Закона о связи от 1934 года (раздел проводит различие между теми, кто создает контент, и теми, кто предоставляет доступ к нему, предоставляя иммунитет от иска последней группе).

В продолжение развития концепции Блюменталя-Хоули сенатор Эми Клобучар инициировала законопроект, позволяющий защищать кандидатов от использования дипфейков в политической рекламе в преддверии предстоящих выборов в 2024 году.
🔥4👍1👾1
В Сенате США обсудили новые законодательные инициативы

В Подкомитете по неприкосновенности частной жизни, технологиям и законодательству при Комитете по судебной власти Сената США состоялись слушания на тему Контроль над ИИ: законодательство в сфере ИИ. Во многом обсуждение касалось законодательных инициатив, которые мы рассматривали в нашем предыдущем посте. На мероприятии выступили ведущие представители бизнеса и науки:

Брэд Смит (вице-председатель и президент Microsoft) подчеркнул то, что компания в целом поддерживает концепцию Блюменталя-Хоули. В частности, он выразил согласие с необходимостью создания независимого надзорного органа, а также введения лицензирования отдельных систем ИИ на основе риск-ориентированного подхода с учетом сценариев их использования.
Также он выделил несколько других интересных аспектов, на которые, по его мнению, стоит обратить внимание законодателям.

Во-первых, необходимо добавить для систем ИИ, которые используются в критической инфраструктуре и других областях повышенного риска, “аварийный тормоз”.

Во-вторых, обязать разработчиков проводить процедуру, аналогичную идентификации контрагентов в финансовой сфере (KYC). Эту процедуру он предложил именовать KY3C (знай своего клиента, облако и контент (customer, cloud, and content)). Необходимость получения полной информации о контрагентах и используемых облачных вычислительных мощностях крайне важна для передовых базовых моделей и систем ИИ, которые используются в областях повышенного риска. Это поможет избежать утечек и повысит безопасность их использования.

Вудро Хартцог (профессор права, Бостонский университет, научный сотрудник, Вашингтонский университет в Сент-Луисе) высказал важную мысль, с которой трудно не согласиться, работая в юридической сфере. Он предостерег законодателя о том, что фокусирование на этических принципах, требованиях о прозрачности, подотчетности и уменьшении предвзятостей является лишь ширмой, которая создает видимость системного регулирования, но фактически создает еще больше рисков в будущем. Вместе с тем он подчеркнул, что эти вопросы, безусловно, являются важными, но параллельно необходимо системно регулировать общественные отношения вокруг создания и применения ИИ. В отказе от разработки нормативного регулирования или в занятии выжидательной позиции сейчас можно упрекнуть много стран, в том числе и Россию.

Уильям Дэлли (главный научный сотрудник и старший вице-президент по исследованиям NVIDIA) также поддержал концепцию Блюменталя-Хоули, а также рассказал о важной роли компании во всем, что происходит с ИИ. NVIDIA сейчас является одним из бенефициаров современной ИИ революции (и всего того, что происходило и происходит вокруг криптовалют), так как является одним из лидеров по производству железа. Также он призвал к международному сотрудничеству в области разработки нормативного регулирования. По его мнению, это необходимо прежде всего из-за того, что сейчас многие страны и компании вкладывают огромные ресурсы в развитие ИИ-технологий. Соответственно, невозможно предсказать, где именно произойдет следующий большой прорыв в исследованиях.
👍4
Оценка требований в рамках проекта Регламента ЕС об ИИ

Исследователи из Future of Life Institute выпустили небольшой сервис, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта им предстоит иметь дело. Для этого необходимо ответить на несколько вопросов относительно систем ИИ, которые предполагается выводить на рынок, а также об участии в этом самой компании.

Вместе с тем обращаем внимание, что подобные сервисы нацелены на информирование и не являются юридическими консультациями. Нормативные требования отражены в сервисе в упрощенном виде, а сам текст проекта Регламента еще не финализирован и не принят.
🔥5👍1
Международные органы в сфере ИИ

Обращаем ваше внимание на исследование, подготовленное в рамках Legal Priorities Project. Авторы задались целью сформулировать рекомендации относительно потенциального дизайна будущего международного органа в сфере ИИ. Для этого на данном этапе они сосредоточились на анализе уже существующих инициатив.

По его итогам были выделены семь моделей создания таких органов, которые обсуждались учеными и практиками:

1. достижение научного консенсуса;

2. поиск политического консенсуса и принятие нормативных актов;

3. координация политики и нормативного регулирования;

4. обеспечение соблюдения стандартов и нормативных ограничений;

5. обеспечение безопасности и реагирования на чрезвычайные ситуации;

6. кооперация в рамках совместных международных исследований;

7. доступ к технологиям и распределение выгод от их применения.

Краткую табличку с обзором прилагаем к посту.
👍5
Роботы тоже любят йогу

На днях на канале Теслы в Ютьюбе появился ролик, в котором их бот Оптимус демонстрирует новые способности по взаимодействию с окружающем миром. Теперь он умеет лучше распознавать образы и понимать положение конечностей в пространстве. Это позволило ему научиться, например, сортировать вещи и дообучаться решению небольших конкретных задач на ходу. Ответ на вопрос, почему системам ИИ так сложно научиться взаимодействовать с физическим пространством, мы рассматривали в нашем недавнем посте про парадокс Моравека.

Однако и на этом поприще наблюдаются интересные результаты. Toyota, MIT и Columbia Engineering публиковали статью, в которой описывают новую методику. Последняя позволяет обучать системы ИИ на основе имитации ими человеческих движений. Сейчас они обучили модели около 60 небольшим движениям, которые характерны для людей на кухне. А к 2024 году планируют расширить возможности до 1000 задач. На основе этого исследователи планируют построить единую модель, способную автономно взаимодействовать с внешним миром через получение непрерывного потока разного рода данных. Такую модель предполагают назвать LBM (Large Behavior Model).

Таким образом, нынешняя волна генеративного ИИ является лишь первой ступенью для дальнейшего возникновения сначала виртуальных автономных агентов, а затем воплощенных. Соответственно, и развитие подходов к нормативному регулированию сейчас находится фактически в начальной стадии.
🔥3
GPAI и уровни риска

Вчера исследователи из The Future Society опубликовали отчет о нормативном регулировании систем ИИ общего назначения (GPAI). По сути, они предлагают распространить на эти системы риск-ориентированный подход, на котором основана концепция проекта Регламента ЕС об ИИ.

Исследователи предлагают разделить все системы ИИ общего назначения на три большие группы по уровням риска, которые они представляют для прав человека:

1. генеративные системы ИИ (400+ поставщиков);

2. системы ИИ общего назначения первой группы (базовые модели) (~14 поставщиков);

3. системы ИИ общего назначения второй группы (передовые базовые модели) (~10 поставщиков).

Для каждой группы будет характерен разный набор юридических требований (пирамида от меньших к большим). Именно поэтому их отчет носит название “Heavy is the Head that Wears the Crown”. Подробно все требования можно увидеть на скриншоте, приложенном к посту.

Также при разделении на группы учитываются и их технические характеристики: вычислительные мощности, которые потребовались для обучения модели, ее общая эффективность и сложность, эффективность приобретения новых навыков, универсальность в применении, специфические показатели по отдельным модальностям.

Для третей группы будут характерны самые объемные нормативные требования, которые включают, помимо требований ко всем остальным группам, еще, например, такие, как: внутренний и внешний независимый аудит, регулярное взаимодействие с Офисом ИИ (его предполагается создать в соответствии с актуальным текстом проекта Регламента), полная прозрачность и т.д.

Вместе с тем, очевидно слабыми сторонами такого подхода являются деление на слишком малое число групп и излишняя привязка к современным технологическим реалиям.
🔥3👍1
Передовые базовые модели и опенсорс

Исследователи из Centre for the Governance of AI выпустили отчет, который призван обратить внимание на проблемные аспекты распространения передовых базовых моделей в качестве программного обеспечения с открытым исходным кодом (опенсорс). Например, они отмечают, что некоторые компании стали чаще выбирать открытые лицензии для выпуска на рынок если не передовых, то достаточно больших базовых моделей (привет, Llama 2). Вместе с тем авторы указывают на то, что текущие исследования свидетельствуют о наличии критических рисков, присущих развертыванию и использованию передовых базовых моделей (исследования и риски мы многократно разбирали у нас на канале). В связи с этим исследователи изложили ряд рекомендаций, позволяющих, по их мнению, эти риски уменьшить.

Во-первых, разработчики и государственные органы должны выработать критерии по признанию некоторых базовых моделей, представляющими чрезвычайные риски для их размещения по открытым лицензиям. Например, способными быть компонентами оружия или представляющими опасность для критической инфраструктуры. Такие модели могут быть запущены в опенсорс, но только через некоторое время и по достижению необходимых требований безопасности.

Во-вторых, решение о возможности распространения передовых базовых моделей через открытые лицензии должно быть основано на оценке рисков. Такая оценка рисков должна учитывать возможности по их вредному использованию, в том числе с учетом их возможной модификации.

В-третьих, разработчикам необходимо более гибко относится к размещению моделей на рынке. То есть учитывать разные варианты доступа к ним в зависимости от рисков, которые они представляют.

В-четвертых, государственным органам надлежит осуществлять надзор за тем, какой способ выхода передовых базовых моделей на рынок выбирают разработчики. В ряде случаев законодателю предлагается распространить на них меры по лицензированию и установить юридическую ответственность. Эти меры сейчас активно обсуждаются в Конгрессе США в рамках готовящихся законодательных предложений.
🔥2👍1
В продолжение темы также обращаем внимание на препринт статьи The Gradient of Generative AI Release: Methods and Considerations. В публикации автор (Ирен Солайман из Hugging Face) предложила ступенчатую схему вывода базовых моделей на рынок.
2
Регулирование в сфере ИИ на местном уровне

Сегодня обращаем ваше внимание на платформу AI Localism. Задачей исследователей, которые занимаются ее наполнением, является сбор информации о нормативных правовых актах и документах концептуального характера в сфере разработки и применения систем ИИ на местном уровне.

На сегодняшний день львиная доля данных собрана из Северной Америки и Европы.

В США большая часть актов посвящена особенностям использования (или запрету) технологий распознавания лиц и иных сценариев применения систем ИИ государственными органами. Однако есть и инициативы относительно особенностей оборота данных и генеративных систем ИИ.

В Европе и Азии инициативы по большей части направлены на использование систем ИИ органами власти и бизнесом для развития инфраструктуры умного города, а также ответственному использованию технологий.
👍5
Legal and technical challenges of large generative AI models

Если кому-то вдруг плохо спится, то делимся с вами ссылкой на 10-часовую запись воркшопа про технические и юридические проблемы, возникающие вокруг генеративных систем ИИ. Очень много интересных спикеров и темы на любой вкус. Разбивку на доклады можно посмотреть в таймкодах.
🔥52
Проблемы оценки базовых моделей и систем ИИ

Недавно на сайте Anthropic вышла новая статья об оценке систем ИИ. Следует начать обзор с двух отправных тезисов, которые в ней содержатся: крайне сложно создать надежные методики оценки систем ИИ и без создания таких методик невозможно безопасное управление системами ИИ.

Статья по большей части состоит из разбора практических проблем, с которыми столкнулась компания при проведении оценки своих базовых моделей с помощью разных методик. В конце статьи содержатся краткие рекомендации для законодателей и правоприменителей. Из первой части рассмотрим наиболее интересные юридически-релевантные выводы, а вторую изучим полностью.

Во-первых, все методики оценки имеют свои слабые стороны и массу особенностей по применению относительно каждой отдельной базовой модели. Для применения многих методик разработчикам приходится подстраивать их под свои продукты, что очень затратно по времени и ресурсам.

Во-вторых, необходим поиск компромиссов между полезностью и безвредностью моделей. Тот факт, что модель будет во всех пограничных случаях отказываться от ответа на вопросы, не является перспективным выходом из положения.

В-третьих, учитывая скорость развития технологий, внешний независимый аудит передовых базовых моделей должен строиться на тесном взаимодействии разработчиков и аудиторов (сложно представить, каким образом это может быть устроено без потери эффективности. Может, лучше это вынести на предварительный аудит).

В-четвертых, люди считали модели, дообученные с помощью Конституционных принципов ИИ (что это такое, можно почитать тут) более безобидными, чем с использованием метода красной команды, состоящей из людей.

В качестве рекомендации для законодателей и правоприменителей в Anthropic отметили следующие:

Отбор наиболее эффективных методик оценки и направление финансирование на них вместо распыления ресурсов на большое число команд. Качество оценок должно быть важнее их количества.

Поддержка внедрения существующих высококачественных методик оценки, а также создание удобных инструментов для бизнеса по их использованию.

Регулярный анализ и проверка надежности существующих методов оценки.

Увеличение финансирования для государственных органов, занимающихся разработкой методик оценки (например, Национальный институт стандартов и технологий (NIST)). Также предлагается создать таблицу лидеров среди безопасного ИИ, что может подстегнуть конкуренцию среди компаний.

Создание «безопасной гавани», которая позволит компаниям сотрудничать с государственными органами для оценки базовых моделей и систем ИИ в интересах национальной безопасности (по сути, предлагается отдельный вид песочниц с особыми требованиями к гостайне).
👍4🔥1
Бизнес-ориентированный подход ASEAN

Вчера вышла статья Рейтер с некоторыми подробностями о готовящемся для принятия проекте рекомендательного документа об этике и государственном управлении в сфере ИИ на уровне Ассоциации государств Юго-Восточной Азии (ASEAN).

По данным источников издания, проект рассылается для отзывов крупнейшим техногигантам. Ожидается, что он будет доработан к концу января 2024 года.

Интересно, что, по имеющейся информации, проект не выделяет круг запрещенных систем ИИ, как это предполагает подход ЕС. Частным компаниям будет предлагаться внедрять системы управления рисками по разработке и внедрению систем ИИ. Частные регуляторные вопросы будут отданы на откуп органам власти каждой отдельной страны.

В этом плане путь, избранный ASEAN, близок к подходу США с NIST AI Risk Management Framework (разбирали его подробно тут). Такой же гибкий подход предпочли в Японии и Южной Корее.

Также интересно, что ранее в этом году представители ЕС совершили тур азиатским странам, призванный продемонстрировать плюсы европейского подхода и призвать к установлению аналогичных нормативных положений.
👍6