howtocomply_AI: право и ИИ
1.28K subscribers
208 photos
4 videos
6 files
296 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Котики и системы ИИ

Подавляющее большинство концепций регулирования систем ИИ основаны на человекоцентричном подходе. Из названия уже очевидно, что такой подход определяет человека – его права и свободы – как главную ценность. Соблюдению и защите этой ценности должно быть подчинено функционирование систем ИИ. Да и в целом современное право сохраняет высокую степень антропоцентризма.

Сегодня мы обратим ваше внимание на интересную публикацию австралийских ученых из Университета Мельбурна Причинение вреда животным в связи с использованием искусственного интеллекта: систематический анализ и концепция.

Авторы отмечают, что системы ИИ активно взаимодействуют не только с людьми, но и с животными. Например, сейчас происходит активная автоматизация животноводства, системы ИИ отслеживают поведение диких животных, противостоят браконьерству и контрабанде. Даже домашние питомцы все чаще взаимодействуют с инфраструктурой умного дома. Пропорционально растут и риски прчинения вреда животным.

Для того, чтобы эффективно этими рисками управлять, авторы классифицировали случаи причинения вреда животным системами ИИ:

Социально осуждаемый и незаконный умышленный вред. Например, системы ИИ используются для браконьерства, незаконной торговли, отлова животных.

Социально приемлемый и законный умышленный вред. Например, животноводство, борьба с вредителями.

Неосторожный вред. Например, дтп с участием беспилотного транспорта, ошибки работы систем ИИ. Также могут быть косвенные негативные последствия от применения систем ИИ: разрушение среды обитания из-за использования систем ИИ (энергетика, добыча ресурсов), неверный сбор данных об окружающей среде в отсутствие человеческого контроля, предвзятости рекомендательных систем.

Вред от неиспользования. Например, недостаточное финансирование или игнорирование позитивного эффекта от использования систем ИИ в медицине, фармокологии, защите окружающей среды и т.п.

Таким образом, отношения человека и животных крайне многогранны. Даже к одному и тому же живому существу люди могут относиться по-разному. Например, в одних случаях оно может быть членом семьи и другом, а в других - пищей или объектом экспериментов. Поэтому и регулирование применения систем ИИ должно учитывать разные контексты.
4
Нейронная оборона

Обнаружили крайне интересную книгу Инновации в сфере обороны на волне искусственного интеллекта: анализ стратегий, возможностей и траекторий развития применения искусственного интеллекта в вооруженных силах.

Издание представляет собой сборник статей, посвященных общим проблемам и региональным особенностям нормативного регулирования применения систем ИИ в воооружениях. В работах разных авторов рассматриваются такие страны и регионы, как ЕС, США, Россия, КНР, Южная Корея, Япония и Австралия.

Несмотря на то, что в своей академической и практической работе, как правило, мы занимаемся именно гражданским применением систем ИИ, отрасль обороны представляет крайний интерес для изучения. Данная сфера по понятным причинам предполагет особо жесткие требования к точности, кибербезопасности, непредвзятости и подотчетности функционирования систем ИИ. А, как мы хорошо знаем, военные разработки очень часто через некоторое время становятся частью нашей обыденной жизни. Более того, ряд систем ИИ являются товарами двойного назначения.

Также эта книга напомнила об организованной нами почти год назад на базе Университета имени О.Е. Кутафина (МГЮА) конференции “Право и искуственный интеллект”, где с участием представителей кафедры международного права состоялась интересная дискуссия о международно-правовых стандартах применения систем ИИ в вооруженных конфликтах.
3
Неэтичный Бард

Несколько дней назад в Bloomberg вышла статья, в которой сотрудники компании рассказали о нарушениях этических стандартов, возникших из-за спешки при разработке чат-бота Bard от компании Google.

Недавно в нашем посте (на примере их конкурента – чат-бота Bing от Microsoft) мы поднимали проблемы отсутствия необходимой оценки систем ИИ и допуска на рынок явно "сырых" продуктов из-за гонки за первенство среди технологических гигантов. Судя по всему, эта негативная тенденция коснулась большинства участников ИИ-гонки.

Статья Bloomberg написана на основе полученной журналистами документации и проведенных бесед о сложившейся ситуации с восемнадцатью текущими и бывшими сотрудниками компании.

По данным журналистов, топ-менеджмент Google настоял на скорейшем выходе чат-бота – несмотря на то, что сотрудники компании в ходе внутренней проверки выразили предостережения о неготовности продукта. Чат-бот был склонен давать неверные и предвзятые ответы. Более того, представители команды, отвечающие за ИИ-этику, рассказали о своих фактически "второстепенных ролях" в ходе разработки продукта. Весь фокус был сделан на разработку продукта, а возражения этической команды рассматривались как мешающие развитию технологий.

Таким образом, прозвенел очередной звонок, подтверждающий необходимость введения законодательных требований ко всем этапам жизненного цикла систем ИИ (а не только их фактического использования), а еще лучше установления обязательного независимого внешнего аудита.
Европейские авторы и исполнители просят защитить их от генеративных систем ИИ

Более 40 европейских общественных объединений, представляющие тысячи авторов, исполнителей и производителей контента из разных отраслей (журналистика, фотография, музыка, изобразительное искусство и т.д.) обратились с открытым письмом в адрес членов Европарламента, Еврокомиссии и Совета ЕС. Поводом для обращения стало стремительное распространение генеративных систем ИИ.

Таких творческих людей, как мы, в Европе несколько миллионов; все мы живем благодаря своей творческой деятельности в культуре, в креативных индустриях и СМИ” – сообщается в письме.

В документе изложено их видение регулирования использования генеративных систем ИИ.
Изучение мнения профессионального сообщества никогда не является лишним. Мы решили рассмотреть их предложения. Забегая вперед скажем, что их беспокоит, прежде всего, вопрос защиты авторских прав.

Полный текст предложений и их обзор доступен по ссылке ниже:

https://telegra.ph/Artists-against-the-machines-04-24
🔥2
Как связаны Акт о цифровых услугах, цифровые платформы, поисковики и системы ИИ

Европейская комиссия определила в соответствии с Актом о цифровых услугах (Digital Services Act) список из семнадцати особо крупных цифровых платформ (Instagram, TikTok, Wikipedia, YouTube и д.р.) и двух особо крупных поисковых систем (Bing, Google Search). В соответствии с актом к ним относятся платформы и поисковые системы, которые ежемесячно охватывают не менее сорока пяти миллионов активных пользователей.

После включения в перечень эти компании должны будут в течение четырех месяцев выполнить ряд предусмотренных актом требований. Они направлены на ужесточение модерации контента, а также на расширение возможностей по информированию и обеспечению безопасности пользователей (особенно наиболее уязвимых групп).

Ряд требований применимы также и к системам ИИ, например:

Пользователи будут получать четкую информацию о том, почему им рекомендуется та или иная информация. Также они будут иметь возможность отказаться от использования рекомендаций, основанных на профилировании.

Реклама не может быть таргетировна на основе чувствительных данных пользователя (таких как этническое происхождение, политические взгляды или сексуальная ориентация).

Платформы должны маркировать все рекламные объявления и информировать пользователей об их заказчике.

Не разрешается таргетированная реклама, основанная на профилировании детей.

Должна будет проводиться оценка риска, включая возможное негативное влияние на психическое здоровье. Документы должны будут предоствляться Еврокомиссии, а затем и публиковаться.

Платформам и поисковым системам необходимо принять меры по устранению рисков, связанных с распространением незаконного контента в сети и негативным влиянием на свободу распространения информации и выражения мнений.

Платформам необходимо провести оценку рисков и принять меры по их снижению - например, для борьбы с распространением дезинформации и ненадлежащим пользованием услугами.

Платформам необходимо обеспечить проведение внешнего и независимого аудита на предмет соблюдения всех требований акта, в том числе и проведения оценки рисков.
Может ли искусственный интеллект признаваться автором изобретения? Отвечает Верховный суд США

Короткая предыстория. Бюро по патентам и товарным знакам США отклонило в 2019 году заявление основателя компании Imagination Engines Стивена Талера о регистрации двух изобретений, созданных искусственным интеллектом. В поданных в Бюро документах вместо имени автора было указано название конкретной системы ИИ (DABUS). Для Бюро фактическим основанием для отклонения заявления являлось то, что Закон о патентах к авторам относит только человека.

Окружным судом США по Восточному округу штата Вирджиния, а также Апелляционным судом США по федеральному округу решение Бюро об отклонении заявления было признано правомерным.

Но Стивен Талер на этом не остановился и подал иск в Верховный суд США. Истец перед судом поставил ключевой вопрос: “Может ли только человек являться автором изобретения в соответствии с Законом о патентах?”.

Верховный суд США отказался рассматривать это дело. Иными словами, суд подтвердил, что искусственный интеллект не может быть признан автором изобретения.
👍7🔥1
Идеи о роботах и ИИ в истории человечества

Сегодня обращаем ваше внимание на оригинальную книгу Клиффорда Пиковера Искусственный интеллект. Иллюстрированная история. От автоматов до нейросетей.

Несмотря на то, что книга вышла в 2019 году она не потеряла своей актуальности – учитывая историческую направленность. Имеется издание и на русском языке.

В книге рассказывается о ключевых идеях и изобретениях, придуманных людьми на разных этапах развития цивилизации вплоть до недавнего времени (2019 год).

В издании отражены основные вехи развития логики и математики, приводятся примеры технических продуктов от механических машин и автоматонов до робота-пылесоса Румба. Крайний интерес вызывает и то, каким образом искусственный интеллект и роботы рассматривались сквозь призму искусства, философии и поп-культуры.

Например, первого робота в мифах создал по заданию Зевса греческий бог Гефест для охраны и патрулирования территории. А Аристотель мечтал о замене рабов на автономные вещи:

«Если бы каждое орудие могло выполнять свойственную ему работу само, по данному ему приказанию или даже его предвосхищая, и уподоблялось бы статуям Дедала или треножникам Гефеста, о которых поэт говорит, что они «сами собой» входили в собрание богов; если бы ткацкие челноки сами ткали, а плектры сами играли на кифаре, тогда и зодчие не нуждались бы в работниках, а господам не нужны были бы рабы».

Аристотель “Политика”. Перевод С.А. Жебелева, 1983 год.
👍42
Проект Регламента ЕС об ИИ стал на шаг ближе к принятию

Европарламентарии достигли соглашения по ключевым вопросам и готовы передать проект Регламента на следующую стадию законотворческого процесса. По ряду положений споры продолжались до последнего момента.

Также стало известно, что законодатели собираются обязать разработчиков генеративных систем ИИ раскрывать информацию об использовании любых материалов, защищенных авторским правом, при обучении таких систем.

Интересно, что данный вопрос также был поднят в открытом письме европейских авторов и исполнителей в связи с распространением генеративных систем ИИ, который мы рассматривали недавно в нашем материале.
👍4🔥3
Инвестиции в искусственный интеллект: данные за 2022 год

Темпы развития технологий искусственного интеллекта существенно зависят от объема вложенных в эту сферу средств. Цифры часто говорят и объясняют многое. Поэтому решили поделиться с вами информацией про объемы инвестиций в сектор ИИ в мире. Данные взяли из AI Index Report 2023 (Стэнфордский университет).

В мире впервые с 2013 года корпоративные инвестиции в индустрию ИИ сократились в годовом выражении. В 2022 году общий объем инвестиций в ИИ составил 189 млрд долларов – примерно на треть меньше, чем в 2021 году. Однако стоит учесть, что за последнее десятилетие инвестиции в ИИ выросли в тринадцать раз.

В 2022 году частные инвестиции в стартапы в области ИИ составили более 90 млрд долларов. Это также меньше, чем в предыдущем 2021 году, но все еще существенно выше, если рассматривать длительный временной отрезок. В 2013 году объем частных инвестиций был в 18 раз меньше.

Основная часть средств в 2022 году инвестирована в следующие сферы использования ИИ:
– медицина и здравоохранение ($6,1 млрд);
– управление данными, обработка и облачные технологии ($5,9 млрд);
– финтэк ($5,5 млрд).

По объему частных инвестиций в сферу ИИ лидером среди стран остаются США. В 2022 году инвестиции в этой стране составили 47 млрд долларов – примерно в 3 раза больше, чем в расположившемся на втором месте Китае (13 млрд долларов) и в 11 раз больше, чем в Великобритании (4 млрд долларов).

Отметим, что несмотря на спад инвестиций в сферу ИИ в 2022 году (по сравнению с 2021 г.) в долгосрочном отношении объем вкладываемых средств продолжает расти. Этот тренд будет сохраняться и в будущем. Не в последнюю очередь из-за появления генеративных систем ИИ, которые имеют высокий потенциал коммерческого использования.

Уже сейчас многие представители технологического сектора заявляют о своих амбициозных планах: Microsoft рассматривает возможность инвестировать в компанию разработчика ChatGPT 10 млрд долларов, а Илон Маск зарегистрировал компанию в сфере ИИ с говорящим названием X.AI.
👍43
Не правом единым

В качестве воскресного “околоюридического” хотим обратить ваше внимание на доклад от Deloitte AI Institute Новый рубеж в искусственном интеллекте. Влияние генеративного ИИ на бизнес.

В материале в доступной форме (с картинками) дается общая информация о генеративных системах ИИ и потенциале их использования. Например, там можно обнаружить хорошую визуализацию процесса разработки базовых моделей, которые в дальнейшем являются ядром генеративных систем ИИ.

Понимание этого процесса крайне важно для правового регулирования. В наших постах, где мы затрагивали юридические дискуссиии вокруг систем ИИ общего назначения и генеративных систем ИИ, неоднократно фигурировали тезисы о необходимости распространения нормативных требований на все этапы жизненного цикла таких систем (особенно на этап разработки).

Помимо этого в докладе содержится и другая полезная информация. В частности, прогнозы о возможных сценариях использования и коммерциализации генеративных систем ИИ, а также анализ рынков и идущей конкуренции между технологическими компаниями.
🔥2👍1
Правоприменители США vs. предвзятость и дискриминация со стороны систем ИИ

На прошлой неделе четыре федеральных государственных органа США опубликовали совместное заявление о вопросах правоприменения в связи с использованием автоматизированных систем.

Заявление выпущено государственными органами, в компетенцию которых входит обеспечение гражданских прав, защита добросовестной конкуренции, защита прав потребителей и гарантирование равных возможностей.

Основной посыл заявления заключается в том, что практика по дискриминации и предвзятому отношению является запрещенной. Само по себе использование автоматизированных систем не является основанием для избежания ответственности, предусмотренной многочисленными антидискриминационными законами. Прим. – под автоматизированными системами в том числе понимаются системы ИИ.

В целях предостережения субъектов, разрабатывающих или использующих автоматизированные системы, органы перечислили причины, которые могут приводить к дискриминации:

ошибки и недостатки в наборах данных;

непрозрачность и отсутствие доступа к модели;

− ошибочные предположения разработчиков о пользователях, целях и условиях применения систем.

Стоит отметить, что рассматриваемые государственные органы ранее уже высказывали свою позицию по отдельным вопросам применения антидискриминационного законодательства в отношении автоматизированных систем.

Бюро по защите прав потребителей финансовых услуг выпустило обращение, подтверждающее, что федеральные законы о финансовых услугах для потребителей и требования о неблагоприятных воздействиях применяются независимо от используемой технологии. В документе разъясняется, что если используемая для принятия кредитного решения технология является сложной, непрозрачной или новой, это не может служить основанием для нарушения этих законов.

Управление по гражданским правам Министерства юстиции недавно подало в федеральный суд заявление о заинтересованности для разъяснения особенностей применения Закона о справедливом жилье к алгоритмическим системам проверки арендаторов. Заявление подано в рамках дела Louis и др. v. SafeRent и др. Дело рассматривается в окружном суде США по округу Массачусетс. Истцом утверждается, что использование ответчиками алгоритмической системы оценки для проверки арендаторов дискриминирует чернокожих и испаноязычных претендентов на аренду жилья в нарушение Закона о справедливом жилье.

Комиссия по обеспечению равных возможностей в сфере занятости выпустила документ о технической помощи по вопросу о дискриминации в сфере занятости, связанной с ИИ и автоматизированными системами. Комиссией разъясняется как Закон об американцах с ограниченными возможностями применяется при использовании ПО, алгоритмов и ИИ для принятия решений в отношении соискателей и сотрудников.

Федеральная комиссия по торговле опубликовала отчет, в котором оценивается использование и влияние ИИ в борьбе с вредом в Интернете, выявленным Конгрессом. В документе выражена серьезная обеспокоенность тем, что инструменты ИИ могут быть неточными, предвзятыми и дискриминационными по своей сути и стимулировать использование все более опасных форм коммерческой слежки. Комиссия также предупредила участников рынка о том, что использование автоматизированных систем, оказывающих дискриминационное воздействие, или внедрение ИИ до принятия мер по оценке и снижению рисков могут нарушать Закон О Федеральной комиссии по торговле. Наконец, Комиссия потребовала от компаний уничтожить алгоритмы или другие продукты, которые были обучены на неправомерно собранных данных.
🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Хороший мальчик теперь может и ответить

С помощью ChatGPT робопса Spot от Boston Dynamics научили разговаривать на человеческом языке. До аналогового четвероногого друга пока еще далековато и ограничений много, но этот шаг давно напрашивался.

Крайне интересно наблюдать за использованием больших языковых моделей и генеративных систем ИИ не только в качестве производителей контента, но и как “мостика” для простого общения человека с роботами или цифровыми личностями в бытовых условиях.

Такая коллаборация действительно способна сильно преобразить наш с вами привычный мир. А число юридических рисков и потенциальных споров даже сложно представить.

Также сегодня вечером расскажем вам о новостях правового регулирования применения систем ИИ из культурной родины роботов - Японии.
5
В Японии задумались над изменением подхода к регулированию применения систем ИИ

В конце апреля Либерально-демократическая партия (правящая) опубликовала Белую книгу ИИ: национальная стратегия Японии в новую эру ИИ. В документе члены партии изложили свое видение дальнейшего развития национальной стратегии в сфере ИИ. Поводом к таким действиям стало резкое развитие и проникновение во все сферы систем ИИ общего назначения. Этот процесс и был назван новой эрой ИИ. В связи с этим Япония стала беспокоиться о национальной безопасности и технологическом отставании от лидеров гонки.

Достаточно большая часть в Белой книге отведена нормативному правовому регулированию. Предполагается принятие следующих мер для совершенствования текущего подхода:

1) Рассмотреть возможность регулирования в сферах повышенного риска

− оценка целесообразности использования риск-ориентированного подхода для случаев применения систем ИИ, которые могут привести к: а) грубым нарушениям прав человека; б) угрозе национальной безопасности; в) необоснованному вмешательству в демократические процессы;

− изучение опыта США, ЕС и Китая, а также активное международное сотрудничество в разработке международных стандартов в сфере ИИ.

2) Подготовить законодательство к новой эре ИИ

− внедрение цифровых технологий в правотворческий процесс и правоприменение;

− дерегулирование и создание комфортной нормативной среды для развития бизнеса (реформирование законодательства, регуляторные песочницы, сокращение серых зон в регулировании);

− развитие японской индустрии создания контента за счет установления гибких правил по охране интеллектуальной собственности при использовании генеративных систем ИИ.

3) Разработать рекомендации по использованию ИИ в образовании

− повышение грамотности в сфере ИИ, обучение людей взаимодействию с системами ИИ в условиях их массового применения;

− установление правил использования больших языковых моделей в образовании.

С 2019 года после принятия Социальных принципов человекоцентричного ИИ Япония придерживалась подхода, главная ставка в котором делалась на отказе от жесткого сквозного регулирования в пользу добровольного введения корпоративных стандартов и саморегулирования со стороны бизнеса. Государство поддерживало компании с помощью мягкого права (концепций, рекомендательных руководств) и регулировало вопросы, связанные с отдельными областями (оборот данных, деятельность цифровых платформ, медицина и т.д.).
🔥5👍2
Судебный спор в США: арендаторы жилья против алгоритма

Друзья, у нас возникла идея время от времени рассказывать про судебные споры, возникающие в сфере искусственного интеллекта.

Сегодняшний пост про одно из таких дел. Началось оно в США 25 мая 2022 года. В интересах Мэри Луис, Моники Дуглас и Агентства по общественной деятельности Сомервилля был подан иск против компании SafeRent Solutions в окружной суд США по округу Массачусетс. Ответчик разработал и использует для проверки платежеспособности потенциальных арендаторов жилья систему оценивания SafeRent Score. Это алгоритм, который присваивает баллы в зависимости от различных факторов и переменных.

Истцы утверждают, что компания SafeRent, являющаяся национальным оператором по проверке арендаторов, на протяжении многих лет нарушала федеральный Закон о справедливом жилье и общие законы штата Массачусетс.

Нарушение выражается в том, что автоматизированный алгоритм компании по проверке арендаторов непропорционально часто присваивает низкие оценки темнокожим и латиноамериканцам, которые частично оплачивают аренду жилья ваучерами, предоставленными им федеральным правительством. Такое положение дел является следствием разных причин.

Например, алгоритм SafeRent не учитывает при присвоении баллов наличие у заявителей жилищных ваучеров. Хотя при использовании жилищного ваучера в среднем более 70 процентов ежемесячной арендной платы выплачивает государство. Также на низкий балл темнокожих и латиноамериканцев влияет то, что алгоритм при оценке использует кредитную историю, которая учитывает долги, не связанные со сферой аренды.

Таким образом, алгоритм несправедливо одну информацию учитывает (кредитная история), а другую нет (наличие ваучера). Надо сказать, решение арендодателей об одобрении заявки арендаторов неразрывно связано с их баллами SafeRent Score. В результате чего арендаторы значительно чаще отказывают в аренде жилья темнокожим и латиноамериканцам, использующим ваучеры на жилье.

В иске также утверждается, что компания SafeRent имеет единоличный контроль над алгоритмом присваивания баллов и тем самым фактически влияет на решение об одобрении или отклонении заявки на аренду жилья. Интересно, что SafeRent не раскрывает все данные, учитываемые алгоритмом, а также весовые коэффициенты, присвоенные каким-либо факторам или переменным. Иными словами, SafeRent скрывает логику принятия алгоритмом решений от арендодателей, арендаторов и общественности.

Истцы в своем заявлении требуют прекращения практики проверки арендаторов, применяемой ответчиками, которая оказывает негативное воздействие на темнокожих и латиноамериканских претендентов на аренду жилья, и просят обеспечить справедливые условия для тех, кто использует ваучеры на жилье.

Мы уже упоминали в одном из предыдущих постов, что 9 января 2023 года Министерство юстиции США и Министерство жилищного строительства и городского развития США направили в суд заявление о заинтересованности в этом деле.

В документе обращается внимание суда на то, что Закон о справедливом жилье применим в рассматриваемом деле. Также указывается, что если суд придет к выводу, что заявления истцов о дискриминации темнокожих и латиноамериканцев удовлетворяют требованиям о неравном воздействии, то деятельность компании SafeRent по отбору жильцов подпадает под запрет дискриминации, предусмотренный Законом о справедливом жилье.

Как вы понимаете, судом это дело еще не рассмотрено. Как только появится решение, обязательно проведем анализ аргументов суда, которые будут положены в основу решения.
🔥8
Президент США предложил ведущим разработчикам провести публичную оценку их систем ИИ

Администрацией Джо Байдена и Камалы Харрис были анонсированы новые шаги по созданию условий для ответственного использования систем ИИ. Документ был опубликован в преддверии встречи вице-президента с такимим лидерами ИИ-рынка, как Alphabet, Anthropic, Microsoft и OpenAI.

Крайний интерес вызывает положение о проведении публичной оценки существующих генеративных систем ИИ. В документе указано, что было достигнуто согласие со стороны ведущих разработчиков ИИ, таких как Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI и Stability AI, принять участие в публичной оценке систем ИИ на специальной платформе, разработанной Scale AI. Исходя из информации на сайте, данная компания предоставляет услуги в сфере разработки, масштабирования и улучшения ИИ-продуктов, в том числе для нужд государственных органов США. Предполагается, что платформа будет анонсирована на конференции DEFCON 31, которая пройдет 11 - 13 августа. Будет крайне интересно на нее взглянуть.

Также указывается, что данное мероприятие позволит партнерам и экспертам в сфере ИИ оценить генеративные системы ИИ на соответстие положениям и принципам, которые содержатся в таких рекомендательных актах, как Билль о правах в сфере ИИ и система управления рисками в сфере ИИ, представленная недавно Национальным институтом стандартов и технологий США.

Помимо этого также было объявлено о следующих шагах:

Предполагается выделить 140 миллионов долларов на запуск семи новых национальных исследовательских институтов в сфере ИИ (до 25 с учетом существующих) и расширить сеть участвующих организаций почти до каждого штата.

Административно-бюджетному управлению опубликовать проект руководства по созданию и применению систем ИИ федеральными государственными органами. Интересно, что для органов исполнительной власти в 2020 году уже было опубликовано Руководство с аналогичным названием, дождемся содержания нового документа.
3👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и где же наши дройдеки?

Друзья, ко дню звездных войн делимся с вами подборкой из топ-20 дройдов франшизы.

Трудно представить, сколько людей были вдохновлены на научные открытия, думая о роботах и космических приключениях.

Благодаря умению мечтать и фантазировать мы и дожили до того времени, когда изобретения из книжек и фильмов потихоньку становятся неотъемлемыми частями нашего быта.

May the 4th be with you!
👾52
Государственная политика в сфере ИИ и демократические ценности: рейтинг стран

В апреле 2023 года Центр по ИИ и цифровой политике опубликовал результаты масштабного исследования AI and Democratic Values Index 2023 (более тысячи страниц текста). Центр является некоммерческой независимой исследовательской организацией из США. Он изучает национальные политики различных государств в области ИИ и продвигает демократические ценности.

В своей работе исследовательский центр рассмотрел проводимую в надгосударственных образованиях и 75 странах политику по таким вопросам, как национальная стратегия в сфере ИИ, защита данных, прозрачность алгоритмов, распознавание лиц, смертоносное автономное оружие и др.

В сравнительном исследовании изучается политика стран на предмет принятия ими мер, необходимых для обеспечения надежности и безопасности ИИ. Работа основана на подробных описательных отчетах и специальной методологии, которая позволила авторам документа составить рейтинг и ранжировать страны в зависимости от состояния прав человека, верховенства закона и других показателей их демократичности в сфере ИИ.

Рейтинг составлен на основе 12 значимых факторов, которые оценивались при помощи ответов на формализованные вопросы (список ниже).

В зависимости от ответов 75 стран были разделены на пять уровней. Лидирующие места заняли Канада, Южная Корея и Колумбия. Всю таблицу можно посмотреть здесь.

Предполагается, что чем выше уровень, тем лучше в стране соблюдаются демократические ценности при проведении политики в сфере ИИ.

Список вопросов, на основе которых составлен рейтинг:

Q1. Одобрила ли страна Принципы ОЭСР/G20 по ИИ?

Q2. Выполняет ли страна Принципы ОЭСР по ИИ?

Q3. Одобрила ли страна Всеобщую декларацию прав человека?

Q4. Соблюдает ли страна Всеобщую декларацию прав человека?

Q5. Есть ли в стране механизм эффективного участия общественности в разработке национальной политики в области ИИ?

Q6. Доступны ли материалы о политике и деятельности по ИИ в стране для общественности?

Q7. Имеется ли в стране независимый орган/механизм для надзора за ИИ?

Q8. Встречаются ли в национальной политике (стратегии) по ИИ следующие цели: "справедливость", "подотчетность", "прозрачность", "верховенство закона", "основные права"?

Q9. Закрепила ли страна в законодательстве право на алгоритмическую прозрачность?

Q10. Одобрила ли страна Рекомендацию ЮНЕСКО по этике ИИ?

Q11. Соблюдает ли страна Рекомендацию ЮНЕСКО по этике ИИ?

Q12. Одобрил ли национальный государственный орган по защите данных Резолюцию Global Privacy Assembly (GPA) 2018 года по ИИ и этике, Резолюцию GPA 2020 года по ИИ и подотчетности и Резолюцию GPA 2022 года по ИИ и распознаванию лиц?

Варианты ответов: «да», «частично», «нет».
🔥2
Рейтинг демократичности политики стран в сфере ИИ
Еще немного о создании систем ИИ общего назначения

На днях антимонопольный регулятор Великобритании выпустил предварительный отчет о влиянии на конкуренцию базовых моделей, на которых основаны системы ИИ общего назначения. Сам по себе документ довольно краткий и скорее направлен на определение отправных точек для дальнейшего исследования.

Отдельный интерес представляет собой содержащаяся в документе инфографика, сопровождающая общую информацию о базовых моделях. На картинке, приложенной к посту, показаны три уровня разработки и применения систем ИИ общего назначения:

Уровень инфраструктуры
В основе создания разработчиком базовых моделей лежат облачные сервисы или собственные физические устройства, подготовленные для обучения наборы данных и компетентный персонал.

Уровень разработки
Модели создаются и обучаются разработчиком на основе наборов данных, а также могут быть дообучены и настроены под конкретные цели применения.

Уровень применения
Модель может быть предоставлена разработчиком для пользователей программного обеспечения через API (способы взаимодействия одной компьютерной программы с другими), либо быть распространяемой как программное обеспечение c открытым исходным кодом (open source).

Таким образом, разрабатывать системы ИИ общего назначения может одно лицо, а фактически применять - другое. Как правило, разработчиками выступают большие технологические компании (или связанные с ними организации), а вот пользователями - физические лица и компании разного размера.

Поэтому юридические требования должны распространяться не только на субъекты, которые применяют данные системы ИИ, но и на первоначальных разработчиков. Более подробно эти и другие юридические проблемы, возникшие вокруг систем ИИ общего назначения, мы разбирали тут.
🔥3👍2
Применение систем ИИ государственными органами

Сотрудники Института ответственного применения искусственного интеллекта подготовили обзор сценариев использования систем искусственного интеллекта федеральными государственными органами США. Собранная база данных включает 337 практических примера.

Государственные органы используют широкий спектр методик создания систем искусственного интеллекта, таких как, например, деревья решений и обработка естественного языка. Последняя используется наиболее часто в различных сценариях и помогает оптимизировать работу персонала. Например, на сайте USA.gov комментарии пользователей обрабатываются с целью определения их важности, чтобы операторы могли обратить на них внимание. Распознавание лиц используется редко и преимущественно в целях обеспечения безопасности.

Однако не все учтенные примеры активно используются государственными органами. Некоторые из них находятся на стадии внедрения, а другие использовались в качестве эксперимента. Более того, данные о применении систем искусственного интеллекта, которые защищены государственной тайной, не были учтены.

Все случаи использования систем ИИ государственными органами разделены на девять основных целей. Примерно 23% проектов направлены на прогнозирование будущих результатов. Например, Министерство сельского хозяйства США использует системы искусственного интеллекта для прогнозирования численности кузнечиков, которые могут наносить вред фермерским хозяйствам. В 17,8% случаев системы искусственного интеллекта применяются для анализа документов и поиска информации.

Также интересно отметить, что государственные органы предпочитают использовать системы искусственного интеллекта в ситуациях, когда они не оказывают прямого воздействия на общество. Только в 21% случаев системы искусственного интеллекта способны оказывать такое влияние (например, здравоохранение).
👍2🔥1