howtocomply_AI: право и ИИ
1.06K subscribers
124 photos
4 videos
6 files
227 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников @howtocomply_AI_feedback
Download Telegram
Автоматизированное принятие решений об отказе в трудоустройстве: пример о дискриминации по возрасту

Рассказываем еще про один кейс о дискриминации при использовании автоматизированных систем принятия решений. Началось все с того, что компания iTutorGroup, оказывающая услуги по онлайн-обучению английскому языку, применяла в своей практике программное обеспечение для отбора репетиторов, проживающих в США. Это ПО автоматически отказывало в найме кандидатам-женщинам в возрасте 55 лет и старше, а также кандидатам-мужчинам в возрасте 60 лет и старше. Причем их заявки не рассматривались вовсе.

Комиссия по обеспечению равноправия при трудоустройстве США (государственный орган, уполномоченный расследовать факты дискриминации в сфере труда) после неуспешной попытки урегулировать спор в досудебном порядке подала в 2020 году иск в Окружной суд США Восточного округа Нью-Йорка. Согласно иску, используемое компанией iTutorGroup ПО автоматически отклонило более 200 квалифицированных кандидатов из-за их возраста. Комиссия усмотрела в этом нарушение Закона о возрастной дискриминации, в соответствии с которым лица в возрасте 40 лет и старше защищены от дискриминации.

В октябре 2023 года будут проведены судебные слушания по урегулированию спора. Ожидается, что более чем 200 соискателям, которым было отказано в приеме на работу в качестве репетиторов из-за их возраста, выплатят заработную плату и присудят компенсацию. По крайней мере такую позицию занимает Комиссия. Она также добивается наложения судебного запрета, призванного исправить ситуацию и предотвратить дискриминацию по возрасту при использовании автоматизированных систем принятия решений.
Унификация ИИ-терминологии

В декабре 2022 года Совет по торговле и технологиям США-ЕС The (U.S.-EU Trade and Technology Council (TTC)) выпустил совместное заявление, которым была анонсирована первая совместная Дорожная карта по ИИ.

В конце прошлого месяца в рамках результатов работы одного из совместных комитетов была представлена первая версия аналитического документа, в котором содержится сравнение и общий взгляд со стороны США и ЕС по 65 ключевым терминам.

Документ представляет крайний интерес с точки зрения нормативного правового регулирования, центром которого всегда является внятная и интероперабельная терминология.
А еще сегодня день рождения Алана Тьюринга. К этой дате можно посмотреть небольшой ролик, в котором сотрудники института, названного в его честь, размышляют о наследии ученого.
Мы можем сделать заметку об основных этапах биографии и научных открытиях Алана Тьюринга.
Final Results
90%
Да, делайте!
10%
Нет, спасибо, мы уже сами почитали
Использование алгоритмов при распределении социальной помощи: рекомендации от Human Rights Watch

Правительства по всему миру обращаются к технологиям для совершенствования государственного управления. Одним из популярных направлений является автоматизированное определение уровня бедности отдельных граждан и их семей с тем, чтобы выявить наиболее нуждающихся.

Правозащитная организация Human Rights Watch недавно провела исследование того, как используется алгоритм при распределении социальной помощи в Иордании в рамках программы, финансируемой Всемирным банком. С 2021 по 2023 г. организация провела 70 интервью, в том числе с 36 лицами или семьями, подавшими заявления на участие в программах по оказанию социальной помощи, а также с экспертами по социальной защите, гражданским обществом и представителями власти Иордании.

В опубликованном по результатам исследования Докладе описывается использование алгоритма в программе “Такафул” – название проекта по оказанию социальной помощи в Иордании. Алгоритм определяет доходы и благосостояние иорданских семей, чтобы решить, кто имеет право получить поддержку. Оценка заявителей начинается с заполнения анкеты. Они указывают разные сведения о себе, в том числе о доходах и расходах на проживание. Эта информация объединяется с данными из 37 государственных учреждений. Например, становится известно, обладает ли заявитель транспортным средством, ведет ли бизнес, какую трудовую деятельность осуществлял, участвовал ли в других аналогичных программах. На основе всех таких данных формируется профиль заявителя.

Правозащитники утверждают, что программа Такафул ущемляет права человека из-за несовершенств используемого при профилировании алгоритма. Так, одним из критериев определения нуждаемости семьи является объем потребляемой воды и электричества. Правозащитники полагают, что ситуация, при которой для получения социальной помощи нужно сокращать объем потребления таких базовых благ, как вода и электричество, ущемляет права соответствующих семей. Интервьюируемые также рассказали организации, что владение автомобилем могло быть одной из причин, по которой им было отказано в помощи. И это несмотря на то, что автомобиль был старым и использовался только для работы.

С другой стороны, ответственный за программу Такафул государственный орган заявил, что 57 показателей алгоритма разработаны для измерения "многомерной бедности", и что ни один из них сам по себе не исключает семьи из программы. В то же время этот же орган отказался раскрыть полный список показателей и конкретные веса, присвоенные каждому показателю, заявив, что они предназначены только для внутренних целей и постоянно меняются.

В ответ на выявленные недостатки Human Rights Watch сформировала рекомендации, непосредственно касающиеся применения алгоритмов:

Всемирному банку

– прекратить разработку и применение алгоритмических методов принятия решений для определения финансового благосостояния людей и распределения социальных пособий на этой основе;
– проводить и публиковать результаты проверок алгоритмов по финансируемым банком программам, в которых используется алгоритмическое принятие решений;
– обеспечить, чтобы при проверке алгоритма определялась частота ошибок, из-за которых заявителям отказывается в получении помощи; выявить причины таких ошибок и предусмотреть меры для их устранения; обращать внимание на необходимость соблюдения конфиденциальности данных, а также предусмотреть возможность для заявителей оспаривать принятые алгоритмом решения;

Правительству Иордании

– опубликовать все 57 показателей, которые алгоритм в программе Такафул использует для оценки доходов семей, а также веса, присвоенные каждому такому показателю;
– обнародовать результаты оценки алгоритма за 2023 год, а также ежегодно проводить проверку его работы, обеспечивая, чтобы такие проверки раскрывали любые существенные изменения в алгоритме, в особенности влияющие на то, как принимаются решения;
– обнародовать все выявленные ранее сведения об ошибках, допущенных алгоритмом Такафул, и о мерах, предпринятых для их устранения.
Кратко об одном из основоположников науки об ИИ

Друзья, как и обещали, публикуем пост про Алана Тьюринга! Ученый родился в 1912 году в Англии. Он известен тем, что внес большой вклад в математику, криптоанализ, логику, философию и биологию, а также в новые сферы, позднее названные информатикой, когнитивной наукой и искусственным интеллектом. Тьюринг в 1931 году поступил в Кембриджский университет для изучения математики.

Научная деятельность

В 1936 году Тьюринг изобрел вычислительную машину в рамках попытки решить страшную головоломку, известную как “Проблема разрешения”. Эта проблема была большой головной болью для математиков, которые пытались определить, можно ли доказать истинность или ложность любого математического утверждения с помощью пошаговой процедуры - того, что мы сегодня называем алгоритмом.

Тьюринг решил эту проблему, представив себе машину с бесконечно длинной лентой. Лента покрыта символами, которые передают машине инструкции, указывающие ей, как манипулировать другими символами. Эта универсальная машина Тьюринга является математической моделью компьютеров, которыми мы пользуемся сегодня.

Тьюринг во Второй мировой войне

Вклад Тьюринга в современный мир был не только теоретическим. Во время Второй мировой войны он работал кодовым взломщиком на правительство Великобритании, пытаясь расшифровать шифровальные машины немцев “Энигма”.

Энигма” была устройством, похожим на печатную машинку, которая работала путем смешивания букв алфавита для шифрования сообщения. Шпионам Великобритании удавалось перехватывать немецкие передачи, но при наличии почти сотен миллиардов возможных вариантов шифрования расшифровать их казалось невозможным.

Опираясь на работы польских математиков, Тьюринг и его коллеги в британском Центре взлома кодов Блетчли-парка разработали машину под названием "Бомба", способную расшифровывать немецкие сообщения. Это позволило Великобритании и ее союзникам читать данные немецкой разведки. К началу 1942 года криптоаналитики в Блетчли-парке расшифровывали около 39 000 перехваченных сообщений ежемесячно, впоследствии эта цифра выросла до более чем 84 000 в месяц - по два сообщения каждую минуту.

Компьютеры и искусственный интеллект

После войны Тьюринг продолжал развивать свои идеи о компьютерной науке. Его работы привели к созданию первых настоящих компьютеров, но самая известная появилась в 1950 году, когда он опубликовал статью с вопросом "Могут ли машины думать?".

Тьюринг был одним из основателей ИИ и современной когнитивной науки. Он был сторонником гипотезы о том, что человеческий мозг в значительной степени представляет собой цифровую вычислительную машину. Он предположил, что кора головного мозга при рождении представляет собой "неорганизованную машину", которая в процессе “обучения” превращается “в универсальную машину или нечто подобное”.

Ученый предложил то, что впоследствии стало известно как тест Тьюринга – критерий для определения того, “мыслит” ли машина (1950). Подробно про тест Тьюринга писали здесь.

Последние годы жизни

В 1952 году Тьюринг был осужден за нетрадиционные отношения, что в то время было незаконно. Его поставили перед выбором: сесть в тюрьму или пройти курс гормонального лечения, призванного снизить его либидо. Он выбрал последнее. Интересно, что несмотря на вклад в борьбу с нацистами, государство его довольно жестоко осудило.

Тьюринг умер в июне 1954 года, по официальной версии он совершил самоубийство, приняв цианид. Гормональное лечение, которое он проходил, часто указывают в качестве причины его смерти. Вместе с тем вокруг обстоятельств его смерти существует несколько разных версий, поэтому сказать наверняка, что стало причиной смерти и было ли это действительно самоубийством, достаточно сложно.
Иск против OpenAI

Весной прокатилась волна коллективных исков против компаний-разработчиков популярных генеративных систем ИИ. Теперь дошла очередь и до OpenAI с Microsoft. Вчера против них был подан коллективный иск, в котором утверждается, что компания собирает и отслеживает личную информацию пользователей без их согласия, что представляет угрозу для личной жизни и безопасности людей. Собранная информация может быть использована в различных злонамеренных целях, включая кражу личных данных, финансовое мошенничество, вымогательство, а также неэтичное целевое использование посредством хищнической рекламы и алгоритмической дискриминации.

Одна из конкретных проблем, поднятых в иске, связана со возможностью ChatGPT генерировать похожие на человека ответа. Благодаря этой способности существует высокая вероятность того, что пользователи могут поделиться или уже поделились своей частной медицинской информацией при взаимодействии с моделью. Например, люди могут задавать вопросы, связанные со здоровьем, или обсуждать свою историю болезни, симптомы или состояния. Более того, в иске подчеркивается, что эта конфиденциальная информация может регистрироваться и просматриваться в рамках постоянных усилий OpenAI по обучению, совершенствованию и мониторингу работы каждой модели.

В иске также критикуется OpenAI за то, что она не предусмотрела эффективных процедур, позволяющих людям требовать удаления их информации и данных об обучении. Текущий подход компании предлагает предоставление пользователям адрес электронной почты, по которому они могут связаться, если хотят, чтобы их информация была удалена. Однако в иске утверждается, что эта возможность достаточно «иллюзорна». Независимо от того, могут ли люди технически запросить удаление своих данных из ChatGPT, утверждается, что полное удаление не представляется возможным из-за того, что модель является черным ящиком.

Мы обратили внимание на небольшую часть аргументов. Некоторые из них довольно интересны, но далеко не все в достаточной степени убедительны. Следим за развитием событий. Полный текст искового заявления в комментариях под постом.
Tremblay et al v. OPENAI, INC. et al.pdf
495.1 KB
Продолжение банкета

И еще один иск против OpenAI. Теперь по поводу нарушения авторских прав на книги, которые были использованы для обучения моделей GPT 3,5 и GPT 4, лежащих в основе их продукта ChatGPT.

Истцы отмечают, что OpenAI выпустила несколько больших языковых моделей, таких как GPT-1, GPT-2, GPT-3, GPT-3.5 и GPT-4. Эти модели были обучены на наборах данных, включающих книги, поскольку в последних содержатся качественные примеры письменной речи.

Один из используемых наборов данных, называемый BookCorpus, содержал более 7 000 неопубликованных книг различных жанров. Однако эти книги были скопированы без разрешения с сайта Smashwords.com. Другой набор данных, использованный для GPT-3, названный Books1 и Books2, состоит из книг, размещенных в интернете, и по объему значительно превышает BookCorpus.

Набор данных Books1, насчитывающий около 63 000 наименований, вероятно, основан на Project Gutenberg (онлайн-архиве электронных книг с истекшим сроком действия авторских прав). Набор данных Books2, насчитывающий около 294 000 наименований, вероятно, взят с сайтов теневых библиотек, таких как Library Genesis, Z-Library, Sci-Hub и Bibliotik, которые известны тем, что незаконно распространяют книги, защищенные авторским правом.

На презентации новой модели GPT-4 OpenAI не предоставила никаких подробностей о наборах данных, на которых она была обучена, сославшись на конкурентные условия и соображения безопасности. Однако она упомянула о фильтрации набора данных для уменьшения неуместного эротического содержания текста.

По мнению истцов, ChatGPT точно резюмирует книги, защищенные авторским правом, поскольку эти книги были скопированы и использованы в обучающих данных. Хотя выходные результаты и могут содержать некоторые неточности, они сохраняют знания о произведениях. Также ChatGPT не отображает информацию об авторских правах на оригинальные произведения.
Карта регулирования применения систем ИИ в HR-индустрии (США)

Друзья, мы неоднократно в своих постах затрагивали тему применения систем ИИ в сфере труда. Использование алгоритмов в HR-индустрии является распространенной практикой. При этом по мере совершенствования технологий увеличивается и интерес со стороны работодателей к их использованию. Законодатели в разных странах также не остаются в стороне и уделяют большое внимание этому сектору.

Одним из примеров такой страны является США. Недавно компания Holistic AI выпустила материал, в котором показала, как выглядит ландшафт регулирования применения систем ИИ в сфере труда в США. Из материала можно узнать про то, какие проекты законов вносились на уровне федерации и штатов в законодательные органы и какой у них сейчас статус (принят, на рассмотрении, отклонен).

Следует отметить, что наиболее популярным направлением регулирования является неравное обращение с соискателями/работниками, иными словами, акты направлены на обеспечение непредвзятости систем ИИ.
Вебинар про проект Регламента ЕС об ИИ

В среду 5 июля 2023 года (11:00 - 12:00 PDT) на базе Института человеко-ориентированного ИИ (Стэнфордский университет) пройдет вебинар, посвященный проекту Регламента ЕС об ИИ. В мероприятии примут участие ведущие исследователи из ЕС и США.

Ожидается, что эксперты проведут анализ ключевых положений проекта Регламента ЕС об ИИ. Кроме того, они расскажут про последствия принятия акта для технологической индустрии и трансатлантических отношений. Отдельно спикеры обсудят первые результаты и перспективы проходящего трилога - стадии согласования позиций между Парламентом, Комиссией и Советом в целях окончательной доработки проекта Регламента ЕС об ИИ.

Обращаем внимание, что для участия в вебинаре необходимо заранее зарегистрироваться.
Европейский подход предлагают американизировать

На днях появились новости о реакции бизнеса на проект Регламента ЕС об ИИ. В частности, более 160 руководителей крупных компаний, в том числе и европейских, таких как Siemens, Carrefour, Renault и Airbus, подписали открытое письмо, в котором выразили законодателям ЕС свою озабоченность по поводу содержания акта. Документ подписали и известные ИИ-эксперты, например, Ян Лекун из Meta и Герман Хаузер из ARM.

В письме утверждается, что проект Регламента не решит проблемы применения систем ИИ, но может нанести ущерб конкурентоспособности и технологическому суверенитету Европы.

Во-первых, они озабочены достаточно обременительными требованиями к базовым моделям (и генеративным системам ИИ в частности).

Во-вторых, по их мнению, полное соблюдение требований акта будет затратно, что может привести к оттоку бизнеса в другие юрисдикции.

В-третьих, они предлагают создать специальный экспертный орган, который будет помогать плавно адаптировать нормативные требования под изменяющиеся технологические реалии.

В-четвертых, активно развивать трансатлантическое партнерство между США и ЕС в целях выработки совместной регуляторной политики.

В-пятых, пересмотреть отдельные положения проекта Регламента в сторону смягчения требований и двигаться в сторону нормативного закрепления лишь фундаментальных принципов и систем риск-менеджмента (прим.: по сути, предлагают использовать американский подход, о котором мы писали тут).

Однако не все представители бизнеса поддерживают данные идеи. Например, крупное объединение предпринимателей Digital Europe указали, что с текущим текстом проекта Регламента уже можно работать. Вместе с тем желание бизнеса, особенно американских технологических гигантов, снизить издержки и избежать излишних сложностей по аналогии с защитой персональных данных вполне понятно. Тем не мнее нужно и подчеркнуть, что после всех доработок проект Регламента уже не настолько однозначен, логичен и гибок, как это предполагалось изначально. Будем следить за дальнейшей работой.
Япония между США и ЕС

По данным Reuters, Япония склоняется к более мягкому подходу к нормативному регулированию применения систем ИИ, чем ЕС. Со ссылкой на неназванного чиновника издание утверждает, что страна планирует до конца года сформулировать свой подход, который будет идейно близок с подходом США (опять же, про него мы писали тут).

Япония возлагает большие надежды на развитие ИИ-отрасли.

Во-первых, это поможет им справиться с дефицитом рабочей силы, вызванной старением населения.

Во-вторых, страна планирует занять ведущее место в производстве современного железа, необходимого для разработки и обучения систем ИИ и базовых моделей.

В-третьих, власти Японии, с одной стороны, намерены защищать крайне развитую креативную индустрию, а с другой, по предварительным заявлениям, планируют более мягко относиться к использованию данных для обучения базовых моделей.

На днях Еврокомиссар по внутреннему рынку Тьерри Бретон направился с визитом в Японию, который в том числе займется разъяснением сильных сторон европейского регулирования для упрочнения дальнейшего сотрудничества.

Таким образом, некоторая интрига в поиске мирового бенчмарка нормативного регулирования все еще сохраняется. Однако ожесточенное соперничество на технологическом рынке с Китаем заставляет другие страны гармонизировать свои подходы друг с другом.

Напомним, что с 2019 года после принятия Социальных принципов человеко-ориентированного ИИ Япония придерживалась подхода, главная ставка в котором делалась на отказ от жесткого сквозного регулирования в пользу добровольного введения корпоративных стандартов и саморегулирования со стороны бизнеса. Государство поддерживало компании с помощью мягкого права (концепций, рекомендательных руководств) и регулировало вопросы, связанные с отдельными областями (оборот данных, деятельность цифровых платформ, медицина и т.д.).
Распознавание лиц в московском метро: решение ЕСПЧ

Вчера Европейский суд по правам человека вынес решение по делу Николая Глухина. Жалоба была подана еще до выхода России из Совета Европы.

Суть дела заключается в том, что в ходе обычного мониторинга в интернете полиция обнаружила фотографии и видеозапись одиночной демонстрации заявителя в московском метро, опубликованные на общедоступном канале в Telegram. Заявитель держал в руках картонную фигуру в натуральную величину активиста Константина Котова, которая держала в руках транспарант, гласивший: «А вы не <ошалели>? Я Константин Котов, за мирные пикеты мне грозит до 5 лет».

Прим.: дело Константина Котова имело большой резонанс, так как он был вторым человеком, привлеченным к ответственности по статье 212.1 УК РФ. Статья установила административную преюдицию за нарушение законодательства в сфере публичных мероприятий. Ранее данная статья была обжалована в Конституционный суд РФ по еще более громкому делу активиста Ильдара Дадина. Суд тогда в постановлении рекомендовал законодателю доработать статью таким образом, чтобы исключалось произвольное привлечение к уголовной ответственности без соответствия характера и степени общественной опасности совершенного деяния преступлению. Однако статья до сих пор остается неизменной, и к ответственности привлечены десятки человек.

Также, по словам заявителя, полиция использовала камеры с применением технологии распознавания лиц:

а) чтобы идентифицировать его по скриншотам из канала; б) собрать видеозаписи с камер видеонаблюдения, установленных на станциях московского метрополитена, через которые он проезжал; в) чтобы через несколько дней спустя обнаружить и арестовать его во время поездки в метро.

Скриншоты из Telegram-канала и видеозаписи с камер видеонаблюдения были использованы в качестве доказательств при рассмотрении дела об административном правонарушении в отношении заявителя. Он был привлечен к ответственности за нарушение законодательства о публичных мероприятиях по ч. 5 ст. 20.2 КоАП РФ (штраф 20 тыс. рублей).

ЕСПЧ усмотрел нарушение статьи 8 (право на уважение частной жизни) и нарушение статьи 10 (свобода выражения мнения) Европейской конвенции по правам человека. Если со статьей 10 ситуация достаточно распространенная для РФ (наказание за сам факт отсутствия согласования публичного мероприятия, даже если не было противоправных последствий) то со статьей 8 ситуация более интересная.

Европейский суд указал на следующее:

во-первых, суд признал, что технологии распознавания лиц действительно применялись, несмотря на отрицание органов власти;

во-вторых, законодательство РФ не определяет ни оснований, ни процессуальных гарантий и прав, ни требований к органам власти по использованию этих технологий для идентификации людей (фактически использование произвольное);

в-третьих, хранение фотографий и иных персональных данных (в том числе чувствительных, например, политические взгляды) полицией в сочетании с возможностью применения к ним технологии распознавания лиц (в том числе для определения местонахождения и ареста) представляет собой вмешательство в право на частную жизнь;

в-четвертых, применение несоразмерно жестких мер, грозящих нарушению прав человека, для пресечения деяния, не представляющего значительной общественной опасности, не соответствует «социальным потребностям демократического государства».
В Нью-Йорке введен обязательный аудит предвзятости автоматизированных инструментов принятия решений в сфере трудоустройства

Друзья, буквально вчера, 5 июля вступил в силу Акт Нью-Йорка об аудите предвзятости. Акт был внесен в виде поправки в Административный кодекс города Нью-Йорк и является его составной частью (раздел 20, глава 5, подглава 25: Автоматизированные инструменты принятия решений в сфере трудоустройства).

Документ является значимым, поскольку им предусматривается обязательный независимый аудит автоматизированных инструментов принятия решений, используемых для отбора кандидатов на вакансии и оценки сотрудников в контексте их возможного повышения.

Несмотря на то, что данный акт имеет очень ограниченную территорию действия, его содержание во многом приоткрывает окно в будущее нормативного регулирования применения систем ИИ.

Таким образом, для успешного развития ИИ-продуктов и дальнейшего их вывода на рынки разных юрисдикций необходимо оценивать тренды развития законодательства.

Полный текст поста доступен по ссылке ниже:
Вебинар HAI про проект Регламента ЕС об ИИ

На днях мы писали про то, что 5 июля на базе Института человеко-ориентированного ИИ (HAI) Стэнфордского университета пройдет вебинар, посвященный проекту Регламента ЕС об ИИ.

Делаем небольшой обзор наиболее интересных моментов.

На мероприятии выступили несколько экспертов от науки, бизнеса и государственных органов. Модератором выступила научный сотрудник HAI и директор по международной политике Центра киберполитики Стэнфордского университета Мариеш Шааке (в прошлом член Европарламента).

Член Европарламента и председатель специального комитета по искусственному интеллекту в цифровую эпоху Драгош Тюдораке (он принимал и принимает важное значение в ходе разработки проекта Регламента ЕС об ИИ) подтвердил намерение властей ЕС принять акт до конца этого года. Также он обратил внимание на несколько наиболее острых проблем, которые обсуждаются во время трилога и по которым могут быть расхождения позиций между Еврокомиссией, Европарламентом и Евросоветом. В их числе, например, сценарии использования систем ИИ для биометрической идентификации личности, круг систем ИИ высокого риска, вопросы создания специальных органов ЕС и их соотношение с компетенцией органов стран-членов, оценка соответствия систем ИИ и проверка соблюдения базовых демократических принципов.

Руководитель общественного направления Центра исследования базовых моделей Стэнфордского университета Риши Боммасани остановился на ключевых выводах крайне интересной статьи о текущем уровне соответствия наиболее значимых базовых моделей проекту Регламента ЕС об ИИ, соавтором которой он является (саму статью мы недавно разбирали тут). Также он отметил, что в дальнейшем развитии проекта Регламента, по его мнению, следовало бы уделить внимание соотношению сценариев использования базовых моделей с регулированием (например, применение ChatGPT для написания сказок или для медицины), а также более детальной регламентации взаимоотношений всей цепочки субъектов на протяжении жизненного цикла базовой модели.

Директор по вопросам политики Hugging Face Ирен Солайман остановилась на трех таких важных аспектах, как прозрачность (моделей, датасетов и т.п.), открытость доступа к базовым моделям (в том числе для исследователей) и оценке их воздействия (особенно опенсорс решений). Проблему важности доступа к базовым моделям исследователей также подчеркнул и Драгош Тюдораке, отметивший, что этот вопрос сейчас изучается законодателями.

Научный сотрудник по вопросам государственного управления The Brookings Institution Алекс Энглер отметил проблему распределения компетенции между органами стран-членов ЕС. Например, должны ли создаваться отдельные органы или соответствующие функции будут распределяться между отраслевыми ведомствами. Также он отметил важность создания общего (или довольно близкого) регуляторного пространства для США и ЕС.

Также спикеры отметили, что США должны пользоваться наработками ЕС в плане законодательства, а ЕС - для написания технических стандартов.

Полную запись мероприятия можно посмотреть по ссылке.
Экосистема базовых моделей

Институт человеко-ориентированного ИИ Стэнфордского университета разработал экосистему базовых моделей. Это полезный ресурс, из которого в виде интерактивной карты или таблицы можно узнать актуальную информацию о существующих сейчас базовых моделях (про датасеты, модели, приложения), а также посмотреть на их связи с другими продуктами.

Материал позволит быть в курсе характеристик новейших базовых моделей, о том кто их разрабатывает, для чего они используются и в каких приложениях.
Принцип модульности при разработке систем ИИ и ответственность

Сегодня хотим рассказать про статью “Смещенная ответственность в "цепочке поставок ИИ": модульность и представления разработчиков об ответственности”. Она посвящена изучению того, как в настоящее время организована работа по созданию ответственного ИИ, а также выявлению возможностей по совершенствованию такой работы.

Авторы, являясь экспертами в области компьютерных наук, выдвигают тезис, что современные системы ИИ создаются посредством “соединения” множества готовых программных модулей, в разработке которых участвует широкий круг разных субъектов. Они имеют в виду так называемый принцип модульности (модульное программирование), в соответствии с которым при проектировании ПО вся программа делится на отдельные части (модули), и, соответственно, разработкой таких модулей занимаются независимые друг от друга команды программистов.

Эксперты в рамках исследования провели интервью с 27 инженерами по ИИ, работающими в индустрии, а также в академической сфере. Они выяснили, что разработчики часто считают, что обеспечение соблюдения положений руководств по ответственному ИИ выходит за рамки их компетенций. В частности, один из опрошенных утверждал: "У меня нет времени в течение обычной недели думать об [...] ответственном ИИ. По мнению моего руководства, это не та часть работы, о которой я должен беспокоиться”. Одной из основных причин такого положения является использование принципа модульности при создании систем ИИ. Каждая самостоятельная команда полагает, что ответственность за возможный вред от систем ИИ должны нести участники процесса, занятые разработкой других модулей.

В зависимости от отношения к принципу модульности в статье предлагаются три разные рекомендации по улучшению рабочих процессов, направленных на создание ответственных систем ИИ.

Действие в рамках модулей

В данном случае подразумевается, что доминирование модульного программирования вряд ли изменится в ближайшем будущем. В связи с этим нужно искать способы совершенствования работы в рамках модульного программирования. Решением представляется обязательное указание разработчиками в документальной форме доступной им информации о недостатках, ограничениях, контексте использования систем ИИ, в создании которых они принимают участие. Это позволит, как минимум, разработчикам из других уровней и команд обладать необходимой информацией.

Укрепление связей между компаниями

Нужно улучшить коммуникации между компаниями таким образом, чтобы, например, те, кто выступает в роли заказчика продукта, могли бы тщательно проверять поставщиков, требуя от них наличия необходимой информации о модели, о правомерности получения данных для обучения, об оплате труда специалистов по маркировке данных и т.п. Такие обязательства сторон могут учитываться при заключении контрактов.

Отказ от принципа модульности

В соответствии с этим решением предусматривается отказ от модульного программирования. Авторы статьи предлагают в списке приоритетов при создании систем ИИ на первое место поставить “качество отношений внутри команд”, на второе место – “разработку кода”, и только на третье место “масштабируемость”. Под последним имеется в виду то, что часто на практике компании пытаются быстрее коммерциализировать свои ИИ продукты без должного учета риска нарушения этических стандартов.
Проект Регламента ЕС об ИИ и стартапы

Друзья, 13 июля в 10:00 CET состоится вебинар, организованный EIT Hub Israel и Startup Nation Policy Institute.

Организаторы планируют обсудить вопросы подготовки стартапов к соответствию требованиям грядущего проекта Регламента ЕС об ИИ.

Для посещения мероприятия необходимо предварительно зарегистрироваться.
Триквел соглашения о трансграничной передаче персональных данных между США и ЕС (но это неточно)

10 июля Еврокомиссия приняла акт, которым признала достаточным уровень защиты персональных данных в США в соответствии с Рамочным соглашением о конфиденциальности данных между ЕС и США (EU-US Data Privacy Framework). Теперь американским компаниям передавать данные будет проще, и для этого не потребуется оформления дополнительных документов. Очевидно, что и ИИ-компаний, в том числе бигтэков, это тоже коснется.

Напомним, что это уже третье подобное соглашение. Два других постигла печальная судьба.

В 1995 году в ЕС была принята Директива о защите данных, которой персональные данные могут быть переданы в третью страну, если ее законодательство обеспечивает адекватный уровень защиты данных (за некоторыми исключениями). В 2000 году Еврокомиссия издала акт, получивший краткое название “Безопасная гавань” (Save Harbor), который определил CША в качестве безопасной юрисдикции.

В 2013 году Эдвард Сноуден раскрыл информацию о том, что государственные органы США в соответствии с Актом о негласном наблюдении в целях внешней разведки (FISA, Section 702 (пока его действие пролонгировано до конца 2023 года)) и Указом Президента США N 12333 используют бигтэки и разнообразное ПО (например, PRISM) для организации шпионажа за гражданами других стран без достаточных оснований и необходимости получения судебного решения. Однако в соответствии с Поправкой 4 Конституции США для граждан США соблюдение этих требований обязательно для правоприменителей. Таким образом, для американских госорганов в сфере безопасности иностранные граждане обладают меньшими правами и гарантиями, чем собственные.

В 2015 году прайваси активист Макс Шремс на основе данной информации оспорил акт о “безопасной гавани” в Суд ЕС. Суд признал недостаточную защищенность граждан ЕС относительно граждан США и отменил этот акт (Schrems I).

В 2016 году Еврокомиссией была предпринята еще одна попытка принять схожий акт, который получил краткое название “Щит конфиденциальности” (Privacy Shield). Однако он также был по схожим основаниям обжалован в суд и отменен в 2020 году (Schrems II).

Как уже отмечалось в начале поста, 10 июля Еврокомиссией была предпринята третья попытка по принятию акта. Макс Шремс, теперь, будучи одним из сооснователей команды правозащитной организации NOYB - Европейский центр цифровых прав, заявил, что фундаментальные проблемы так и не были решены, и они будут обжаловать акт снова.
Google обвиняют в многочисленных нарушениях законодательства, допущенных при разработке ИИ-продуктов

11 июля 2023 года в окружной суд США северного округа Калифорнии от имени группы физических лиц был подан иск против компаний Alphabet Inc., Google DeepMind, Google LLC (ответчики, Google).

Истцами являются американцы, которые полагают, что при разработке своих ИИ-продуктов Google использовала тайным образом их данные. В частности, один из истцов является автором бестселлеров по версии New York Times и журналистом-расследователем. Он полагает, что ответчики использовали его книгу, размещенную на одном из пиратских сайтов, для обучения чат-бота Bard и других продуктов. Работа, защищенная авторским правом, которую ответчики незаконно присвоили, является результатом более десяти лет журналистских расследований истца. Содержащиеся в книге его авторские идеи теперь доступны на сайте Bard бесплатно. По запросу Bard может не просто подробно изложить содержание книги, но и воспроизвести ее текст дословно.

В иске утверждается, что Google тайно похищает все, что когда-либо было создано и выложено в Интернет сотнями миллионов американцев. Google завладела личной и профессиональной информацией, творческими и авторскими работами, фотографиями и электронной почтой - практически всем цифровым наследием истцов - и использует ее для создания коммерческих продуктов на основе ИИ.

Например, так был разработан чат-бот Bard, построенный на базе большой языковой модели LaMDA. Впоследствии Google перевела Bard на PaLM 2, обученную на 3,6 трлн. токенов, что превышает возможности любой существующей модели. Помимо этого в иске фигурируют следующие ИИ-продукты от Google: Imagen (генерирует изображения из текста); MusicLM (преобразовывает текст в музыку); Duet AI (ИИ-помощник для составления документов); Gemini (мультимодальная модель машинного обучения). Все перечисленные продукты, по мнению истцов, были созданы с использованием частных, личных и/или защищенных авторским правом материалов без получения надлежащего согласия или справедливой компенсации.

Ответчики обвиняются в нарушении следующих пунктов:

Нарушение законодательства штата Калифорния о недобросовестной конкуренции: ответчики осуществляли незаконную, нечестную и мошенническую деловую практику.

Халатность: ответчики обязаны были проявить должную осмотрительность в отношении истцов (и аналогичных групп населения): а) для получения данных при обучении своих продуктов; б) не использовать частную информацию людей при обучении ИИ; в) уничтожить информацию, которой обладали неправомерно.

Нарушение конфиденциальности в соответствии с конституцией Калифорнии: ответчики были обязаны по отношению к истцам: а) не собирать информацию о лицах путем незаконного веб-скреппинга; б) не обучать свои продукты ИИ на основе персональных данных; в) обеспечивать конфиденциальность собранных данных.

Посягательство на неприкосновенность частной жизни: ответчики намеренно вторглись в частную жизнь истцов, создав систему, которая собирает, хранит и использует персональные данные миллионов людей (как пользователей, так и не пользователей продуктов Google). Эти сведения включают в себя личную, медицинскую, финансовую информацию, а также материалы, защищенные авторским правом.

Кража/использование похищенного имущества: ответчики завладели информацией физических лиц для обучения ИИ-продуктов и тем самым нарушили имущественные интересы истцов.

Конверсия: ответчики незаконно собирали, использовали и осуществляли контроль над личной и частной информацией людей без их разрешения.

Неосновательное обогащение: в результате незаконного, нечестного и обманчивого поведения, ответчики заработали сотни миллионов долларов дохода в результате использования персональных данных истцов (и аналогичных групп населения) для обучения своих коммерческих ИИ-продуктов.

Нарушения авторских прав: при разработке чат-бота Bard ответчики неправомерно использовали огромный массив данных, взятых из Интернета, включая точную цифровую копию книги одного из истцов, а также его мнения и суждения, опубликованные в СМИ.