ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
ЕС: Группа высокого уровня по Закону о цифровых рынках подчеркивает необходимость скоординированного регулирования ИИ

Группа высокого уровня по Закону о цифровых рынках (High-Level Group for the Digital Markets Act, DMA) в своем недавнем заявлении сообщила о необходимости скоординированного регулирования ИИ, отметив роль нового Закона об ИИ в устранении рисков и продвижении инноваций.

Группа, в которую входят такие органы, как BEREC и Европейский совет по защите данных, подчеркнула важность законного использования данных и честной конкуренции, отметив потенциальные преимущества ИИ и риски, такие как предвзятость и дезинформация.

Группа планирует постоянное сотрудничество для согласования развития ИИ с целями Закона о цифровых рынках и другими нормативно-правовыми актами, уделяя особое внимание облачным услугам, доступу к данным и основным правам.

#AI #DigitalMarketsAct #DataPrivacy
Университет Эмори отстранил студентов за разработку учебного инструмента на базе ИИ

Двое студентов Университета Эмори, Бенджамин Крейвер и Карам Ханна, были отстранены за разработку учебного инструмента Eightball.

Примечательно, что этот инструмент не только получил одобрение университета, но и выиграл премию в размере $10,000 на дальнейшую разработку. Конфликт возник, когда Eightball получил возможность подключаться к онлайн-системе обучения Canvas, что позволило генерировать учебные карточки непосредственно из учебных материалов.

Университет Эмори сослался на возможные нарушения Кодекса чести, утверждая, что Eightball «может использоваться для мошенничества». Это привело к закрытию инструмента и судебному иску, поданному Крейвером против университета. В иске студент утверждает, что «нет доказательств, что кто-либо использовал Eightball для мошенничества».

#AI #Education #Innovation #Eightball #TechPolicy
Семья Шумахера получила €200,000 компенсации за "интервью с ИИ"

Семья Михаэля Шумахера получила компенсацию в размере €200,000 ($217,000) от немецкого журнала, который опубликовал сгенерированное ИИ "эксклюзивное интервью с легендой Формулы-1".

В апреле прошлого года Die Aktuelle опубликовал материал, в котором заявлялось, что это эксклюзивное интервью с Шумахером, который не появлялся на публике после серьезной травмы головы, полученной в результате лыжной аварии в декабре 2013 года. В конце статьи выяснилось, что интервью было полностью сгенерировано ИИ.

Семья Шумахера подала в суд и получила компенсацию, подтвержденную Мюнхенским трудовым судом. Медиа-группа Funke, владелец Die Aktuelle, принесла извинения семье Шумахера и расторгла контракт с главным редактором, ответственным за публикацию. Семья продолжает строго охранять личную жизнь Михаэля, предоставляя минимум информации о его состоянии даже в недавнем документальном фильме Netflix о его жизни и карьере.

#ИИ #Приватность #AI #Privacy #LegalAction
Новый Европейский парламент будет решать вопрос о принятии Директивы об ответственности за искусственный интеллект

Следующему созыву Европейского парламента предстоит принять важное решение по Директиве об ответственности за искусственный интеллект (Artificial Intelligence Liability Directive, AILD). Директива направлена на устранение возможных правовых пробелов, оставленных Законом ЕС об ИИ и Директивой об ответственности за качество продукции (Product Liability Directive, PLD).

Комитет по правовым вопросам Европейского парламента заказал исследование, в котором участвуют Исследовательская служба Европейского парламента и внешний подрядчик, для целей определения необходимости новой директивы. Подробнее о сомнениях некоторых участников процесса в целесообразности принятия нового регулирования можно почитать здесь.

#AI #AILD #EuropeanParliament #AIRegulation #TechPolicy
Исследование Стэнфорда выявило риски использования ИИ в юридических инструментах

Исследование Стэнфордского университета показывает, что специализированные генеративные ИИ-инструменты для юристов дают ложные результаты в 17% случаев, требуя внимательной проверки со стороны юристов. Эти инструменты, хотя и более точны, чем общие модели, такие как ChatGPT, все же представляют значительные риски для юридической точности и эффективности.

Исследование подчеркивает, что несмотря на улучшения, такие как процесс генерации с дополнительным извлечением (retrieval-augmentation generation, RAG), юридические ИИ-инструменты могут по-прежнему неправильно интерпретировать законы и судебные прецеденты. Такие ошибки могут привести к ошибочным юридическим выводам и подрывают доверие к таким технологиям технологиям.

#LegalTech #AI #StanfordStudy #GenerativeAI #LegalResearch #RGA #AIInLaw
Европейский надзорный орган выпустил руководство по защите данных при использовании генеративных ИИ-систем

Европейский надзорный орган по защите данных (European Data Protection Supervisor, EDPS) выпустил новое руководство по обеспечению соответствия требованиям защиты данных при использовании генеративных ИИ-систем. Это руководство особенно важно, учитывая ключевую роль EDPS в Законе ЕС об ИИ.

Согласно Закону об ИИ, EDPS будет:
Создавать регуляторные песочницы для ИИ для европейских компаний;
Участвовать в качестве наблюдателя в Европейском совете по ИИ;
Осуществлять надзор за учреждениями ЕС в рамках Закона ЕС об ИИ;
Выступать в качестве органа рыночного надзора за европейскими компаниями в рамках Закона ЕС об ИИ;
Налагать административные штрафы в случае нарушений.

Эти функции означают, что интерпретации и руководство EDPS по разработке и использованию ИИ будут иметь значительное влияние на разработчиков и пользователей систем искусственного интеллекта ИИ.

Несмотря на то, что руководство не достаточно конкретно раскрывает некоторые вопросы, оно предоставляет хороший первоначальный обзор ключевых вызовов в области генеративного ИИ.

#ИИ #ЗащитаДанных #AI #DataProtection #EDPS #AIAct #GenerativeAI
ISO разместила в публичном доступе стандарт по управлению ИИ

Международная организация по стандартизации (ISO), известная своими отраслевыми стандартами, сделала ключевой ISO/IEC 22989 общедоступным и бесплатным. Этот стандарт охватывает широкий спектр тем, связанных с управлением ИИ, и предоставляет ценные рекомендации для ответственной разработки и внедрения технологий искусственного интеллекта.

ISO/IEC 22989 предоставляет стандартизированные концепции и терминологию, чтобы помочь заинтересованным сторонам лучше понять и эффективно использовать технологии ИИ. Этот документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки. Также стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.

Сделав этот стандарт общедоступным, ISO стремится способствовать широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы ИИ были надежными, устойчивыми, точными, безопасными и приватными.

ISO/IEC 22989 и другие стандарты в свободном доступе можно найти здесь.

#ISO #УправлениеИИ #ИИ #ISO #AIGovernance #AIGP #AI
ЕС и США: Разные подходы к регулированию ИИ

Бенджамин Седрик Ларсен из Всемирного экономического форума и Сабрина Кюсперт из Европейского офиса по ИИ опубликовали анализ на сайте Института Брукингса, сравнивающий подходы ЕС и США к регулированию ИИ. В США Указ Байдена содержит рекомендации для федеральных агентств и компаний, которые могут быть изменены или отменены. Со своей стороны, Закон ЕС об ИИ вводит юридически обязательные правила для моделей ИИ общего назначения, создавая строгую структуру управления.

Ключевые различия включают более серьезный акцент на системных рисках, таких как масштабная дискриминация и влияние на права человека, в ЕС по сравнению с США. Однако обе системы подчеркивают важность документирования, оценки и анализа моделей ИИ и требований к кибербезопасности.

Закон ЕС об ИИ может оказать глобальное влияние, аналогичное GDPR, в то время как Указ Байдена в основном влияет на внутреннюю политику с косвенным глобальным эффектом. Кроме того, оба региона работают над созданием необязательного кодекса поведения при работе с ИИ вместе с другими странами G7, что указывает на стремление к большей международной координации.

#AI #AIRegulation #EU #US #TechPolicy #AIAct #AIethics
США: Суд отказался от принятия правил по использованию ИИ после возражений адвокатов

Пятый окружной апелляционный суд в Новом Орлеане решил не принимать правило, регулирующее использование генеративного ИИ адвокатами. Предложенное правило, которое стало бы первым на апелляционном уровне, было направлено на обеспечение точности документов, созданных с помощью ИИ. На решение суда повлияли в основном негативные отзывы адвокатов.

Правило требовало бы от юристов, использующих ИИ, таких как ChatGPT от OpenAI, подтверждать точность цитат и правового анализа. Несоблюдение требований могло привести к санкциям и исключению документов из рассмотрения. Несмотря на отказ от принятия правила, суд подчеркнул, что текущие правила уже требуют правдивости и точности в подаваемых документах, и использование ИИ не будет оправданием для нарушений.

#ИИ #AI #LegalTech #GenerativeAI #LegalEthics
Исследовательская группа требует глобального прекращения разработки базовых моделей ИИ

Институт исследований машинного интеллекта (MIRI) призывает к глобальной остановке разработки базовых моделей ИИ, опасаясь, что без должных мер безопасности они могут «уничтожить человечество» . Базовые модели, способные выполнять широкий спектр задач, могут развиться до уровня, превосходящего человеческий интеллект.

MIRI настаивает на полном прекращении попыток создания систем, которые будут умнее человека. Это требование более жесткое, чем предыдущие призывы таких технологических лидеров, как Илон Маск и Стив Возняк, которые просили приостановить разработку моделей мощнее GPT-4 от OpenAI.

MIRI подчеркивает необходимость срочного принятия всеобъемлющих законов, включая установку «выключателя» для ИИ-систем, чтобы предотвратить их злонамеренные действия. Группа акцентирует внимание на важности серьезного подхода к экзистенциальным рискам и обеспечения безопасной разработки ИИ в будущем.

#ИИ #AI #ArtificialIntelligence #AIEthics #FoundationModels #MIRI