ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
Этические проблемы, связанные с использованием ИИ в здравоохранении, раскрыты в новом исследовании

Недавнее исследование Оксфордского университета призывает к осторожности при внедрении нерегулируемых чат-ботов ИИ в здравоохранении, ссылаясь на потенциальные этические дилеммы и риски для конфиденциальности данных.

Как сообщает газета The Guardian, раскрыты случаи, когда медицинские работники использовали ИИ-чатботы, такие как ChatGPT, для составления планов лечения пациентов. Однако исследование предупреждает, что использование таких инструментов ИИ в отсутствие регулирования может привести к принятию решений на основе недостоверной или предвзятой информации, что в конечном итоге может нанести вред пациентам.

По мере того как в здравоохранении все шире внедряются технологии искусственного интеллекта, возникают опасения по поводу защиты данных пациентов и возможности некачественного лечения из-за чрезмерного доверия к системам ИИ.

Доктор Кэролайн Грин, научный сотрудник Оксфордского института этики искусственного интеллекта, подчеркивает, что использование персональных данных для обучения моделей искусственного интеллекта может нарушить конфиденциальность пациентов. Она выступает за осторожный подход, предлагая использовать ИИ в качестве вспомогательного "второго пилота", а не единственного лица, принимающего решения по уходу за пациентом.

#AIinHealthcare #EthicalAI #DataPrivacy #OxfordUniversity
YouTube требует раскрывать информацию о сгенерированном ИИ контенте

YouTube обязывает создателей раскрывать информацию о том, что реалистичный контент был сгенерирован искусственным интеллектом, особенно если его можно принять за изображение реальных людей или событий.

Создатели должны указывать на использование генеративного искусственного интеллекта в видео, которые зрители могут принять за настоящие.

Даже без раскрытия информации YouTube может маркировать контент, содержащий синтетические элементы, особенно если он потенциально может ввести зрителей в заблуждение или запутать их, причем более заметные пометки будут наноситься на такие чувствительные темы, как выборы или здравоохранение.

Однако правила исключают контент, считающийся "явно нереалистичным", например анимацию или фантастические сценарии. Также не требует раскрытия информации использование ИИ в качестве помощи в производстве контента, например, "фильтров красоты".

YouTube также работает над улучшением процесса подачи пользователями запросов на удаление дипфейков, в соответствии с рекомендациями по музыкальному контенту, создаваемому ИИ, которые были представлены в августе прошлого года.

#YouTube #AI #Deepfakes #SyntheticMedia
США и Великобритания объединяют усилия в области тестирования безопасности ИИ

США и Великобритания подписали историческое соглашение о сотрудничестве в области тестирования передовых систем искусственного интеллекта. Это первое в своем роде двустороннее соглашение, направленное на разработку надежных методов оценки безопасности инструментов ИИ и систем, на которых они основаны.

«Это определяющий технологический вызов нашего поколения», - заявила министр цифровых технологий Великобритании Мишель Донелан, подчеркнув необходимость глобального сотрудничества. Она считает, что совместный подход имеет решающее значение для решения потенциальных рисков и раскрытия огромного потенциала ИИ для пользы общества.

Данное соглашение основано на обязательствах, взятых на себя на саммите по безопасности ИИ, состоявшемся в Блетчли-парке в ноябре 2023 года. Обе страны создали институты безопасности ИИ, которые должны оценивать системы ИИ с открытым исходным кодом и проприетарные системы.

#AISafety #LLM
Федеральные агентства США теперь обязали назначать специалистов по искусственному интеллекту

Чтобы обеспечить ответственное и безопасное внедрение ИИ в государственном секторе, каждое федеральное агентство США теперь обязано назначить старшего сотрудника, которому будет поручено контролировать все системы искусственного интеллекта, используемые в соответствующих сферах деятельности.

Вице-президент Камала Харрис представила новое руководство Офиса по управлению и бюджету, подчеркнув настоятельную необходимость наличия специальных руководителей, обладающих необходимыми знаниями и полномочиями, чтобы ориентироваться в сложностях внедрения ИИ в государственных учреждениях.

Наряду с назначением таких сотрудников, агентства должны создать советы по управлению ИИ для координации и разработки стратегий этичного и эффективного использования технологий ИИ.

В руководстве также подчеркивается важность прозрачности и подотчетности при внедрении ИИ: агентствам предписано ежегодно представлять перечни всех используемых систем ИИ, а также оценки рисков и стратегии их снижения.

Кроме того, руководство содержит принцип прозрачности, требуя, чтобы принадлежащие правительству модели ИИ, код и данные были доступны общественности, исключая любой риск для правительственных операций.

#AIRegulation #EthicalAI
Новые рекомендации по прозрачности дипфейков и чат-ботов

Исследователь Томас Гильс из Центра знаний о данных и обществе изучил требования к прозрачности дипфейков и чат-ботов в рамках Закона ЕС об ИИ. Закон признает важность прозрачности для построения доверия и подотчетности, устанавливая требования для высокорисковых систем ИИ, некоторых конкретных систем ИИ и универсальных моделей ИИ.

Исследователи проверили несколько заинтересованных участников на соответствие этим требованиям и собрали отзывы. В результате для чат-ботов и дипфейков определили три основных передовых метода:

1️⃣ Делать заявления о раскрытии информации (дисклеймеры) доступными для разных аудиторий, включая людей с ограниченными возможностями, используя различные способы коммуникации, такие как письменный, визуальный и устный.

2️⃣ Предоставлять необходимый объем информации, соблюдая пропорциональность и баланс, чтобы не перегружать пользователей.

3️⃣ Адаптировать дисклеймеры к целевой и потенциальной аудитории, чтобы эффективно решать вопросы информационных потребностей.

Это исследование поможет разработчикам чат-ботов и дипфейков соответствовать требованиям Закона ЕС об ИИ и повысит доверие пользователей к этим технологиям.

#AIAct #Chatbots #AITransparency
В США актеры анимационного озвучивания договорились о защите своих прав от злоупотреблений ИИ

Актеры озвучивания анимационных шоу договорились о справедливом вознаграждении, заключив соглашение о защите их прав в эпоху искусственного интеллекта.

Члены Гильдии актеров экрана и Американской федерации артистов телевидения и радио (the Screen Actors Guild-American Federation of Television and Radio Artists, SAG-AFTRA) проголосовали за заключение трехлетнего контракта с Альянсом продюсеров кино и телевидения (Alliance of Motion Picture and Television Producers, AMPTP).

Согласно условиям соглашения, актерам озвучивания гарантируется компенсация, если их выступления будут использованы для создания ИИ-клонов узнаваемых персонажей.

Соглашение также обязывает продюсеров проводить регулярные консультации с профсоюзом для изучения механизмов мониторинга и отслеживания использования цифровых копий актеров.

Соглашение вступает в силу задним числом с 1 июля 2023 года и действует по 30 июня 2026 года.

#AI
Артисты призывают технологические компании прекратить неэтичное использование искусственного интеллекта

Около 250 артистов подписали призыв к технологическим компаниям прекратить использование искусственного интеллекта, который снижает ценность музыки и посягает на права творцов.

По мнению музыкантов, искусственный интеллект при безответственном использовании представляет собой угрозу для художественной ценности искусства.

#AI #этическийAI
Судья из Вашингтона запретил использоватьв качестве доказательства улучшенное с помощью ИИ видео

Судья штата Вашингтон, рассматривающий дело об убийстве, запретил использовать в качестве доказательств видео, улучшенное искусственным интеллектом. Это постановление является потенциальным прецедентом в уголовных судах США.

Адвокаты подзащитного хотели представить в качестве доказательства видеозаписи с мобильных телефонов, улучшенные с помощью программ машинного обучения. Однако судья назвал такое видео новаторским и высказал опасения по поводу непрозрачности методов и возможности запутать показания очевидцев.

Прокуроры также выступили против допустимости такого видео в качестве доказательства, ссылаясь на отсутствие судебных прецедентов и неточности улучшенного видео.

Таким образом, технология, использованная для улучшения видеозаписи, была признана непригодной для использования в судебной или юридической практике.

#AIlaw #ML
Парламент Великобритании предупреждает о пробелах в регулировании ИИ в творческих отраслях

Межпартийная группа депутатов выразила обеспокоенность отсутствием правил, регулирующих взаимодействие между платформами искусственного интеллекта и творческими направлениями. Комитет Палаты общин по культуре, СМИ и спорту опубликовал доклад, в котором освещаются проблемы, связанные с оплатой и условиями труда профессиональных творческих работников.

Согласно отчету, многие артисты в Великобритании сталкиваются со снижением гонораров, отчасти из-за перехода индустрии на цифровые технологии. Председатель комитета подчеркнула, что правительству необходимо в срочном порядке рассмотреть устаревшие нормы авторского права и интеллектуальной собственности, чтобы обеспечить справедливую компенсацию творческим работникам.

Особые опасения вызывает влияние платформ искусственного интеллекта, которые могут воспроизводить защищенные авторским правом работы без согласия или компенсации.

Комитет выразил разочарование в связи с тем, что не удалось достичь соглашения о согласии авторов и компенсации за использование их произведений для обучения ИИ. Также отмечено, что существующие рамки непропорционально благоприятствуют разработчикам ИИ в ущерб правам интеллектуальной собственности создателей.

Для решения этих проблем в докладе предлагается создать механизмы, обеспечивающие соблюдение согласия авторов и справедливую компенсацию в случае использования их работ системами ИИ.

#AI #UK #creativeindustries #copyright
Дорогие коллеги, обратите внимание на интересный авторский канал All Things Legal, посвященный разнообразным вопросам Legal Innovation & Technology. Новости, аналитика, ссылки на полезные ресурсы, обсуждения и семинары - все самое новое в области права и технологий.
США: Новый законопроект предлагает раскрывать данные, которые использовались для обучения ИИ

В США представлен новый законопроект, который направлен на решение проблем, связанных с использованием материалов, защищенных авторским правом, при обучении моделей искусственного интеллекта.

Законопроект, получивший название Generative AI Copyright Disclosure, обязывает технологические компании раскрывать все материалы, защищенные авторским правом, используемые в их наборах данных для обучения ИИ. Законопроект требует предоставления в Реестр авторских прав подробных отчетов с указанием материалов, защищенных авторским правом, и соответствующих URL-адресов. Кроме того, необходимо сообщать о любых изменениях в наборе данных.

Компании должны представить эти отчеты не позднее чем за 30 дней до того, как выпустить в открытый доступ модели ИИ. Законопроект не имеет обратной силы, но распространяется на любые последующие изменения, внесенные в существующие наборы данных для обучения ИИ-платформ.

Хотя разработчики утверждают, что их модели обучаются на общедоступных данных, сохраняется обеспокоенность по поводу использования материалов, защищенных авторским правом, без прямого согласия авторов. Законопроект пользуется поддержкой различных отраслевых групп, включая Гильдию писателей Америки, Ассоциацию звукозаписывающей индустрии Америки и другие. Вместе с тем Ассоциация кинокомпаний не поддержала инициативу.

#AI #copyright
Litera представила Foundation Dragon: революционную базу данных условий сделок на основе ИИ

Компания Litera, поставщик технологических решений для юристов, представила Foundation Dragon - базу данных условий сделок, созданную на основе искусственного интеллекта. Эта новаторская технология позволяет юридическим командам получить мгновенный доступ к важнейшим данным о прошлых корпоративных сделках, и использовать для принятия новых решений.

Используя возможности ИИ, Foundation Dragon ускоряет анализ обширных данных о сделках для выявления релевантных рыночных условий, позволяя компаниям вести переговоры с позиции силы и добиваться более благоприятных результатов. Работая на базе архитектуры платформы Foundation, Dragon собирает обширную коллекцию соответствующих данных из документов компании, обеспечивая доступность и удобство использования.

Помимо обычных баз данных, заполняемых вручную, возможности искусственного интеллекта Dragon позволяют находить важные сведения в отдельных документах, преобразуя неструктурированные условия сделок в структурированные данные.

Foundation Dragon уже доступен, предлагая юридическим фирмам бесценный инструмент для использования возможностей ИИ и повышения операционной эффективности.

#Litera #FoundationDragon #GenAI #legaltech #AI
НПО оценили Закон ЕС об ИИ

Неправительственные организации, в том числе EDRi, AccessNow, ARTICLE19, Amnesty International и другие, опубликовали свой анализ Закона ЕС об ИИ.

Признавая успехи в обеспечении доступности и прозрачности, они, тем не менее, выражают обеспокоенность по поводу исключений для правоохранительных органов и национальной безопасности, а также частичных запретов на методы наблюдения.

Кроме того, Европейский союз гражданских свобод отметил недостатки закона, подчеркнув, что он не обеспечивает в достаточной степени верховенство закона и гражданское пространство.

#AI #AIAct
Федеральные агентства США выпустили совместное заявление по автоматизированным системам

3 апреля 2024 года несколько федеральных агентств США выпустили совместное заявление о соблюдении законов о гражданских правах, честной конкуренции, защите прав потребителей и равных возможностях в автоматизированных системах.

В заявлении подчеркивается стремление федеральных ведомств обеспечить правовую защиту автоматизированных систем, под которыми понимается программное обеспечение и алгоритмические процессы, включая искусственный интеллект, используемые для автоматизации рабочих процессов и принятия решений.

При этом ведомства подтверждают актуальность существующих законов для автоматизированных систем. Они подчеркивают свою роль в обеспечении соблюдения этих законов в процессе разработки и использования таких систем.

В заявлении указано, что ИИ и автоматизированные системы подпадают под действие существующих законов, и опровергается мнение о том, что их непрозрачность освобождает от соблюдения существующих требований. Также обращено внимание на потенциальные источники незаконной дискриминации или предвзятости, включая искаженные данные для обучения, отсутствие прозрачности и недостаточный учет социального контекста при разработке и использовании.

#AI #AIcompliance
Выпущено международное руководство по безопасному развертыванию ИИ

Центр безопасности искусственного интеллекта Агентства национальной безопасности США в сотрудничестве с Агентством кибербезопасности и безопасности инфраструктуры, Федеральным бюро расследований, Австралийским центром кибербезопасности, Канадским центром кибербезопасности, Национальным центром кибербезопасности Новой Зеландии и Национальным центром кибербезопасности Великобритании выпустили совместное руководство по безопасному развертыванию систем искусственного интеллекта.

В этом руководстве изложены лучшие практики развертывания и использования систем ИИ от внешних разработчиков. Целью руководства является:

повысить конфиденциальность, целостность и доступность систем искусственного интеллекта;

обеспечить надлежащее устранение известных уязвимостей в системах ИИ;

обеспечить методологии и средства контроля для защиты, обнаружения и реагирования на злонамеренные действия в отношении систем ИИ и связанных с ними данных и сервисов.

Документ охватывает широкий спектр тем: от защиты среды развертывания до защиты операционной системы ИИ и обеспечения безопасности операций и обслуживания ИИ.

В руководстве изложены три основных метода обеспечения безопасности:

защита среды развертывания,

защита системы ИИ, и

обеспечение безопасности эксплуатации и обслуживания ИИ.

Понимание и выполнение рекомендаций, изложенных в руководстве, поможет организациям снизить риски ИИ и укрепить доверие к этой быстроразвивающейся технологии.

#AI #Безопасность #Кибербезопасность #CISA #NSA
Выборы в Европейский парламент 2024 года: Обеспечение этичного использования технологий

Вице-президент Европейской комиссии недавно провела церемонию подписания Кодекса поведения на выборах в Европейский парламент 2024 года. Кодекс подчеркивает необходимость этичного и прозрачного использования технологий, включая искусственный интеллект, для поддержания честности выборов.

Стороны, подписавшие кодекс, обязуются защищаться от киберугроз, обеспечивать прозрачность политической рекламы в Интернете и соблюдать правила защиты данных. Основное внимание уделяется борьбе с вводящим в заблуждение контентом и содействию честным и инклюзивным избирательным процессам, что соответствует руководящим принципам Комиссии по устранению цифровых рисков для выборов, опубликованным ранее.

#EU #AI #DigitalRisks
Профсоюзы Великобритании призывают к регулированию ИИ на рабочих местах

Конгресс профсоюзов (The Trades Union Congress, TUC), крупнейшая федерация профсоюзов Великобритании, призывает к ужесточению правил использования искусственного интеллекта на рабочем месте.

TUC утверждает, что действующее трудовое законодательство устарело и не способно адаптироваться к стремительному развитию технологий. Отсутствие регулирования делает работников уязвимыми перед эксплуатацией и дискриминацией.

Профсоюз предложил проект правового регулирования ИИ на рабочем месте. В этом документе изложены новые права и меры защиты для работников. К ним относятся:

Обязательные консультации работодателя с профсоюзами по вопросам использования высокорискованного и интрузивного ИИ на рабочем месте.

Гарантии против несправедливого увольнения на основании решений ИИ.

TUC подчеркивает, что ИИ играет все большую роль в принятии важнейших решений, влияющих на жизнь работников. От найма и увольнения до управления эффективностью работы - ИИ влияет на судьбоносные результаты. Профсоюз также предупреждает, что Великобритания рискует отстать от других стран, таких как США, Китай, Канада и ЕС, которые уже внедряют соответствующее законодательство.

#AI #AIRegulation
Уважаемые подписчики, с удовольствием представляем коллег из RPPA.pro , которые запустили линейку интересных образовательных продуктов. Программы строятся на опыте 1300 экспертов, собственных баз знаний и исследованиях. Обратите внимание на:

Privacy Engineering поможет разобраться в технологиях обработки данных и рисках приватности.

AI Governance сориентирует в области регулирования искусственного интеллекта, а также даст понимание ИИ-технологий.

Другие образовательные продукты и бесплатные материалы также доступны в этом канале.
Компания Lawhive привлекла $12 млн для демократизации юридических технологий с помощью ИИ

Lawhive, британский стартап в области LegalTech, привлек почти 12 миллионов долларов для расширения своей платформы для небольших юридических фирм, работающей на основе ИИ.

В отличие от большинства юридических компаний, ориентированных на крупные фирмы ("Big Law"), Lawhive ориентируется на потребности небольших независимых практик. Этим фирмам часто не хватает ресурсов для инвестиций в передовые технологии, что ставит их в невыгодное положение в конкурентной борьбе.

Lawhive предоставляет "внутреннего юриста", работающего на основе искусственного интеллекта, через платформу SaaS. Эта платформа предлагает несколько преимуществ для небольших фирм:

Клиентский сервис: упорядочивание работы с клиентами, ведение дел и организация документооборота.

Работа с помощью ИИ: использование искусственного интеллекта для решения повторяющихся задач, таких как KYC/AML, прием клиентов и сбор документов.

ИИ-юрист "Лоуренс": запатентованный ИИ-юрист, построенный на основе большой языковой модели (LLM). Lawhive утверждает, что "Лоуренс" даже сдал квалификационный экзамен для солиситоров (SQE) с результатом, превышающим требуемый стандарт.

Генеральный директор Lawhive Пьер Пронер подчеркивает, что юридический рынок небольших практик недостаточно обслуживается:

"Практически все существующие юридические технологии... ориентированы на корпоративный рынок... Мы же пытаемся решить проблему в потребительском юридическом пространстве, которое является совершенно другим рынком".

Миллионы людей сталкиваются с юридическими проблемами, но не имеют доступа к недорогому юридическому представительству. Одновременно многие малые предприятия с трудом справляются с юридическими вопросами самостоятельно. Платформа Lawhive на базе ИИ призвана устранить этот разрыв, повысив эффективность и доступность как для юристов, так и для клиентов.

#AI #LegalTech
Великобритания планирует пресекать деятельность создателей секс-дипфейков

Правительство Великобритании планирует принять жесткие меры против создания секс-дипфейков и представило соответствующее предложение по проекту нового закона. Проект направлен на криминализацию создания таких изображений без согласия, даже если они не распространяются широко.

Технология дипфейков позволяет создавать реалистичную порнографию путем наложения лица человека на другое тело. Эта практика становится все более доступной благодаря развитию ИИ. Правительство Великобритании считает такую практику формой домогательства и нарушением неприкосновенности частной жизни.

Согласно предлагаемому законодательству, создание секс-дипфейков без согласия будет считаться уголовным преступлением.

Правонарушителям грозят:

Неограниченные штрафы.

Уголовное преследование.

Кроме того, распространение созданного дипфейка может привести к тюремному заключению.

Этот закон основывается на принятом в прошлом году Законе об онлайн-безопасности, который ввел уголовную ответственность за распространение дипфейков без согласия. Новое предложение касается непосредственно создания такого контента.

Великобритания не единственная страна, столкнувшаяся с такой проблемой. Например, мы уже писали о проблемах дипфейков в школах во Флориде.

#AI #Deepfakes #Cybersecurity