ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
Канадские суды идут по пути прозрачности: использование искусственного интеллекта в судебных документах должно быть раскрыто

Привет всем! Интересные новости с юридической сцены Манитобы, Канада. Судья Гленн Джоял ввел в действие практическое руководство, обязывающее адвокатов раскрывать информацию об использовании ИИ при подготовке судебных документов. Это решение было принято в связи с недавним инцидентом в США, когда искусственный интеллект сгенерировал фальшивое прецедентное право, что вызвало необходимость обеспечения прозрачности роли ИИ в судопроизводстве.

Хотя в практическом руководстве признается возможность использования искусственного интеллекта в будущем при подаче документов в суд, оно также подчеркивает опасения по поводу надежности и точности информации, генерируемой системами ИИ. Этот шаг рассматривается как упреждающая мера, направленная на то, чтобы юридическое сообщество оставалось информированным о развивающейся роли ИИ в судебном процессе.

Эксперты отмечают, что все более широкое использование ИИ в юридической профессии может привести к возникновению этических дилемм и проблем, связанных с достоверностью генерируемых ИИ судебных документов. Однако многие также рассматривают ИИ как ценный инструмент, помогающий юристам справляться с рабочей нагрузкой и расширяющий доступ к правосудию.

#AIinLaw #LegalTech #TransparencyInJustice #FutureOfLaw
Искусственный Интеллект в Великобритании: Баланс между Инновациями и Ответственностью

Приветствуем, коллеги! Институт Ады Лавлейс, ведущий специалист по этике ИИ, опубликовал отчет, в котором анализируется подход Великобритании к регулированию ИИ .

В докладе выделены три важнейших "теста" для стратегии регулирования ИИ в Великобритании.

В нем также содержится призыв к тому, чтобы регулирующие органы были обеспечены достаточными ресурсами, полномочиями и средствами для эффективного контроля и надзора за быстро развивающимся ландшафтом ИИ. Учитывая, что ИИ способен изменить жизнь общества, надежное регулирование является крайне важным.

Институт подчеркивает необходимость устранения рисков, связанных с ИИ, как можно быстрее. Потенциальный вред, наносимый ИИ, требует немедленного внимания и проактивного подхода для защиты людей и сообществ.

Итак, какие же ключевые моменты содержатся в предложениях Великобритании по регулированию ИИ? В документе изложены меры по регулированию систем ИИ, используемых в приложениях с высоким уровнем риска, таких как здравоохранение и финансы, с целью обеспечения безопасности, справедливости и подотчетности.

Чтобы найти правильный баланс между инновациями и ответственностью, авторы доклада призывают политиков создавать прозрачные и надежные системы ИИ, на которые люди смогут с уверенностью положиться.

#AIinLaw #LegalTech #AIRegulation #EthicsInAI #AdaLovelaceInstitute
Авторское право в эпоху ИИ: протест художников

Привет, сообщество AI & Law! Задумывались ли вы когда-нибудь о сложном взаимодействии искусства и искусственного интеллекта? Новое судебное разбирательство поднимет вопрос о том, как контент, созданный ИИ, пересекается с законом об авторском праве.

Представьте себе, что ваше произведение искусства было использовано для обучения системы ИИ без вашего согласия. Именно это и произошло с Келли МакКернан, талантливым иллюстратором, работающим акварелью и акрилом. Она обнаружила, что ее работы загружены в набор данных LAION и используются в качестве материала для генераторов изображений ИИ. Это открытие заставило ее задуматься о правах авторов.

Келли МакКернан не одинока в своей борьбе. Вместе с карикатуристкой Сарой Андерсон и иллюстратором Карлой Ортис она выступила против компании Stability AI, создавшей Stable Diffusion, Midjourney и DeviantArt. Эти художники подали судебный иск, оспаривая использование их работ для обучения систем искусственного интеллекта.

Это дело подчеркивает необходимость обновления законодательства об авторском праве в условиях развития ИИ.

#AIandArt #CopyrightProtection #ArtificialIntelligence #AIinLaw
Сгенерированная ИИ защита потерпела неудачу в федеральном судебном процессе над рэпером

Привет, сообщество AI & Law! Рэппер Праказрел "Прас" Мишель, осужденный за федеральные преступления, утверждает, что он заслуживает нового судебного разбирательства, поскольку его адвокат использовал экспериментальную программу ИИ для построения заключительного аргумента. Новая команда адвокатов Мишеля утверждает, что сгенерированная искусственным интеллектом защита была неэффективной и привела к несерьезным аргументам.

Адвокат Мишеля, Дэвид Кеннер, обвиняется в том, что он не обеспечил надежной защиты. Помимо использования ИИ, его критикуют за неспособность разобраться в фактах и обвинениях, связанных с делом. Для создания заключительного аргумента Кеннер использовал экспериментальную программу искусственного интеллекта. Использование такой технологии ИИ в федеральном судебном процессе является первым случаем, но в результате в заключительной речи были приведены необоснованные утверждения и упущены важнейшие аспекты, что нанесло серьезный ущерб защите.

Этот инцидент, связанный с ИИ, перекликается с предыдущим случаем, когда адвокат признался, что использовал ИИ для составления судебных документов, в которых приводились ссылки на шесть несуществующих дел, что вызвало обеспокоенность по поводу роли ИИ в судопроизводстве. Программа искусственного интеллекта, о которой идет речь, была разработана компанией EyeLevel.AI и получила высокую оценку за то, что она способна предложить более быстрые выводы, чем традиционные средства. Однако, судя по всему, ее использование привело к непредвиденным последствиям в деле Мишеля.

#AI #AIinLaw #LegalAI #PrasMichel
Апелляционный суд США предлагает сертифицировать использование ИИ при подаче документов

5-й окружной апелляционный суд США, расположенный в Новом Орлеане, в своем недавнем уведомлении предложил ввести правило, обязывающее юристов подтверждать отсутствие использования ИИ или обеспечивать проверку человеком генерируемого им контента в судебных документах.

Предлагаемое правило распространяется на адвокатов и сторон спора, обязывая их под страхом санкций подтверждать точность цитат и правового анализа в документах, подготовленных с помощью инструментов ИИ, таких как ChatGPT от OpenAI.

Признавая растущее использование ИИ в юридической деятельности, суд приглашает общественность высказать свои замечания по этому правилу до 4 января 2024 года. Этот шаг согласуется с более широкой национальной дискуссией о регулировании роли ИИ в судебных процессах.

Это событие произошло после того, как некоторые суды, входящие в юрисдикцию 5-го округа, приняли местные правила и политики, касающиеся использования ИИ. В июне окружной судья Брэнтли Старр в Техасе стал одним из первых, кто обязал юристов уведомлять об использовании ИИ без проверки человеком.

#LegalTech #AIinLaw #USCourts #LegalInnovation
В Великобритании суд отклонил апелляцию, основанную на сфабрикованных ИИ прецедентах

Приветствую всех! В одном из последних судебных процессов суд отклонил попытку женщины обжаловать налоговый штраф, используя девять "сфабрикованных" дел, сгенерированных ChatGPT. Фелисити Харбер оспаривала штраф в размере 3 265 фунтов стерлингов за неуплату налога с продажи недвижимости. Однако суд установил, что представленные ею прецеденты были сфабрикованы искусственным интеллектом.

Во время рассмотрения апелляции, отвечая на вопрос об использовании ИИ, миссис Харбер признала возможность его использования, поскольку сфабрикованные дела она получила от своего друга из адвокатской компании.

Несмотря на заявление миссис Харбер о том, что она не знала о достоверности дел, ее апелляция была отклонена. Судья Энн Редстон подчеркнула серьезность представления выдуманных судебных решений, заявив, что, хотя исход дела мог бы быть таким же, ссылка на поддельные документы является серьезной проблемой. Суд признал, что миссис Харбер не обладала достаточными знаниями для проверки достоверности дел с помощью инструментов юридического поиска.

Этот инцидент отражает более широкую проблему, создаваемую инструментами ИИ, такими как ChatGPT, известными своей "проблемой галлюцинаций", когда генерируется ложная информация. Предыдущие случаи, включая признание судьи из Великобритании в использовании ChatGPT при вынесении решений и наказание американских юристов за сгенерированные ИИ фальшивые прецеденты, подчеркивают необходимость осторожности при использовании генерируемого ИИ контента в юридических контекстах.

#AIinLaw #LegalTech #ChatGPT #AIGovernance #AIAuthenticity #LegalAI
Германия: Региональный суд подозревает юрфирмы в использовании ИИ для массовой подачи исков

Привет всем! Региональный суд Франкфурта подозревает, что юридические фирмы используют искусственный интеллект для организации массовых судебных процессов. Председатель окружного суда Вильгельм Вольф выявил растущую тенденцию "массовых разбирательств", наводнивших правовую систему.

Юридические фирмы подозреваются в использовании ИИ для привлечения больших групп истцов по незначительным искам, таким как задержка рейса, выигрыш в азартных играх или банковские комиссии.

Суды борются с наплывом поразительно похожих дел, предполагающих получение юрфирмами значительного дохода при минимальных затратах.

Председатель окружного суда считает, что это потенциальная бизнес-модель, когда технические процедуры выявляют похожие дела, а юридические фирмы массово предлагают представительство.

#AILaw #LegalTech #AIinLaw #MassLawsuits #LegalProceedings #ИИ #право #этика
Два апелляционных суда США исследуют применение ИИ

Приветствую всех! Два федеральных апелляционных суда США создают комитеты по изучению влияния ИИ на правовую систему.

Окружной судья США Эрик Миллер возглавит комитет по изучению ИИ в 9-м окружном апелляционном суде США. Будучи крупнейшим в стране федеральным апелляционным судом, 9-й округ еще не сформулировал правила, регулирующие использование ИИ юристами-практиками.

Аналогичным образом комитет по ИИ учредил главный судья Майкл Шагарес из 3-го окружного апелляционного суда США.

Главный окружной судья США Мэри Мургуйя возглавляет комитет 9-го округа, цель которого - помочь суду в оценке соответствующих правил и применения технологий искусственного интеллекта.

Решения о создании комитетов по ИИ принимаются на фоне общенациональных исследований судей о том, как справиться с быстрым появлением генеративных программ ИИ, таких как ChatGPT от OpenAI, и как регулировать их использование в судебных процессах.

#AIinLaw #LegalTechnology #USCourts #ArtificialIntelligence
Суд отклонил аргументы ChatGPT, поданные юридической фирмой для обоснования судебных издержек

Привет всем! В недавнем судебном решении судья Пол Энгельмайер упрекнул нью-йоркскую компанию Cuddy Law в том, что она использовала ChatGPT от OpenAI для обоснования шестизначных гонораров за судебное разбирательство. Несмотря на ограничения, юридическая фирма ссылалась на аргументы ChatGPT для обоснования почасовой оплаты за выигранный судебный процесс.

Однако судья Энгельмайер отверг мнение фирмы, подготовленное с помощью ChatGPT как "совершенно и необычайно неубедительное", подчеркнув, что использование выводов, сделанных искусственным интеллектом, для определения разумных тарифов на юридическую работу является ошибочным. В итоге суд присудил менее половины запрошенного гонорара, сославшись на сомнительные ресурсы и неуместное использование ИИ.

#LegalTech #ChatGPT #AIinLaw
Исследование Стэнфорда выявило риски использования ИИ в юридических инструментах

Исследование Стэнфордского университета показывает, что специализированные генеративные ИИ-инструменты для юристов дают ложные результаты в 17% случаев, требуя внимательной проверки со стороны юристов. Эти инструменты, хотя и более точны, чем общие модели, такие как ChatGPT, все же представляют значительные риски для юридической точности и эффективности.

Исследование подчеркивает, что несмотря на улучшения, такие как процесс генерации с дополнительным извлечением (retrieval-augmentation generation, RAG), юридические ИИ-инструменты могут по-прежнему неправильно интерпретировать законы и судебные прецеденты. Такие ошибки могут привести к ошибочным юридическим выводам и подрывают доверие к таким технологиям технологиям.

#LegalTech #AI #StanfordStudy #GenerativeAI #LegalResearch #RGA #AIInLaw
Мельбурнский юрист попал под профессиональное расследование в связи с использованием ИИ

В Австралии действия юриста из Мельбурна стали предметом проверки со стороны уполномоченного органа по жалобам на юристов после использования ИИ для создания списка судебных прецедентов, что привело к представлению неточной информации в семейном суде.

Во время судебного заседания 19 июля юрист предоставил список прецедентов в ответ на запрос судьи Аманды Хамфрис. Однако, когда судья и ее помощники не смогли подтвердить существование упомянутых дел, юрист признал, что список был подготовлен с помощью юридического программного обеспечения Leap с использованием элементов ИИ, и при этом не были проверены с его стороны.

Несмотря на то, что юрист принес «безоговорочные извинения» и возместил судебные издержки другой стороне, судья Хамфрис направила его дело на расследование. Она подчеркнула важность этой проверки в свете растущего использования инструментов ИИ в юридической практике и отсутствия в Австралии действующих рекомендаций по использованию ИИ в семейном суде.

#AIGovernance #LegalEthics #AIinLaw