ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
В Великобритании одобрен Закон о безопасности в Интернете - в него включены положения о чат-ботах с ИИ

Здравствуйте, уважаемые подписчики! Законопроект Великобритании о безопасности в Интернете, призванный регулировать работу онлайн-платформ и защищать пользователей, получил одобрение Палаты лордов, что еще на один шаг приближает его к вступлению в силу.

Этот комплексный 300-страничный законопроект затрагивает различные аспекты - от борьбы с распространением противоправного контента в Интернете до защиты пользователей социальных сетей от преследований в сети. Примечательно, что теперь в него включены положения, касающиеся чат-ботов с искусственным интеллектом, таких как ChatGPT, и направленные на защиту пользователей от вредоносного контента.

#OnlineSafetyBill #AIChatbots #Deepfake #UKRegulation #OnlineSafety
Великобритания: Управление по конкуренции и рынкам озвучило принципы ответственного развития ИИ

Привет всем! Управление по конкуренции и рынкам Великобритании (Competition and Markets Authority, CMA) представило набор принципов для обеспечения ответственного подхода к разработке и использованию базисных моделей в искусственном интеллекте.

Базисные модели, такие как ChatGPT и Office 365 Copilot, представляют собой универсальные системы ИИ, способные произвести революцию в различных отраслях. В отчете CMA изложены руководящие принципы, направленные на защиту прав потребителей и развитие здоровой конкуренции в индустрии ИИ.

По мере того как ИИ стремительно внедряется в нашу повседневную жизнь, CMA признает необходимость проактивного вмешательства. Эти принципы направлены на достижение баланса между развитием инновационного потенциала ИИ и обеспечением безопасности потребителей.

Предлагаемые CMA руководящие принципы сосредоточены на таких важнейших областях, как подотчетность, доступ, разнообразие, выбор, гибкость, справедливость и прозрачность. Эти принципы призваны направить разработчиков и лиц, внедряющих базисные модели, на путь ответственной разработки и использования ИИ.

CMA планирует активно взаимодействовать с заинтересованными сторонами для дальнейшего уточнения этих принципов.

#ResponsibleAI #AIRegulation #ConsumerProtection #Competition #FoundationModels #CMAAIprinciples
Прозрачность ИИ в фокусе: Решение iBorderCtrl

Всем привет! 7 сентября 2023 года Суд Европейского союза принял важное решение по проекту iBorderCtrl. Эта инициатива, финансируемая Европейской комиссией с 2016 года, направлена на использование "детекторов лжи" на базе искусственного интеллекта для автоматизации процессов обеспечения безопасности на внешних границах ЕС. Задавая путешественникам ряд вопросов и анализируя их мимику, система определяет потенциальные угрозы.

Депутат Европарламента Патрик Брейер запросил доступ к документам, связанным с проектом iBorderCtrl, выразив обеспокоенность по поводу его этичности и законности. Однако в полном доступе было отказано со ссылкой на потенциальный ущерб коммерческим интересам консорциума, включая права на интеллектуальную собственность.

Суд оставил в силе решение, ограничивающее доступ общественности к документам проекта. Он признал наличие общественного интереса, но посчитал, что распространение результатов является достаточным.

Это дело поднимает вопросы о прозрачности разработки систем ИИ, особенно на этапе исследований. Предлагаемый ЕС закон об ИИ признает необходимость прозрачности, но исключает из этого обязательства системы ИИ, используемые для биометрической категоризации, связанной с уголовными преступлениями.

Вердикт подчеркивает сохраняющееся противоречие между прозрачностью, общественными и коммерческими интересами в проектах ИИ.

#AILaw #Transparency #EUAIAct
Представляем вашему вниманию новый доклад Clifford Chance: "Ответственный ИИ на практике".

Здравствуйте, подписчики AI&Law! Компания "Клиффорд Чанс" опубликовала новый отчет "Ответственный ИИ на практике". Он проливает свет на растущие проблемы, связанные с использованием и влиянием искусственного интеллекта.

В документе, подготовленном в партнерстве с Milltown Partners, представлены результаты фокус-групп, проведенных в США, Великобритании и Германии. В ходе этих дискуссий рассматривались такие важнейшие вопросы ИИ, как предвзятость, согласие, прозрачность и управление.

Несмотря на оптимизм в отношении потенциала ИИ, очевидно, что еще предстоит работа по обеспечению его ответственного и безопасного применения.

#AI #CliffordChance #ResponsibleAI #AIandLaw #EthicalAI
ISO и IEC сделали общедоступным стандарт по искусственному интеллекту

Привет всем! Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC) выложили в открытый доступ важнейший стандарт по искусственному интеллекту ISO/IEC 22989.

Этот основополагающий документ определяет более 110 важнейших понятий ИИ, включая "наборы данных", "агенты ИИ", "прозрачность" и "объяснимость".

Стандарт ISO/IEC 22989 содержит концептуальные рекомендации для моделей обработки естественного языка (NLP) и компьютерного зрения (CV). Его цель - создать общий словарь, терминологию и рамки для концепций ИИ, способствующие плодотворным дискуссиям между заинтересованными сторонами.

Например, там даны следующие ключевые определения:
- Система ИИ
- Искусственный интеллект общего назначения
- Аудитор ИИ
- Надежность
- Объяснимость
- Предсказуемость
- Прозрачность
- Достоверность

По мере роста числа нормативных актов в области ИИ в мире стандартизация становится жизненно необходимой, особенно в условиях отсутствия глобального согласования нормативных формулировок.

#AIStandards #AI #ISO #IEC #AICcommunity
Канада: Срочный призыв к внесению изменений в о конфиденциальности и искусственном интеллекте

Привет всем! В Канаде в преддверии слушаний в комитете по законопроектам 45 групп, экспертов и ученых опубликовали открытое письмо. Письмо адресовано министру инноваций Франсуа-Филиппу Шампаню и содержит призыв к внесению существенных изменений в законодательство.

Высказывается обеспокоенность по поводу защиты фундаментальных прав на неприкосновенность частной жизни.

Среди основных рекомендаций письма - признание неприкосновенности частной жизни одним из основных прав человека в Канаде, устранение противоречий в регулировании ИИ, уточнение формулировок в законодательстве и проведение более широких консультаций с заинтересованными сторонами.

#PrivacyLegislation #AIRegulation #CanadaAIlaws
Google предоставляет владельцам веб-сайтов возможность контролировать данные, используемые ИИ

Привет всем! Компания Google представила новый инструмент под названием Google-Extended, позволяющий владельцам сайтов отказаться от использования своих данных для обучения моделей искусственного интеллекта Google, сохранив при этом доступ к ним через Google Search.

Этот инструмент предлагает решение для авторов, которые хотят, чтобы их сайты были видны в поиске Google, но предпочитают не предоставлять свои данные для разработки моделей искусственного интеллекта, таких как Bard и Vertex AI generative API.

Bard, ИИ-чатбот Google, проходил обучение на общедоступных веб-данных. С помощью Google-Extended владельцы сайтов теперь могут управлять участием своего сайта в этом процессе.

#AIandLaw #GoogleAI #WebPublishers #AIModels
Официальный представитель ЕС предостерегает от чрезмерного регулирования генеративного ИИ

Всем привет! Вице-президент Европейской комиссии Вера Йоурова предостерегла от чрезмерного регулирования генеративного ИИ, подчеркнув, что законодательство, основанное на страхе, может помешать инновациям. Йоурова подчеркнула, что риски ИИ должны оцениваться на основе тщательного анализа, а не беспочвенных страхов.

Она признала, что чрезмерное регулирование действительно может затормозить технологические и деловые инновации. ЕС находится в авангарде регулирования ИИ, однако такие страны, как США и Китай, также рассматривают возможность введения собственных мер контроля. В Великобритании в следующем месяце пройдет глобальный саммит по регулированию ИИ.

Высказывания Йоуровой совпали с текущими переговорами по доработке закона об ИИ в ЕС. Возникла обеспокоенность в связи с тем, что генеративный ИИ может создавать дипфейки и нарушать авторские права.

В то время как ЕС первоначально сосредоточился на регулировании рисков ИИ, Европейский парламент ввел юридические обязательства для создателей генеративных моделей, таких как ChatGPT. Теперь они должны раскрывать информацию о контенте, генерируемом ИИ, и предоставлять информацию о данных, защищенных авторским правом, которые использовались при обучении, а также бороться с дезинформацией и нелегальным контентом.

Йоурова стремится позиционировать модель ЕС как ведущий пример регулирования ИИ во всем мире.

#AIandLaw #AIRegulation #GenerativeAI #Innovation
FTC высказали опасения связанные с ИИ

Здравствуйте, дорогие подписчики! Управление по технологиям Федеральной торговой комиссии США в своем недавнем посте обратилось к растущим опасениям потребителей по поводу искусственного интеллекта. Эти опасения охватывают весь жизненный цикл ИИ - от его создания до использования в реальной жизни третьими лицами.

Среди ключевых вопросов - обширный сбор данных, необходимый для обучения моделей ИИ, и различные аспекты взаимодействия пользователей с системами ИИ.

#AIandLaw #AIConcerns #FTC #ArtificialIntelligence
🌟Воскресные чудеса ИИ: расшифровка эмоций цыпленка 🐓

Всем привет! Вы когда-нибудь задумывались, о чем кудахчет ваша болтливая курица? Японские ученые, возможно, знают ответ. Они разработали модель ИИ, которая может интерпретировать эмоции курицы по ее вокализации с точностью до 80%.

Для обучения этого ИИ ученые записали 80 кур в различных ситуациях и привлекли группу специалистов по поведению животных и ветеринаров, чтобы получить представление об эмоциональном состоянии птиц. Затем они скормили искусственному интеллекту 100 часов аудиозаписей, соответствующих шести различным эмоциям. Когда ИИ было предоставлено еще 100 часов записей, он правильно определил эмоцию в 80% случаев.

Это новаторское исследование не только проливает свет на чувства птиц, но и открывает путь к улучшению коммуникации между человеком и животными. Ученые планируют создать бесплатное приложение, которое поможет птицеводам лучше понимать своих пернатых друзей, и надеются расширить свое исследование, чтобы декодировать эмоции других животных.

#AIScience #AnimalEmotions #ChickenTalk #AIInnovation
Sony AI призывает к многомерной оценке предвзятости ИИ, включая оттенки кожи

Компания Sony AI предлагает более инклюзивный подход к оценке предвзятости ИИ, призывая учитывать различные оттенки кожи. Этот шаг призван стимулировать этические дискуссии при разработке ИИ.

В то время как инициативы по обеспечению справедливости ИИ были направлены в основном на снижение предвзятости, связанной со светлым или темным цветом кожи, последние исследования Sony AI выступают за более широкую перспективу. Для создания более этичных и разнообразных систем ИИ предлагается наряду с традиционными оттенками кожи оценивать красные и желтые оттенки.

Это этическое исследование направлено на решение проблемы предвзятости ИИ и продвижение систем ИИ, которые дают точные результаты независимо от цвета кожи пользователей. Google и Amazon проявили интерес к результатам исследований Sony, что свидетельствует о коллективном стремлении к созданию более этичного и инклюзивного ИИ.

#AIEthics #InclusiveAI #EthicalAI #AIandEthics
Европейская комиссия поддержала голландскую систему надзора за искусственным интеллектом

Всем привет! Европейская комиссия оказывает помощь Нидерландам в создании национальной системы надзора за искусственным интеллектом. Стремительный рост технологий ИИ опережает развитие нормативно-правовой базы, что создает проблемы с обеспечением безопасности и соблюдением этических норм. Для решения этой проблемы Комиссия в сотрудничестве с ЮНЕСКО запустила проект по оказанию технической поддержки Голландскому управлению по цифровой инфраструктуре.

В рамках этой инициативы будет проведена оценка существующих систем надзора за ИИ, предложены лучшие практики, созданы сценарии надзора и даны практические рекомендации для голландского ведомства. К участию в проекте будут привлечены и другие компетентные органы ЕС для совместного решения сложных задач по надзору за технологиями ИИ.

Этот проект согласуется с готовящимся к принятию Законом об искусственном интеллекте - первым в ЕС нормативным актом в области ИИ, призванным расширить исследовательский и промышленный потенциал, обеспечив при этом защиту основных прав и безопасность. После его принятия будут установлены первые в мире правила в области ИИ.

#AIRegulation #EuropeanAI #AIInnovation
Знаменитые писатели подали в суд на OpenAI за несанкционированное копирование книг

Привет всем! Известные авторы, в том числе Джордж Р.Р. Мартин и Джон Гришэм, подали коллективный иск против компании OpenAI, утверждая, что их произведения были использованы без разрешения для обучения моделей ИИ типа GPT 3.5 и GPT 4. В иске утверждается, что использование OpenAI набора данных Books3 представляет собой "систематическое воровство в массовом масштабе".

Гильдия авторов, представляющая интересы писателей, утверждает, что такое несанкционированное копирование влияет на их способность зарабатывать на жизнь, поскольку созданный искусственным интеллектом контент имитирует их стиль написания. Они требуют возмещения ущерба за упущенные возможности лицензирования, судебного запрета для предотвращения дальнейших нарушений, а также компенсации за упущенные продажи книг.

OpenAI ведет переговоры с Гильдией авторов и надеется на выработку взаимовыгодных решений. Иск является частью более широкой деятельности Гильдии авторов, в которую входят аналогичные иски против Meta и Google, направленные на выявление потенциального пиратства, используемого для обучения больших языковых моделей.

#Copyright #AI #AuthorsGuild #OpenAI
В Великобритании возбудили дело против компании Snap из-за чатбота с ИИ

Привет всем! Управление уполномоченного по информации Великобритании (ICO) направило предписание в адрес Snap, материнской компании Snapchat. Это требование может заставить компанию Snap прекратить обработку данных, связанных с ее чат-ботом с искусственным интеллектом My AI, для пользователей из Великобритании, если не будет проведена адекватная оценка рисков.

Предварительное расследование ICO показало, что первоначальная оценка рисков, проведенная перед запуском My AI, не дала достаточной оценки рискам защиты данных, особенно в отношении детей. В результате от компании Snap может потребоваться приостановить выпуск продукта My AI в Великобритании до устранения этих проблем.

#Snap #AI #DataProtection #ICO #UKRegulation
ENNHRI предлагает рекомендации по Закону ЕС об искусственном интеллекте

Всем привет! Европейская сеть национальных правозащитных институтов (ENNHRI) выпустила основные рекомендации по усилению защиты фундаментальных прав в эпоху искусственного интеллекта, уделив особое внимание Закону ЕС об искусственном интеллекте. Их предложения включают четкую классификацию систем ИИ, представляющих повышенный риск, и минимальные исключения для запретов.

ENNHRI подчеркивает необходимость обязательств, выходящих за рамки поставщиков ИИ, и поощряет международное сотрудничество за пределами ЕС. Они призывают к созданию всеобъемлющей системы, охватывающей базовые модели, ИИ общего и двойного назначения, с особыми правилами для исследовательской деятельности.

Организация также сообщает о важности эффективного надзора путем сотрудничества с национальными правозащитными институтами, повышения прозрачности, подотчетности и создания механизмов возмещения ущерба для систем ИИ. Они препятствуют вредному и дискриминационному наблюдению со стороны органов национальной безопасности, правоохранительных органов и миграционных служб.

#AIRegulation #HumanRights #AIEthics
Французская CNIL опубликовала предварительные заключения по соответствию ИИ GDPR

Привет всем! Национальная комиссия Франции по информатике и свободам (CNIL), занимающаяся вопросами защиты данных, представила свою позицию о том, как обеспечить соответствие развертываемых систем искусственного интеллекта Общему регламенту Европейского союза по защите данных (GDPR).

В своей оценке CNIL признает роль GDPR в обеспечении "инновационных и защитных рамок" для ИИ. Кроме того, CNIL подчеркивает, что конкретные принципы GDPR могут быть применены к целому ряду технологий искусственного интеллекта.

#AI #GDPR #CNIL #DataProtection #Compliance
Эксперты рассматривают ключевую роль европейского AI Office в регулировании ИИ

Здравствуйте, дорогие подписчики! Адриан Пуже (Hadrien Pouget), ассоциированный научный сотрудник Фонда Карнеги за международный мир, и Йоханн Лаукс (Johann Laux), научный сотрудник Британской академии в Оксфордском университете, написали статью, в которой подчеркивается ключевая роль Управления по ИИ (AI Office) в нормативно-правовой базе ЕС, особенно в контексте реализации Закона об ИИ.

Авторы предлагают трехступенчатую стратегию для AI Office:

1️⃣ Разработка гармонизированных стандартов: рекомендуется, чтобы AI Office активно способствовал повышению специфики нормативных актов в области ИИ с течением времени. Это предполагает помощь в определении нормативных решений, подлежащих рассмотрению, и предложение идей в случае необходимости принятия нормативных решений.

2️⃣ Внесение изменений в Закон об ИИ: AI Office должен следить за сложным взаимодействием между Законом об ИИ и другими законами и ориентироваться в нем. Кроме того, он должен сохранять независимость при подготовке рекомендаций по делегированным актам и поправкам.

3️⃣ Работа с юридическими вопросами: В ходе судебных разбирательств AI Office играет важную роль в выявлении пробелов в защите основных прав. Он позволяет отличить предсказуемый вред от непредсказуемого путем тщательного изучения технологических доказательств.

AI Office рассматривается как центральный орган, способный обеспечить этичное и эффективное применение нормативных актов в области искусственного интеллекта.

#AIRegulation #AIStandards #AIAct #EURegulation #AIOffice #FundamentalRights
"Закон о запрете подделок" призван защитить исполнителей от несанкционированных искусственных копий

Всем привет! В США обсуждается новый двухпартийный законопроект, призванный оградить актеров, музыкантов и исполнителей от несанкционированного цифрового воссоздания их лиц и голосов с помощью федеральных норм.

Этот законопроект стандартизирует правила, регулирующие использование образа, имени и голоса человека. Он прямо запрещает создание цифровой копии без согласия соответствующего лица или правообладателя, за исключением случаев, когда это относится к определенным категориям, таким как новости, общественные события, спортивные передачи, документальные фильмы или биографические произведения. Эти права действуют в течение всей жизни человека и до 70 лет после его смерти. Законодательство также предусматривает исключения для пародий, сатиры, критики и некоторых видов коммерческой деятельности.

Физические и юридические лица, включая наследство умершего человека или звукозаписывающую компанию, могут инициировать гражданский иск на основании этих предложенных правил. Примечательно, что в законопроекте уточняется, что добавление оговорки о том, что цифровая копия является несанкционированной, не будет являться эффективным средством защиты.

Законопроект является значительным шагом в направлении защиты исполнителей от несанкционированных ИИ-реплик, однако его последствия и эффективность еще будут тщательно изучаться.

#AIandLaw #LegalNews #NoFakesAct
Европейский орган по надзору за защитой данных высказался по поводу правил ответственности ИИ

Всем привет! Европейский орган по надзору за защитой данных (EDPS) представил мнение о двух предложениях Европейской комиссии, касающихся правил ответственности за использование продуктов искусственного интеллекта. Эти предложения посвящены установлению ответственности для разработчиков ИИ, производящих "дефектные продукты", и определению правил гражданской ответственности для лиц, подвергшихся негативному воздействию систем ИИ.

EDPS представили несколько ключевых рекомендаций. В частности, они подчеркнули необходимость обеспечения единого уровня защиты, гарантирующего, что лица, пострадавшие от дефектных систем ИИ, используемых учреждениями ЕС, получат такую же защиту, как и лица, пострадавшие от использования таких систем частными организациями.

Эти рекомендации свидетельствуют о продолжающихся усилиях по формированию всеобъемлющей системы ответственности за использование ИИ в Европейском союзе, направленной на обеспечение баланса между инновациями и защитой прав личности.

#AIandLaw #EDPS #AILiability #EURegulations
Google берет на себя обязательства по правовой защите пользователей ИИ

Привет, дорогие подписчики! Компания Google обязуется защитить пользователей, использующих продукты генеративного ИИ, от возможных судебных исков о нарушении авторских прав. Компания возьмет на себя ответственность за возможные юридические риски в случае возникновения проблем с авторскими правами, тем самым снимая растущую озабоченность по поводу генеративного ИИ и нарушений авторских прав.

Это обязательство распространяется на семь продуктов Google, в которых в настоящее время используются возможности генеративного ИИ, включая Duet AI в Workspace, Vertex AI и Codey APIs. Уникальный двуединый подход Google распространяется как на обучающие данные, так и на результаты, полученные с помощью генеративных моделей. Если на пользователей подадут в суд из-за наличия в обучающих данных Google материалов, защищенных авторским правом, то юридическую ответственность будет нести Google.

Кроме того, компания Google пояснила, что пользователи будут защищены, если им предъявят иск в связи с результатами, полученными с помощью моделей ИИ, при условии, что их использование не было преднамеренным нарушением авторских прав. Этот шаг Google последовал за аналогичными заверениями таких технологических гигантов, как Microsoft и Adobe, стремящихся обезопасить корпоративных клиентов от претензий по поводу авторских прав и конфиденциальности, связанных с использованием ИИ.

#AIandLaw #Google #AIUsers #CopyrightLawsuits
🌟 Воскресные чудеса ИИ: Расшифровка нечитаемых древних свитков с помощью ИИ

Всем привет! В это воскресенье мы приглашаем вас познакомиться с невероятным научным прорывом. Студент факультета компьютерных наук Люк Фарритор, которому всего 21 год, с помощью машинного обучения расшифровал текст "нечитаемых" древнеримских свитков, найденных в Геркулануме. Он выиграл приз в размере 40 тыс. долл. в рамках инициативы Vesuvius Challenge, направленной на расшифровку этих загадочных свитков.

Эти свитки, поврежденные в результате извержения вулкана, оставались неразгаданными на протяжении многих веков. Успех Люка Фарритора открывает путь к разгадке мудрости, заключенной в этих древних текстах.

Они были погребены рядом с Помпеями во время извержения Везувия в 79 году нашей эры и представляют собой бесценный фрагмент римской истории. Их находки могут произвести революцию в нашем понимании древнего мира, подобно тому, как в эпоху Возрождения были заново открыты утраченные рукописи.

Люк Фарритор, как и его коллеги по этой задаче, является примером того, как искусственный интеллект и целеустремленность могут преодолеть века и раскрыть нерассказанные истории.

#AISundayWonders #DecipheringHistory #AIUnlockingSecrets