ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
Франция стремится к глобальному регулированию искусственного интеллекта к концу года

Франция заявляет о ведущей роли в формировании глобального законодательства в области искусственного интеллекта и намерена представить свои идеи к концу этого года.

Признавая быстрое развитие технологии ИИ и ее потенциальное влияние на различные аспекты жизни общества, Франция стремится активно решать вопросы рисков, связанных с ИИ. Страна стремится найти баланс между стимулированием инноваций и защитой прав, конфиденциальности и безопасности частных лиц.

"С моей точки зрения... я думаю, что нам действительно необходимо регулирование, и все игроки, даже американские, согласны с этим. Я думаю, нам нужно глобальное регулирование", - сказал Макрон во время конференции VivaTech в Париже в среду.

#AIregulation #EthicalAI #ResponsibleAI #DataPrivacy
Европейские компании выражают обеспокоенность по поводу Закона ЕС об искусственном интеллекте

Более 150 руководителей известных европейских компаний, включая Renault, Heineken, Airbus и Siemens, высказали свои возражения против недавно одобренного Европейским союзом закона об искусственном интеллекте. В открытом письме, направленном в Европейский парламент, Европейскую Комиссию и государства-члены ЕС, эти руководители утверждают, что Закон об ИИ может "поставить под угрозу конкурентоспособность и технологический суверенитет Европы".

Закон об ИИ, который был одобрен Европейским парламентом 14 июня, подвергся критике со стороны этих компаний, которые считают, что правила неэффективны и могут препятствовать конкуренции. Подписавшие письмо утверждают, что предлагаемые требования закона слишком строги и могут помешать Европе лидировать в технологическом прогрессе, а не способствовать созданию благоприятной среды для инноваций в области ИИ.

Открытое письмо подчеркивает необходимость сбалансированного подхода, призывая законодателей ЕС принять стратегию, основанную на оценке рисков, которая учитывает многие факторы, вместо того чтобы налагать жесткие обязательства по соблюдению правил на генеративные модели ИИ.

#AI #EuropeanUnion #AIRegulations #AIAct #GenerativeAI #Transparency #Compliance #ResponsibleAI
Ответственное внедрение ИИ в частном секторе

Всемирный экономический форум выпустил отчет под названием "Ответственное внедрение ИИ: Руководство по закупкам решений ИИ в частном секторе".

Поскольку глобальный рынок ИИ продолжает стремительно расширяться, существует острая необходимость в установлении стандартов и рамок для обеспечения ответственной практики ИИ и закупок. Признавая эту необходимость, Всемирный экономический форум создал всеобъемлющее руководство, специально предназначенное для коммерческих организаций.

В этом отчете представлена структурированная основа, которая позволяет организациям оценить последствия приобретения решений ИИ. В нем подчеркиваются принципы прозрачности, подотчетности и ориентированного на человека проектирования на протяжении всего процесса разработки и внедрения. Следуя этим принципам, компании смогут защитить себя от потенциальных рисков, связанных с интеллектуальной собственностью, данными и конфиденциальностью.

#AI #Ethics #ResponsibleAI #PrivateSector #Technology #Innovation #Business #Governance #WorldEconomicForum
Гражданское общество призывает к расширению сферы применения и определения систем ИИ

4 июля 2023 года ряд организаций гражданского общества, участвующих в Европейском комитете по искусственному интеллекту, направили письмо председателю и секретариату комитета.

В заявлении организации подчеркивают неотложность Рамочной конвенции по ИИ, верховенству закона, правам человека и демократии, поскольку проблемы, возникающие в связи с проектированием, разработкой и внедрением систем ИИ, возрастают.

Они призывают редакционную группу обеспечить, среди прочих приоритетов:

1️⃣ сквозной, обязательный для исполнения правовой документ с широким определением ИИ и без абсолютных исключений (например, без исключений систем ИИ для национальной обороны и/или национальной безопасности).

2️⃣ Обязательные и общедоступные оценки воздействия на права человека, демократию и верховенство закона для систем ИИ, используемых государственными организациями или иным образом представляющих высокий уровень риска.

3️⃣ Четкие руководящие принципы и критерии для запрета неприемлемых систем ИИ.

4️⃣ Эффективные механизмы возмещения ущерба, независимый надзор и правоприменительные механизмы для реализации Конвенции.

#AI #EuropeanUnion #AIRegulations #AIAct #GenerativeAI #Transparency #Compliance #ResponsibleAI
Немецкая ассоциация искусственного интеллекта выделяет ключевые вопросы для
переговоров по Закону об искусственном интеллекте


Немецкая ассоциация искусственного интеллекта выпустила документ с изложением своей позиции по Закону об искусственном интеллекте, текст которого в настоящее время является предметом переговоров между законодателями ЕС.

В документе выделяются генеративный ИИ, определения ИИ, системы ИИ с высоким риском, стандартизация и поддержка инноваций как ключевые темы, которые должны быть решены участниками переговоров.

#AI #EuropeanUnion #AIRegulations #AIAct #GenerativeAI #Transparency #Compliance #ResponsibleAI
Google предпринимает шаги по внедрению ответственного ИИ в ЕС

Приветствуем, друзья AI and Law! 👋

У нас для вас отличные новости. Google делает значительные шаги в направлении ответственного использования искусственного интеллекта в Европейском союзе. Компания активно взаимодействует с регуляторами по вопросам европейского Закона об ИИ. Руководимое Томасом Курианом, отделение облачных вычислений Google рассматривает вопросы, поднятые Европейским союзом, касающиеся искусственного интеллекта.

Одна из основных проблем, обсуждаемых в процессе, - это возможность различения контента, созданного людьми и контента, сгенерированного искусственным интеллектом. Но не волнуйтесь! Google разработала умное решение. Они представили функцию "водяного знака", которая помечает изображения, созданные ИИ, что облегчает их идентификацию для пользователей.

Кроме того, Google разрабатывает инновационные технологии, чтобы обеспечить возможность легкого отличия контента, созданного людьми, от контента, созданного искусственным интеллектом.

Этот шаг показывает, как крупные технологические компании, включая Google, принимают на себя инициативу по внедрению частного сектора в надзор за искусственным интеллектом. Они не ждут формальных законодательных актов, а проактивно работают над решениями, чтобы гарантировать ответственное и этичное использование искусственного интеллекта.

Интересно, смогут ли технологические компании и регулирующие органы эффективно сотрудничать для обеспечения ответственной и этичной практики использования искусственного интеллекта?

#AIRegulations #ResponsibleAI #TechIndustry #EthicsAndAI
Лидерство в области ответственного ИИ: возможности ЕС

Здравствуйте, коллеги! Сегодня мы представляем вашему вниманию аналитическую записку Пеги Махам (Pegah Maham) и Сабрины Кюсперт (Sabrina Küspert) из Stiftung Neue Verantwortung. Они подчеркивают, что у ЕС есть значительный шанс занять лидирующую позицию в ответственном развитии ИИ после принятия Закона об ИИ. Но чтобы воспользоваться этой возможностью, необходимо понимать риски, связанные с моделями ИИ.

🔹 Риски недостаточной надежности: Одной из основных проблем является отсутствие контроля над поведением моделей ИИ. Эта ненадежность может привести к таким серьезным проблемам, как дискриминация и воспроизводство стереотипов, распространение дезинформации и нарушение неприкосновенности частной жизни.

🔹 Неправильное использование и двойное назначение моделей ИИ: Еще одной проблемой является двойное назначение некоторых моделей ИИ. Несмотря на огромные преимущества, они могут быть использованы злоумышленниками для киберпреступлений, угроз биозащиты и в политически мотивированных целях.

🔹Системные риски : По мере того как ИИ стремительно интегрируется в наше общество, возникают системные риски. К ним относятся концентрация экономической власти и неравенство, навязывание идеологий, а также проблемы, связанные с замедленной адаптацией общества.

Осознав и устранив эти риски, ЕС может стать мировым лидером в области ответственного развития ИИ?

#ResponsibleAI #AIRegulation #AIAct #AIChallenges #EUAI #TechPolicy #DigitalFuture #AICommunity
Продвижение ответственного ИИ: мнение Американской торговой палаты

Здравствуйте, коллеги! Сегодня мы предлагаем вашему вниманию соображения Американской торговой палаты в рамках переговоров по Закону ЕС об ИИ. Давайте рассмотрим их рекомендации.

🔹 Определение ИИ: Палата призывает лиц, принимающих решения в ЕС, согласовать определение ИИ с определением ОЭСР. Четкое и международное признанное определение ИИ способствует многосторонней координации политики в области ИИ.

🔹 Упорядочение определения высокого риска: в документе предлагается сузить сферу применения положений о высоком риске, чтобы избежать правовой неопределенности. Такой подход позволит обеспечить должное внимание к технологиям ИИ с реальными факторами повышенного риска и свести к минимуму излишнюю нагрузку на другие системы ИИ.

🔹 Гибкость, ориентированная на результат: требования Главы III в значительной степени соответствуют уже существующей практике ответственного подхода к ИИ. Однако Палата подчеркивает важность сохранения гибкости и ориентированности на результат.

🔹 Обязательства для базисных моделей и ИИ общего назначения: документ призывает к разделению обязательств для базисных моделей и ИИ общего назначения.

🔹 Прозрачность искусственно созданного контента: прозрачность имеет ключевое значение, когда речь идет об искусственно созданном контенте. Палата выступает за принятие мер, способствующих раскрытию информации о контенте, создаваемом искусственным интеллектом, чтобы оградить пользователей от возможной дезинформации и манипуляций.

🔹 Согласованное правоприменение и гибкие стандарты: Для создания надежного ландшафта ИИ необходимы согласованное правоприменение и четкие, но гибкие стандарты.

#ResponsibleAI #AIRegulation #AIAct #AITrilogue #TechPolicy #AICcommunity #GlobalAI #AIStandards
Twilio вводит "маркировку" для повышения доверия к ИИ

Приветствую сообщество AI&Law! Компания Twilio, предоставляющая услуги в области средств связи, предпринимает активные шаги для повышения прозрачности и доверия к своим услугам в области искусственного интеллекта. Компания вводит "маркировку" по типу этикеток на продуктах питания для своих моделей ИИ, предоставляя информацию о данных, использованных для обучения, целях сбора данных и т.д. Маркировка призвана дать пользователям четкое представление о том, как будут использоваться их данные.

Маркировка выделяет такие ключевые аспекты, как то, какие модели ИИ используются, используются ли данные клиентов для обучения и интегрировано ли участие человека. Кроме того, Twilio предлагает онлайн-инструмент, позволяющий другим компаниям создавать аналогичные этикетки для своих ИИ-продуктов.

Инициатива Twilio согласуется с более широкими усилиями отрасли по обеспечению ответственной и прозрачной практики использования ИИ. Например, компания Salesforce также представила политику приемлемого использования своих технологий генеративного ИИ, в которой указаны запрещенные действия и сделан акцент на ответственном использовании ИИ.

#AI #Transparency #DataPrivacy #Trust #ResponsibleAI #Twilio #Salesforce
США: Новое обещание Больших Технологий по созданию надежного ИИ

Привет всем! Такие технологические гиганты, как Nvidia, Adobe и Palantir, взяли на себя добровольные обязательства по созданию более безопасных систем генеративного ИИ. В рамках этого шага восемь крупнейших компаний намерены проводить проверку своих приложений ИИ перед выпуском, уделяя первостепенное внимание вопросам безопасности. Основное внимание уделяется будущим моделям генеративного ИИ.

В этой инициативе участвуют Adobe, Cohere, IBM, Nvidia, Salesforce и другие. Они обязуются разрабатывать машинное обучение безопасным и надежным способом. Это обязательство включает в себя аудит, гарантии, прозрачность и устранение социальных рисков, связанных с ИИ.

Для предотвращения злоупотреблений эти компании будут защищать интеллектуальную собственность и поощрять пользователей сообщать об уязвимостях. Кроме того, они будут раскрывать информацию о возможностях технологий, их справедливости, предвзятости и запрещенных случаях использования.

Помимо обеспечения безопасности, эти технологические лидеры будут уделять внимание применению ИИ в интересах общего блага, например для борьбы с изменением климата и улучшения здравоохранения.

#AIandEthics #TechInnovation #ResponsibleAI
Великобритания: Управление по конкуренции и рынкам озвучило принципы ответственного развития ИИ

Привет всем! Управление по конкуренции и рынкам Великобритании (Competition and Markets Authority, CMA) представило набор принципов для обеспечения ответственного подхода к разработке и использованию базисных моделей в искусственном интеллекте.

Базисные модели, такие как ChatGPT и Office 365 Copilot, представляют собой универсальные системы ИИ, способные произвести революцию в различных отраслях. В отчете CMA изложены руководящие принципы, направленные на защиту прав потребителей и развитие здоровой конкуренции в индустрии ИИ.

По мере того как ИИ стремительно внедряется в нашу повседневную жизнь, CMA признает необходимость проактивного вмешательства. Эти принципы направлены на достижение баланса между развитием инновационного потенциала ИИ и обеспечением безопасности потребителей.

Предлагаемые CMA руководящие принципы сосредоточены на таких важнейших областях, как подотчетность, доступ, разнообразие, выбор, гибкость, справедливость и прозрачность. Эти принципы призваны направить разработчиков и лиц, внедряющих базисные модели, на путь ответственной разработки и использования ИИ.

CMA планирует активно взаимодействовать с заинтересованными сторонами для дальнейшего уточнения этих принципов.

#ResponsibleAI #AIRegulation #ConsumerProtection #Competition #FoundationModels #CMAAIprinciples
Представляем вашему вниманию новый доклад Clifford Chance: "Ответственный ИИ на практике".

Здравствуйте, подписчики AI&Law! Компания "Клиффорд Чанс" опубликовала новый отчет "Ответственный ИИ на практике". Он проливает свет на растущие проблемы, связанные с использованием и влиянием искусственного интеллекта.

В документе, подготовленном в партнерстве с Milltown Partners, представлены результаты фокус-групп, проведенных в США, Великобритании и Германии. В ходе этих дискуссий рассматривались такие важнейшие вопросы ИИ, как предвзятость, согласие, прозрачность и управление.

Несмотря на оптимизм в отношении потенциала ИИ, очевидно, что еще предстоит работа по обеспечению его ответственного и безопасного применения.

#AI #CliffordChance #ResponsibleAI #AIandLaw #EthicalAI
Представлен план действий по работе с ИИ в Нью-Йорке

Всем привет! В Нью-Йорке обнародован План действий в области ИИ, направленный на ответственное управление ИИ. План действий призван обеспечить ответственное и этичное использование ИИ в городских органах власти.

В нем дается определение ИИ как широкого зонтичного термина, охватывающего различные технологии, машинного и глубокого обучения, используемые для прогнозирования, выработки рекомендаций и принятия решений. Сюда входят такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка.

Данный план действий содержит семь важнейших инициатив:

1️⃣ Надежная система управления: Обеспечение надежности, прозрачности, справедливости и других ценностей.

2️⃣ Привлечение заинтересованных сторон: Привлечение различных секторов к решению проблем ИИ.

3️⃣ Расширение прав и возможностей общественности: Обеспечение участия общественности и открытой коммуникации по вопросам ответственного использования ИИ.

4️⃣ Грамотность в области ИИ: Обучение городских служащих ответственному взаимодействию с ИИ.

5️⃣ Поддержка ИИ: Предоставление помощи и знаний городским агентствам.

6️⃣ Ответственные закупки ИИ: Разработка стандартов закупок для этичных приобретений ИИ.

7️⃣ Обновление плана действий: Обеспечение актуальности плана и включение в него ежегодных отчетов о проделанной работе.

#NewYorkCityAI #AIActionPlan #ResponsibleAI #AIInGovernance #AIandLaw #EthicalAI #Transparency #AIRegulations
Австралия опубликовала промежуточный ответ по безопасному и ответственному ИИ

Приветствую всех! Правительство Австралии опубликовало промежуточный ответ, в котором рассматриваются проблемы и рекомендации по регулированию ИИ. Признавая потенциал и риски ИИ, правительство стремится восполнить пробелы в регулировании, уделяя особое внимание системам с высоким уровнем риска.

Австралия определяет "высокий риск" как "системный, необратимый или постоянный", включая применение ИИ в медицине и самоуправляемых автомобилях. Предлагаемые меры согласуются с международными усилиями, Законом ЕС об ИИ и предложенным Канадой законодательством в этой сфере.

Временный ответ Австралии опирается на риск-ориентированный подход, сбалансированное регулирование и ориентацию на интересы сообщества.

#AustraliaAI #AIRegulation #ResponsibleAI
Новый отчет Microsoft рассказывает об ответственном ИИ

Компания Microsoft выпустила объемный отчет "Responsible AI Transparency Report", в котором подробно описала свои инициативы по разработке и внедрению ответственных технологий искусственного интеллекта.

В отчете подчеркивается приверженность Microsoft созданию безопасного и ответственного генеративного ИИ - области, в которой компания активно внедряет инновации.

Microsoft подчеркивает свои усилия по обеспечению безопасности, включая:

Запуск более 30 инструментов для расширения возможностей разработчиков в области ответственного ИИ.
Предоставление более 100 функций в Azure для помощи клиентам в развертывании безопасных решений ИИ.
Расширение сообщества ответственного ИИ на 17%, оно теперь превышает 400 членов.
Обязательное обучение ответственному ИИ для всех сотрудников, при этом соответствующие модули уже были пройдены на 99%.

В завершение отчета Microsoft обязалась и дальше инвестировать в инструменты разработки ответственного ИИ для своих клиентов.

#ResponsibleAI #Transparency
Глава Австралийской Комиссии по защите персональных данных выступает против бесконтрольного развития ИИ

Недавно назначенный комиссар по защите персональных данных Австралии Карли Кинд призывает к осторожности в отношении быстрого внедрения технологий искусственного интеллекта. Она подчеркивает необходимость надежных гарантий перед широким внедрением ИИ.

Кинд недовольна тем, что технологическая индустрия стремится к быстрому внедрению ИИ, ставя приоритетом скорость, а не тщательное рассмотрение потенциальных рисков и этических вопросов. Она подчеркивает необходимость взвешенного подхода, дающего время на понимание нюансов технологии и установление соответствующих правил для предотвращения злоупотреблений.

Осторожный подход Австралии к внедрению ИИ отражает растущую во всем мире обеспокоенность по поводу ответственного развития и использования этой мощной технологии.

#ResponsibleAI #Privacy
CEO Appian призывает индустрию ИИ к приоритету доверия

CEO Appian Мэтт Калкинс призвал лидеров индустрии искусственного интеллекта уделить первоочередное внимание ответственному развитию и доверию. Калкинс описал руководящие принципы, направленные на повышение прозрачности данных, согласия пользователей и уважения к интеллектуальной собственности.

«Мы должны обеспечить процветание AI, построив доверие», — заявил Калкинс. Его четыре принципа включают раскрытие источников данных, использование личных данных только с согласия, анонимизацию персональных данных и компенсацию за защищённую авторским правом информацию. Эти шаги направлены на смену акцента в развитии ИИ с гонки за данными на гонку за доверием.

На фоне усиления контроля за технологиями Калкинс позиционирует компанию Appian как лидера в области ответственного ИИ и призывает других присоединиться к этому движению. Доверие, по его мнению, откроет весь потенциал искусственного интеллекта и переопределит успех в индустрии.

#ИИ #AI #TrustInAI #ResponsibleAI #DataPrivacy #Appian #TechLeadership
Обнародована Национальная стратегия Шри-Ланки в области искусственного интеллекта

Шри-Ланка представила свою Национальную стратегию в области ИИ, направленную на ответственное развитие и управление ИИ. Стратегия опирается на семь ключевых принципов, включая инклюзивность, прозрачность, ориентированность на человека и устойчивость. Эти руководящие принципы обеспечивают соответствие ИИ национальным целям и защиту прав граждан.

Особое внимание уделяется грамотности в области ИИ и пониманию общественностью его сути. Укрепляя доверие и расширяя возможности граждан в области ИИ, Шри-Ланка стремится способствовать ответственному внедрению ИИ, обеспечивая справедливое и процветающее развитие общества.

#AIGovernance #SriLankaAI #AIEthics #ResponsibleAI
В США выпущен доклад об ответственности ИИ и деликтном праве

В США выпущен новый доклад «Ответственность по деликтному праву США за крупномасштабные убытки, причиненные ИИ», который содержит важные инсайты для разработчиков ИИ, политиков и юристов. В докладе рассматриваются юридические риски, с которыми сталкиваются разработчики ИИ, и как существующее деликтное право США может быть адаптировано для лучшего стимулирования ответственного внедрения ИИ.

Авторы подчеркивают, что разработчики ИИ, которые пренебрегают тщательными мерами безопасности, такими как всестороннее тестирование и внедрение надежных защитных мер, могут столкнуться со значительной ответственностью. В докладе также отмечается неопределенность в применении текущего деликтного права к ИИ, включая вариации в юридической интерпретации в разных штатах, что может привести к дорогостоящим судебным разбирательствам.

Доклад призывает законодателей рассмотреть возможность совершенствования правовых рамок ответственности и разработки отраслевых стандартов, способствующих безопасности. Создание четких протоколов безопасности и их внедрение в отрасли помогут сбалансировать инновации и ответственность. Установление ясных юридических ожиданий позволит всем заинтересованным сторонам лучше управлять рисками и одновременно формировать более безопасную среду для ИИ.

#AILiability #TortLaw #ResponsibleAI #AIRegulation