ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
Член палаты представителей США Ричи Торрес предложил федеральный закон, требующий обязательной материалов, созданных искусственным интеллектом.

Представитель США Ричи Торрес представил новый федеральный закон , направленный на решение растущих опасений, связанных с использованием искусственного интеллекта (ИИ) для создания контента. Предлагаемый закон потребует обязательной маркировки материала, созданного ИИ.

Цель законопроекта — предотвратить недобросовестную и вводящую в заблуждение практику в области генеративного ИИ. Законопроект наделяет Федеральную торговую комиссию полномочиями по надзору за соблюдением этого требования.

#AIregulation #AIlegislation #GenerativeAI #ArtificialIntelligence #Transparency #FairPractices
Депутаты Европарламента готовы обсудить первые в истории правила для безопасного и прозрачного ИИ

Депутаты Европарламента готовы вступить в переговоры об установлении новаторских правил, регулирующих безопасное и прозрачное использование искусственного интеллекта.

Сегодня Европейский парламент принял свою позицию на переговорах по Закону об искусственном интеллекте, набрав 499 голосов за, 28 против и 93 воздержавшихся в преддверии переговоров со странами-членами ЕС об окончательной форме закона.

Переговоры с Советом Европы по окончательной форме закона начнутся позже сегодня.

#AI #Regulation #EuropeanParliament #AIAct #Ethics #Transparency #DataProtection #Innovation #FutureOfAI
Японская комиссия по защите личной информации выражает обеспокоенность по поводу практики сбора данных OpenAI

Японская комиссия по защите личной информации (Personal Information Protection Commission, PIPC) выразила обеспокоенность по поводу методов сбора данных OpenAI, создателя ChatGPT. PIPC предупредила, что методы OpenAI могут потенциально нарушать права пользователей на неприкосновенность частной жизни.

По мнению PIPC, OpenAI следует минимизировать собираемые данные и делать это с разрешения, а также обеспечить баланс между защитой частной жизни и потенциальными преимуществами генеративного искусственного интеллекта.

#AI #DataPrivacy #OpenAI #ChatGPT #Transparency #UserPrivacy #AIEthics
Европейские компании выражают обеспокоенность по поводу Закона ЕС об искусственном интеллекте

Более 150 руководителей известных европейских компаний, включая Renault, Heineken, Airbus и Siemens, высказали свои возражения против недавно одобренного Европейским союзом закона об искусственном интеллекте. В открытом письме, направленном в Европейский парламент, Европейскую Комиссию и государства-члены ЕС, эти руководители утверждают, что Закон об ИИ может "поставить под угрозу конкурентоспособность и технологический суверенитет Европы".

Закон об ИИ, который был одобрен Европейским парламентом 14 июня, подвергся критике со стороны этих компаний, которые считают, что правила неэффективны и могут препятствовать конкуренции. Подписавшие письмо утверждают, что предлагаемые требования закона слишком строги и могут помешать Европе лидировать в технологическом прогрессе, а не способствовать созданию благоприятной среды для инноваций в области ИИ.

Открытое письмо подчеркивает необходимость сбалансированного подхода, призывая законодателей ЕС принять стратегию, основанную на оценке рисков, которая учитывает многие факторы, вместо того чтобы налагать жесткие обязательства по соблюдению правил на генеративные модели ИИ.

#AI #EuropeanUnion #AIRegulations #AIAct #GenerativeAI #Transparency #Compliance #ResponsibleAI
Исследование на соответствие Закону об ИИ

Исследователи Стэнфордского университета провели оценку основных поставщиков базовых моделей, включая OpenAI и Google, на предмет их соответствия версии Закона об ИИ, предложенной Европейским парламентом. Результаты показали, что в настоящее время эти провайдеры не полностью соответствуют требованиям Закона, но исследователи считают, что в будущем они смогут это сделать.

Одним из ключевых наблюдений, сделанных в ходе анализа, является отсутствие адекватного раскрытия информации. Важные детали, касающиеся данных, вычислений и ключевых характеристик моделей, часто не раскрываются. Это вызывает обеспокоенность по поводу прозрачности и подотчетности в экосистеме ИИ.

Для решения этих проблем исследователи подчеркивают необходимость того, чтобы политики ЕС избирательно устанавливали требования Закона об ИИ к влиятельным поставщикам, избегая при этом чрезмерного бремени для небольших компаний. Кроме того, крайне важно выделить необходимые технические ресурсы агентствам, ответственным за соблюдение Закона об ИИ.

Смогут ли политики обеспечить прозрачность и подотчетность в быстро развивающейся области ИИ, одновременно способствуя инновациям и поддерживая небольшие компании?

#AIAct #FoundationModels #Transparency #Accountability #Compliance #Innovation
Гражданское общество призывает к расширению сферы применения и определения систем ИИ

4 июля 2023 года ряд организаций гражданского общества, участвующих в Европейском комитете по искусственному интеллекту, направили письмо председателю и секретариату комитета.

В заявлении организации подчеркивают неотложность Рамочной конвенции по ИИ, верховенству закона, правам человека и демократии, поскольку проблемы, возникающие в связи с проектированием, разработкой и внедрением систем ИИ, возрастают.

Они призывают редакционную группу обеспечить, среди прочих приоритетов:

1️⃣ сквозной, обязательный для исполнения правовой документ с широким определением ИИ и без абсолютных исключений (например, без исключений систем ИИ для национальной обороны и/или национальной безопасности).

2️⃣ Обязательные и общедоступные оценки воздействия на права человека, демократию и верховенство закона для систем ИИ, используемых государственными организациями или иным образом представляющих высокий уровень риска.

3️⃣ Четкие руководящие принципы и критерии для запрета неприемлемых систем ИИ.

4️⃣ Эффективные механизмы возмещения ущерба, независимый надзор и правоприменительные механизмы для реализации Конвенции.

#AI #EuropeanUnion #AIRegulations #AIAct #GenerativeAI #Transparency #Compliance #ResponsibleAI
Немецкая ассоциация искусственного интеллекта выделяет ключевые вопросы для
переговоров по Закону об искусственном интеллекте


Немецкая ассоциация искусственного интеллекта выпустила документ с изложением своей позиции по Закону об искусственном интеллекте, текст которого в настоящее время является предметом переговоров между законодателями ЕС.

В документе выделяются генеративный ИИ, определения ИИ, системы ИИ с высоким риском, стандартизация и поддержка инноваций как ключевые темы, которые должны быть решены участниками переговоров.

#AI #EuropeanUnion #AIRegulations #AIAct #GenerativeAI #Transparency #Compliance #ResponsibleAI
Twilio вводит "маркировку" для повышения доверия к ИИ

Приветствую сообщество AI&Law! Компания Twilio, предоставляющая услуги в области средств связи, предпринимает активные шаги для повышения прозрачности и доверия к своим услугам в области искусственного интеллекта. Компания вводит "маркировку" по типу этикеток на продуктах питания для своих моделей ИИ, предоставляя информацию о данных, использованных для обучения, целях сбора данных и т.д. Маркировка призвана дать пользователям четкое представление о том, как будут использоваться их данные.

Маркировка выделяет такие ключевые аспекты, как то, какие модели ИИ используются, используются ли данные клиентов для обучения и интегрировано ли участие человека. Кроме того, Twilio предлагает онлайн-инструмент, позволяющий другим компаниям создавать аналогичные этикетки для своих ИИ-продуктов.

Инициатива Twilio согласуется с более широкими усилиями отрасли по обеспечению ответственной и прозрачной практики использования ИИ. Например, компания Salesforce также представила политику приемлемого использования своих технологий генеративного ИИ, в которой указаны запрещенные действия и сделан акцент на ответственном использовании ИИ.

#AI #Transparency #DataPrivacy #Trust #ResponsibleAI #Twilio #Salesforce
Новые правила Google для политических объявлений с ИИ-контентом

Всем привет! Google вводит новые требования в отношении политической рекламы. Начиная с ноября, рекламодатели должны четко указывать, содержат ли их предвыборные объявления "синтетический контент", созданный искусственным интеллектом. К нему относится контент, который создает впечатление, что кто-то говорит или делает то, чего никогда не делал, или убедительно фабрикует события.

Рекламодатели должны на видном месте помещать на изображениях, видео- и аудиоматериалах соответствующие метки, например, "Этот звук был сгенерирован компьютером" или "Это изображение не отражает реальных событий". Однако для таких мелких настроек, как регулировка яркости или устранение эффекта "красных глаз" с помощью искусственного интеллекта, дисклеймер не потребуется.

Представитель Google Алли Бодак (Allie Bodack) подчеркнул необходимость введения этих мер: "Учитывая растущую распространенность инструментов, создающих синтетический контент, мы расширяем наши правила, требуя от рекламодателей раскрывать информацию о том, что их предвыборные объявления содержат материалы, которые были изменены или сгенерированы цифровым способом".

Эти правила направлены на поддержание прозрачности и защиту целостности политической дискуссии в эпоху ИИ.

#AI #Politics #Google #AIinPolitics #Transparency #ElectionAds #SyntheticContent #AIRegulation
Прозрачность ИИ в фокусе: Решение iBorderCtrl

Всем привет! 7 сентября 2023 года Суд Европейского союза принял важное решение по проекту iBorderCtrl. Эта инициатива, финансируемая Европейской комиссией с 2016 года, направлена на использование "детекторов лжи" на базе искусственного интеллекта для автоматизации процессов обеспечения безопасности на внешних границах ЕС. Задавая путешественникам ряд вопросов и анализируя их мимику, система определяет потенциальные угрозы.

Депутат Европарламента Патрик Брейер запросил доступ к документам, связанным с проектом iBorderCtrl, выразив обеспокоенность по поводу его этичности и законности. Однако в полном доступе было отказано со ссылкой на потенциальный ущерб коммерческим интересам консорциума, включая права на интеллектуальную собственность.

Суд оставил в силе решение, ограничивающее доступ общественности к документам проекта. Он признал наличие общественного интереса, но посчитал, что распространение результатов является достаточным.

Это дело поднимает вопросы о прозрачности разработки систем ИИ, особенно на этапе исследований. Предлагаемый ЕС закон об ИИ признает необходимость прозрачности, но исключает из этого обязательства системы ИИ, используемые для биометрической категоризации, связанной с уголовными преступлениями.

Вердикт подчеркивает сохраняющееся противоречие между прозрачностью, общественными и коммерческими интересами в проектах ИИ.

#AILaw #Transparency #EUAIAct
Представлен план действий по работе с ИИ в Нью-Йорке

Всем привет! В Нью-Йорке обнародован План действий в области ИИ, направленный на ответственное управление ИИ. План действий призван обеспечить ответственное и этичное использование ИИ в городских органах власти.

В нем дается определение ИИ как широкого зонтичного термина, охватывающего различные технологии, машинного и глубокого обучения, используемые для прогнозирования, выработки рекомендаций и принятия решений. Сюда входят такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка.

Данный план действий содержит семь важнейших инициатив:

1️⃣ Надежная система управления: Обеспечение надежности, прозрачности, справедливости и других ценностей.

2️⃣ Привлечение заинтересованных сторон: Привлечение различных секторов к решению проблем ИИ.

3️⃣ Расширение прав и возможностей общественности: Обеспечение участия общественности и открытой коммуникации по вопросам ответственного использования ИИ.

4️⃣ Грамотность в области ИИ: Обучение городских служащих ответственному взаимодействию с ИИ.

5️⃣ Поддержка ИИ: Предоставление помощи и знаний городским агентствам.

6️⃣ Ответственные закупки ИИ: Разработка стандартов закупок для этичных приобретений ИИ.

7️⃣ Обновление плана действий: Обеспечение актуальности плана и включение в него ежегодных отчетов о проделанной работе.

#NewYorkCityAI #AIActionPlan #ResponsibleAI #AIInGovernance #AIandLaw #EthicalAI #Transparency #AIRegulations
Новый отчет Microsoft рассказывает об ответственном ИИ

Компания Microsoft выпустила объемный отчет "Responsible AI Transparency Report", в котором подробно описала свои инициативы по разработке и внедрению ответственных технологий искусственного интеллекта.

В отчете подчеркивается приверженность Microsoft созданию безопасного и ответственного генеративного ИИ - области, в которой компания активно внедряет инновации.

Microsoft подчеркивает свои усилия по обеспечению безопасности, включая:

Запуск более 30 инструментов для расширения возможностей разработчиков в области ответственного ИИ.
Предоставление более 100 функций в Azure для помощи клиентам в развертывании безопасных решений ИИ.
Расширение сообщества ответственного ИИ на 17%, оно теперь превышает 400 членов.
Обязательное обучение ответственному ИИ для всех сотрудников, при этом соответствующие модули уже были пройдены на 99%.

В завершение отчета Microsoft обязалась и дальше инвестировать в инструменты разработки ответственного ИИ для своих клиентов.

#ResponsibleAI #Transparency
Федеральная комиссия по связи США предлагает раскрывать информацию об использовании ИИ в политической рекламе

Председатель Федеральной комиссии по связи США Джессика Розенворсель (Jessica Rosenworcel) предложила правило, требующее раскрывать информацию об использовании технологий искусственного интеллекта в политической рекламе и объявлениях. Этот шаг направлен на повышение прозрачности в преддверии выборов 2024 года.

Розенворсель подчеркнула важность информирования потребителей об использовании искусственного интеллекта в политических сообщениях для предотвращения распространения ложной информации и дипфейков.

Предлагаемое правило не запрещает рекламу, сгенерированную ИИ, но требует от создателей рекламы четкого раскрытия информации. Эта инициатива согласуется с более широкими опасениями по поводу влияния искусственного интеллекта на выборы, повторяя предупреждения таких деятелей, как Хиллари Клинтон, и технологических компаний, таких как Microsoft.

#AI #PoliticalAds #FCC #Transparency