ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
США: Новое обещание Больших Технологий по созданию надежного ИИ

Привет всем! Такие технологические гиганты, как Nvidia, Adobe и Palantir, взяли на себя добровольные обязательства по созданию более безопасных систем генеративного ИИ. В рамках этого шага восемь крупнейших компаний намерены проводить проверку своих приложений ИИ перед выпуском, уделяя первостепенное внимание вопросам безопасности. Основное внимание уделяется будущим моделям генеративного ИИ.

В этой инициативе участвуют Adobe, Cohere, IBM, Nvidia, Salesforce и другие. Они обязуются разрабатывать машинное обучение безопасным и надежным способом. Это обязательство включает в себя аудит, гарантии, прозрачность и устранение социальных рисков, связанных с ИИ.

Для предотвращения злоупотреблений эти компании будут защищать интеллектуальную собственность и поощрять пользователей сообщать об уязвимостях. Кроме того, они будут раскрывать информацию о возможностях технологий, их справедливости, предвзятости и запрещенных случаях использования.

Помимо обеспечения безопасности, эти технологические лидеры будут уделять внимание применению ИИ в интересах общего блага, например для борьбы с изменением климата и улучшения здравоохранения.

#AIandEthics #TechInnovation #ResponsibleAI
Навигация по Закону ЕС об ИИ: Определение понятия "подсознательные технологии"

Привет, дорогие подписчики! Ученые из Имперского колледжа Лондона и Орхусского университета высказали свое мнение о проекте Закона ЕС об ИИ, обратив особое внимание на его подход к решению проблем, связанных с "подсознательными технологиями", используемыми системами искусственного интеллекта.

Закон направлен на регулирование этих методов, но в нем отсутствует точное определение, что ставит под сомнение его эффективность.

Ученые предлагают более полное определение: "Подсознательные технологии (Subliminal Techniques) направлены на оказание влияния на поведение человека таким образом, что он, скорее всего, не будет знать о (1) попытке влияния, (2) методах, используемых для влияния, или (3) последствиях влияния на принятие решений или формирование ценностей и убеждений".

Почему это важно: четкое и всеобъемлющее определение "подсознательных технологий" имеет решающее значение для эффективного регулирования ИИ, обеспечивая надлежащее противодействие потенциально вредным манипуляциям, не препятствуя инновациям.

#AI #EUAIAct #Regulation #SubliminalTechniques #AIethics #LegalTech
Калифорнийский законопроект требует одобрения профсоюзами реплик актеров искусственным интеллектом

Всем привет! Сегодня мы представляем AB 459, новый калифорнийский законопроект, разработанный совместно с SAG-AFTRA. Этот законопроект направлен на то, чтобы обязать студии получать согласие профсоюза перед использованием ИИ для воссоздания образа актера. Предполагается, что этот законопроект защитит права исполнителей от растущей угрозы искусственного интеллекта.

Проект устанавливает "требование здравого смысла" и исключение из контрактов положений, предоставляющих неограниченный доступ к голосу и образу актера на неопределенный срок. Законопроект не ограничивается телевидением и кино, он распространяется на актеров, представленных в профсоюзе, в аудиокнигах, видеоиграх и т.д.

AB 459 не запрещает передачу прав, но гарантирует, что соглашения будут включать "информированное согласие и представительство" со стороны юристов или представителей профсоюза. Это позволит защитить работников от неосознанной потери контроля над своим цифровым "я" и карьерой.

Законопроект будет рассмотрен в следующем году. Он были инициирован на фоне забастовки актеров, обеспокоенных влиянием ИИ на их карьеру, что стало сигналом к тому, чтобы добиться справедливого использования искусственного интеллекта в индустрии развлечений.

#Калифорния #AIinEntertainment #PerformersRights
Канада вводит новые правила использования ИИ для госслужащих

Привет, подписчики AI & Law! Федеральное правительство Канады ввело новые правила для своих сотрудников, использующих инструменты ИИ, такие как ChatGPT. Президент Казначейства Анита Ананд подчеркнула необходимость ответственного подхода к использованию ИИ и пообещала контролировать приложения ИИ, чтобы не допустить предвзятости или дискриминации.

Данные рекомендации содержат предварительные указания и будут обновляться по мере необходимости. Несмотря на то, что в настоящее время не предусмотрено наказаний за несоблюдение этих рекомендаций, к ним могут быть применены положения действующего законодательства, например, Закона о конфиденциальности.

Под генеративным ИИ в правилах понимается технология, создающая текст, звук, код, видео или изображения для различных целей. Рекомендуется проявлять осторожность при использовании ИИ для публичных коммуникаций или принятия решений.

Департаменты должны информировать пользователей о применении средств ИИ, документировать решения и давать пояснения, если ИИ поддерживает принятие решений.

Ананд уверяет, что ИИ призван не заменить рабочие места, а улучшить работу сотрудников. Профсоюзы подчеркивают важность консультаций и повышения квалификации, если ИИ приведет к изменению рабочих мест.

#Канада #AIRegulations #AIUsage #LegalAI
🌟 Воскресные чудеса ИИ: Роботы от Toyota учатся готовить завтрак

Добро пожаловать в воскресные чудеса ИИ! На этой неделе расскажем вам о роботах, работающих на основе искусственного интеллекта.

Исследовательский институт Toyota (TRI) представил концепцию "детского сада для роботов", задача которых - учиться готовить завтрак.

Традиционно обучение роботов сложным задачам требовало длительного кодирования и отладки. Однако компания TRI использует другой подход. Наделив роботов чувством осязания, они позволяют им "чувствовать" свои действия, что облегчает процесс обучения.

Вот как это работает: сначала "учитель" демонстрирует набор навыков, а затем, в течение нескольких часов, модель ИИ обучается в фоновом режиме. Представьте себе, что вы обучаете робота во второй половине дня, а на следующее утро возвращаетесь и видите, что он овладел новым навыком.

Toyota стремится создать для роботов "большие поведенческие модели", позволяющие им обобщать новые навыки на основе наблюдаемых закономерностей, подобно тому, как модели ИИ учатся на примере человеческой письменности. Компания уже обучила роботов более чем 60 сложным навыкам и планирует достичь 1000 к 2024 году.

Toyota не одинока в этом начинании: Google и Tesla также добиваются успехов в обучении роботов искусственному интеллекту. Представьте себе возможности: роботы, которые смогут выполнять задачи на основе минимальных инструкций, как люди.

#AISundayWonders #ToyotaRobots #AIInnovation
ЕС и Китай возобновили цифровой диалог по вопросам искусственного интеллекта и данных

Всем привет! Европейская комиссия и Китай провели второй "Цифровой диалог высокого уровня". В ходе обсуждения были затронуты такие важные темы, как регулирование данных, искусственный интеллект и трансграничный поток промышленных данных.

ЕС и Китай договорились о возобновлении диалога по информационным и коммуникационным технологиям. Комиссар ЕС по внутреннему рынку Тьерри Бретон подчеркнул, что каждая страна имеет свои подходы и системы в области искусственного интеллекта и данных.

#ЕС #Китай #DigitalDialogue #AIRegulation #DataFlow
В Великобритании одобрен Закон о безопасности в Интернете - в него включены положения о чат-ботах с ИИ

Здравствуйте, уважаемые подписчики! Законопроект Великобритании о безопасности в Интернете, призванный регулировать работу онлайн-платформ и защищать пользователей, получил одобрение Палаты лордов, что еще на один шаг приближает его к вступлению в силу.

Этот комплексный 300-страничный законопроект затрагивает различные аспекты - от борьбы с распространением противоправного контента в Интернете до защиты пользователей социальных сетей от преследований в сети. Примечательно, что теперь в него включены положения, касающиеся чат-ботов с искусственным интеллектом, таких как ChatGPT, и направленные на защиту пользователей от вредоносного контента.

#OnlineSafetyBill #AIChatbots #Deepfake #UKRegulation #OnlineSafety
Великобритания: Управление по конкуренции и рынкам озвучило принципы ответственного развития ИИ

Привет всем! Управление по конкуренции и рынкам Великобритании (Competition and Markets Authority, CMA) представило набор принципов для обеспечения ответственного подхода к разработке и использованию базисных моделей в искусственном интеллекте.

Базисные модели, такие как ChatGPT и Office 365 Copilot, представляют собой универсальные системы ИИ, способные произвести революцию в различных отраслях. В отчете CMA изложены руководящие принципы, направленные на защиту прав потребителей и развитие здоровой конкуренции в индустрии ИИ.

По мере того как ИИ стремительно внедряется в нашу повседневную жизнь, CMA признает необходимость проактивного вмешательства. Эти принципы направлены на достижение баланса между развитием инновационного потенциала ИИ и обеспечением безопасности потребителей.

Предлагаемые CMA руководящие принципы сосредоточены на таких важнейших областях, как подотчетность, доступ, разнообразие, выбор, гибкость, справедливость и прозрачность. Эти принципы призваны направить разработчиков и лиц, внедряющих базисные модели, на путь ответственной разработки и использования ИИ.

CMA планирует активно взаимодействовать с заинтересованными сторонами для дальнейшего уточнения этих принципов.

#ResponsibleAI #AIRegulation #ConsumerProtection #Competition #FoundationModels #CMAAIprinciples
Прозрачность ИИ в фокусе: Решение iBorderCtrl

Всем привет! 7 сентября 2023 года Суд Европейского союза принял важное решение по проекту iBorderCtrl. Эта инициатива, финансируемая Европейской комиссией с 2016 года, направлена на использование "детекторов лжи" на базе искусственного интеллекта для автоматизации процессов обеспечения безопасности на внешних границах ЕС. Задавая путешественникам ряд вопросов и анализируя их мимику, система определяет потенциальные угрозы.

Депутат Европарламента Патрик Брейер запросил доступ к документам, связанным с проектом iBorderCtrl, выразив обеспокоенность по поводу его этичности и законности. Однако в полном доступе было отказано со ссылкой на потенциальный ущерб коммерческим интересам консорциума, включая права на интеллектуальную собственность.

Суд оставил в силе решение, ограничивающее доступ общественности к документам проекта. Он признал наличие общественного интереса, но посчитал, что распространение результатов является достаточным.

Это дело поднимает вопросы о прозрачности разработки систем ИИ, особенно на этапе исследований. Предлагаемый ЕС закон об ИИ признает необходимость прозрачности, но исключает из этого обязательства системы ИИ, используемые для биометрической категоризации, связанной с уголовными преступлениями.

Вердикт подчеркивает сохраняющееся противоречие между прозрачностью, общественными и коммерческими интересами в проектах ИИ.

#AILaw #Transparency #EUAIAct
Представляем вашему вниманию новый доклад Clifford Chance: "Ответственный ИИ на практике".

Здравствуйте, подписчики AI&Law! Компания "Клиффорд Чанс" опубликовала новый отчет "Ответственный ИИ на практике". Он проливает свет на растущие проблемы, связанные с использованием и влиянием искусственного интеллекта.

В документе, подготовленном в партнерстве с Milltown Partners, представлены результаты фокус-групп, проведенных в США, Великобритании и Германии. В ходе этих дискуссий рассматривались такие важнейшие вопросы ИИ, как предвзятость, согласие, прозрачность и управление.

Несмотря на оптимизм в отношении потенциала ИИ, очевидно, что еще предстоит работа по обеспечению его ответственного и безопасного применения.

#AI #CliffordChance #ResponsibleAI #AIandLaw #EthicalAI
ISO и IEC сделали общедоступным стандарт по искусственному интеллекту

Привет всем! Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC) выложили в открытый доступ важнейший стандарт по искусственному интеллекту ISO/IEC 22989.

Этот основополагающий документ определяет более 110 важнейших понятий ИИ, включая "наборы данных", "агенты ИИ", "прозрачность" и "объяснимость".

Стандарт ISO/IEC 22989 содержит концептуальные рекомендации для моделей обработки естественного языка (NLP) и компьютерного зрения (CV). Его цель - создать общий словарь, терминологию и рамки для концепций ИИ, способствующие плодотворным дискуссиям между заинтересованными сторонами.

Например, там даны следующие ключевые определения:
- Система ИИ
- Искусственный интеллект общего назначения
- Аудитор ИИ
- Надежность
- Объяснимость
- Предсказуемость
- Прозрачность
- Достоверность

По мере роста числа нормативных актов в области ИИ в мире стандартизация становится жизненно необходимой, особенно в условиях отсутствия глобального согласования нормативных формулировок.

#AIStandards #AI #ISO #IEC #AICcommunity
Канада: Срочный призыв к внесению изменений в о конфиденциальности и искусственном интеллекте

Привет всем! В Канаде в преддверии слушаний в комитете по законопроектам 45 групп, экспертов и ученых опубликовали открытое письмо. Письмо адресовано министру инноваций Франсуа-Филиппу Шампаню и содержит призыв к внесению существенных изменений в законодательство.

Высказывается обеспокоенность по поводу защиты фундаментальных прав на неприкосновенность частной жизни.

Среди основных рекомендаций письма - признание неприкосновенности частной жизни одним из основных прав человека в Канаде, устранение противоречий в регулировании ИИ, уточнение формулировок в законодательстве и проведение более широких консультаций с заинтересованными сторонами.

#PrivacyLegislation #AIRegulation #CanadaAIlaws
Google предоставляет владельцам веб-сайтов возможность контролировать данные, используемые ИИ

Привет всем! Компания Google представила новый инструмент под названием Google-Extended, позволяющий владельцам сайтов отказаться от использования своих данных для обучения моделей искусственного интеллекта Google, сохранив при этом доступ к ним через Google Search.

Этот инструмент предлагает решение для авторов, которые хотят, чтобы их сайты были видны в поиске Google, но предпочитают не предоставлять свои данные для разработки моделей искусственного интеллекта, таких как Bard и Vertex AI generative API.

Bard, ИИ-чатбот Google, проходил обучение на общедоступных веб-данных. С помощью Google-Extended владельцы сайтов теперь могут управлять участием своего сайта в этом процессе.

#AIandLaw #GoogleAI #WebPublishers #AIModels
Официальный представитель ЕС предостерегает от чрезмерного регулирования генеративного ИИ

Всем привет! Вице-президент Европейской комиссии Вера Йоурова предостерегла от чрезмерного регулирования генеративного ИИ, подчеркнув, что законодательство, основанное на страхе, может помешать инновациям. Йоурова подчеркнула, что риски ИИ должны оцениваться на основе тщательного анализа, а не беспочвенных страхов.

Она признала, что чрезмерное регулирование действительно может затормозить технологические и деловые инновации. ЕС находится в авангарде регулирования ИИ, однако такие страны, как США и Китай, также рассматривают возможность введения собственных мер контроля. В Великобритании в следующем месяце пройдет глобальный саммит по регулированию ИИ.

Высказывания Йоуровой совпали с текущими переговорами по доработке закона об ИИ в ЕС. Возникла обеспокоенность в связи с тем, что генеративный ИИ может создавать дипфейки и нарушать авторские права.

В то время как ЕС первоначально сосредоточился на регулировании рисков ИИ, Европейский парламент ввел юридические обязательства для создателей генеративных моделей, таких как ChatGPT. Теперь они должны раскрывать информацию о контенте, генерируемом ИИ, и предоставлять информацию о данных, защищенных авторским правом, которые использовались при обучении, а также бороться с дезинформацией и нелегальным контентом.

Йоурова стремится позиционировать модель ЕС как ведущий пример регулирования ИИ во всем мире.

#AIandLaw #AIRegulation #GenerativeAI #Innovation
FTC высказали опасения связанные с ИИ

Здравствуйте, дорогие подписчики! Управление по технологиям Федеральной торговой комиссии США в своем недавнем посте обратилось к растущим опасениям потребителей по поводу искусственного интеллекта. Эти опасения охватывают весь жизненный цикл ИИ - от его создания до использования в реальной жизни третьими лицами.

Среди ключевых вопросов - обширный сбор данных, необходимый для обучения моделей ИИ, и различные аспекты взаимодействия пользователей с системами ИИ.

#AIandLaw #AIConcerns #FTC #ArtificialIntelligence
🌟Воскресные чудеса ИИ: расшифровка эмоций цыпленка 🐓

Всем привет! Вы когда-нибудь задумывались, о чем кудахчет ваша болтливая курица? Японские ученые, возможно, знают ответ. Они разработали модель ИИ, которая может интерпретировать эмоции курицы по ее вокализации с точностью до 80%.

Для обучения этого ИИ ученые записали 80 кур в различных ситуациях и привлекли группу специалистов по поведению животных и ветеринаров, чтобы получить представление об эмоциональном состоянии птиц. Затем они скормили искусственному интеллекту 100 часов аудиозаписей, соответствующих шести различным эмоциям. Когда ИИ было предоставлено еще 100 часов записей, он правильно определил эмоцию в 80% случаев.

Это новаторское исследование не только проливает свет на чувства птиц, но и открывает путь к улучшению коммуникации между человеком и животными. Ученые планируют создать бесплатное приложение, которое поможет птицеводам лучше понимать своих пернатых друзей, и надеются расширить свое исследование, чтобы декодировать эмоции других животных.

#AIScience #AnimalEmotions #ChickenTalk #AIInnovation
Sony AI призывает к многомерной оценке предвзятости ИИ, включая оттенки кожи

Компания Sony AI предлагает более инклюзивный подход к оценке предвзятости ИИ, призывая учитывать различные оттенки кожи. Этот шаг призван стимулировать этические дискуссии при разработке ИИ.

В то время как инициативы по обеспечению справедливости ИИ были направлены в основном на снижение предвзятости, связанной со светлым или темным цветом кожи, последние исследования Sony AI выступают за более широкую перспективу. Для создания более этичных и разнообразных систем ИИ предлагается наряду с традиционными оттенками кожи оценивать красные и желтые оттенки.

Это этическое исследование направлено на решение проблемы предвзятости ИИ и продвижение систем ИИ, которые дают точные результаты независимо от цвета кожи пользователей. Google и Amazon проявили интерес к результатам исследований Sony, что свидетельствует о коллективном стремлении к созданию более этичного и инклюзивного ИИ.

#AIEthics #InclusiveAI #EthicalAI #AIandEthics
Европейская комиссия поддержала голландскую систему надзора за искусственным интеллектом

Всем привет! Европейская комиссия оказывает помощь Нидерландам в создании национальной системы надзора за искусственным интеллектом. Стремительный рост технологий ИИ опережает развитие нормативно-правовой базы, что создает проблемы с обеспечением безопасности и соблюдением этических норм. Для решения этой проблемы Комиссия в сотрудничестве с ЮНЕСКО запустила проект по оказанию технической поддержки Голландскому управлению по цифровой инфраструктуре.

В рамках этой инициативы будет проведена оценка существующих систем надзора за ИИ, предложены лучшие практики, созданы сценарии надзора и даны практические рекомендации для голландского ведомства. К участию в проекте будут привлечены и другие компетентные органы ЕС для совместного решения сложных задач по надзору за технологиями ИИ.

Этот проект согласуется с готовящимся к принятию Законом об искусственном интеллекте - первым в ЕС нормативным актом в области ИИ, призванным расширить исследовательский и промышленный потенциал, обеспечив при этом защиту основных прав и безопасность. После его принятия будут установлены первые в мире правила в области ИИ.

#AIRegulation #EuropeanAI #AIInnovation
Знаменитые писатели подали в суд на OpenAI за несанкционированное копирование книг

Привет всем! Известные авторы, в том числе Джордж Р.Р. Мартин и Джон Гришэм, подали коллективный иск против компании OpenAI, утверждая, что их произведения были использованы без разрешения для обучения моделей ИИ типа GPT 3.5 и GPT 4. В иске утверждается, что использование OpenAI набора данных Books3 представляет собой "систематическое воровство в массовом масштабе".

Гильдия авторов, представляющая интересы писателей, утверждает, что такое несанкционированное копирование влияет на их способность зарабатывать на жизнь, поскольку созданный искусственным интеллектом контент имитирует их стиль написания. Они требуют возмещения ущерба за упущенные возможности лицензирования, судебного запрета для предотвращения дальнейших нарушений, а также компенсации за упущенные продажи книг.

OpenAI ведет переговоры с Гильдией авторов и надеется на выработку взаимовыгодных решений. Иск является частью более широкой деятельности Гильдии авторов, в которую входят аналогичные иски против Meta и Google, направленные на выявление потенциального пиратства, используемого для обучения больших языковых моделей.

#Copyright #AI #AuthorsGuild #OpenAI
В Великобритании возбудили дело против компании Snap из-за чатбота с ИИ

Привет всем! Управление уполномоченного по информации Великобритании (ICO) направило предписание в адрес Snap, материнской компании Snapchat. Это требование может заставить компанию Snap прекратить обработку данных, связанных с ее чат-ботом с искусственным интеллектом My AI, для пользователей из Великобритании, если не будет проведена адекватная оценка рисков.

Предварительное расследование ICO показало, что первоначальная оценка рисков, проведенная перед запуском My AI, не дала достаточной оценки рискам защиты данных, особенно в отношении детей. В результате от компании Snap может потребоваться приостановить выпуск продукта My AI в Великобритании до устранения этих проблем.

#Snap #AI #DataProtection #ICO #UKRegulation
ENNHRI предлагает рекомендации по Закону ЕС об искусственном интеллекте

Всем привет! Европейская сеть национальных правозащитных институтов (ENNHRI) выпустила основные рекомендации по усилению защиты фундаментальных прав в эпоху искусственного интеллекта, уделив особое внимание Закону ЕС об искусственном интеллекте. Их предложения включают четкую классификацию систем ИИ, представляющих повышенный риск, и минимальные исключения для запретов.

ENNHRI подчеркивает необходимость обязательств, выходящих за рамки поставщиков ИИ, и поощряет международное сотрудничество за пределами ЕС. Они призывают к созданию всеобъемлющей системы, охватывающей базовые модели, ИИ общего и двойного назначения, с особыми правилами для исследовательской деятельности.

Организация также сообщает о важности эффективного надзора путем сотрудничества с национальными правозащитными институтами, повышения прозрачности, подотчетности и создания механизмов возмещения ущерба для систем ИИ. Они препятствуют вредному и дискриминационному наблюдению со стороны органов национальной безопасности, правоохранительных органов и миграционных служб.

#AIRegulation #HumanRights #AIEthics