HCAI // Регулирование ИИ
1.31K subscribers
189 photos
1 video
14 files
443 links
HCAI (Humancentric AI) – Центр человекоцентричного искусственного интеллекта.

Все о трендах правового и этического регулирования и ключевых событиях в сфере ИИ.
Download Telegram
📱 OpenAI обновила Preparedness Framework

15 апреля OpenAI опубликовала новую версию Preparedness Framework – внутренней системы оценки и управления рисками, связанными с «передовыми» ИИ-моделями. Обновление отражает подготовку к запуску систем нового уровня, которые уже возможно будут способны причинить какой-либо вред — от массовых кибератак до ускоренного биоинжиниринга.

1️⃣ Появилась новая категория рисков.
AI self-improvement - теперь OpenAI отслеживает, может ли модель ускорить собственное развитие или R&D-процессы.

2️⃣ Приведены четкие критерии приоритизации и оценки рисков.
Приоритетными для отслеживания считаются риски, которые являются возможными, измеримыми, серьёзными, новыми по характеру и мгновенными или необратимыми.

3️⃣ Обновлены категории способностей моделей в соответствии с новой приоритизацией рисков.
👀 Отслеживаемые категории — уже зрелые направления, по которым существуют системы оценки и меры защиты: биологические и химические угрозы, кибербезопасность.
🔬 Исследовательские категории — потенциально опасные направления, пока не достигшие уровня отслеживаемых. Среди них полная автономия и ядерная угроза.

4️⃣ Разработка автоматических тестов.
Хотя ручное тестирование не отменено полностью, компания развивает «набор автоматических оценок», которые позволяют сохранить высокую скорость релизов.

5️⃣ Реакция на изменения в ландшафте ИИ.
Если другая лаборатория выпустит высокорисковую модель без достаточных мер защиты, OpenAI может скорректировать свои требования к безопасности. Но при этом:
✔️Должно быть подтверждено изменение ландшафта рисков;
✔️Изменение будет публично признано;
✔️Будет подтверждено, что оно не увеличивает общий риск;
✔️Уровень защиты останется выше базового.

📎 С полным документом можете ознакомиться по ссылке.

#AI #Safety #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍6🔥4🙏1
📇 Apple и Meta*: подходы к обучению ИИ на пользовательских данных

Сразу две крупные технологические компании – Apple и Meta – заявили об обновлении своих стратегий по обучению ИИ на пользовательском контенте.

📱 Apple Inc., как правило, обучает свои модели ИИ на синтетических данных, однако такие данные не всегда точно отражают поведение реальных пользователей, что затрудняет корректную работу ИИ-систем.

Поэтому компания решила прибегнуть к использованию персональных данных, не пренебрегая мерами обеспечения конфиденциальности:
🔵данные пользователей анализируются локально на устройствах,
🔵не передаются на серверы,
🔵не используются напрямую для обучения моделей.

Вместо этого компания будет сравнивать синтетические данные с реальными примерами – например, письмами в почтовом приложении – чтобы улучшить качество функций генерации текста.

📱 Meta, в свою очередь, официально возобновляет обучение ИИ на основе публичного контента пользователей в ЕС — включая посты и комментарии совершеннолетних пользователей Facebook и Instagram.

Компания утверждает, что в декабре коллегия европейских регуляторов по защите данных подтвердила соответствие её изначального подхода юридическим требованиям.

🫸 Пользователи также смогут отказаться от использования своих данных через специальную форму, и Meta обещает учитывать все возражения.

* Meta признана в России экстремистской организацией и запрещена

#AI #Data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥2🤩1
🇺🇸 Федеральная торговая комиссия США поддерживает курс поддержки развития ИИ

При новом главе FTC Эндрю Фергюсоне комиссия взяла курс на снижение регуляторного давления на ИИ-компании. Член FTC Мелисса Холяк заявила, что чрезмерные ограничения на сбор данных для обучения моделей могут затормозить инновации и дать преимущество крупным игрокам.

📈 Риски для малого бизнеса:
🔵Требование явного согласия пользователей на использование их данных может ударить по стартапам (люди чаще доверяют Google, чем неизвестным компаниям).
🔵США хотят сохранить лидерство в ИИ, но без «дикого» сбора данных, как в Китае.
🔵При прошлом руководстве FTC регулятор жёстко преследовал нарушения, называя обучение ИИ «новой слежкой».

↗️ FTC планирует:
🔵Упростить доступ к данным для ИИ-разработчиков, но без крайностей.
🔵Бороться с брокерами, продающими геоданные американцев (особенно иностранным государствам).
🔵Сделать регулирование предсказуемым, чтобы бизнес мог инвестировать в ИИ без страха внезапных штрафов.

❗️Таким образом, Федеральная торговая комиссия продолжает курс Дональда Трампа на снятие избыточных барьеров, мешающих развитию инноваций в сфере ИИ, который был установлен январским указом «Removing Barriers to American Leadership in Artificial Intelligence».

#AI #Regulation #USA #FTC #Data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍75🙏4🔥1💯1
🇨🇳 Китай запускает трёхмесячную кампанию против злоупотреблений ИИ

30 апреля Главное управление по делам киберпространства КНР объявило о кампании по борьбе с незаконным использованием ИИ.

🎯 Цель – усилить контроль над ИИ-сервисами и обеспечить «здоровое и упорядоченное развитие» отрасли.

Этап 1️⃣:
🔵удаление нелегальных ИИ-приложений,
🔵пресечение клонирования биометрических данных человека без его согласия,
🔵борьба с продажей нелегальных ИИ-инструментов (например, позволяющих подменять лица),
🔵контроль над соблюдением требований по обязательной маркировке AI-контента.

Этап 2️⃣:
🔵удаление дипфейков в сферах образования, правосудия, здравоохранения и финансов,
🔵пресечение распространения порнографического и насильственного ИИ-контента,
🔵борьба с распространением контента, наносящего вред детям, умершим или публичным лицам.

❗️Кампания продлится три месяца и охватит все регионы страны. Власти нацелены не только на контроль, но и на создание основ для устойчивого и этичного применения ИИ в долгосрочной перспективе.

#AI #Regulation #China
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥5💯42🤔1
🇺🇸 Республиканцы предлагают запретить штатам США регулировать ИИ на 10 лет

В Палате представителей США обсуждается поправка в бюджетный законопроект, предложенная республиканцами, которая на 🔟 лет лишит штаты права вводить или применять законы, регулирующие ИИ и автоматизированные системы принятия решений.

Исключение — законы, направленные на устранение правовых барьеров или развитие таких технологий.

Этот шаг стал ответом на волну инициатив по защите прав граждан от автоматизированных решений в сфере найма, аренды жилья и социальных выплат.
🔵В Нью-Йорке принят закон, требующий проверки на предвзятость в алгоритмах найма.
🔵А в Калифорнии – правила информирования пациентов о взаимодействии с генеративным ИИ.
❗️Принятие рассматриваемого законопроекта сделает эти законы недействительными.

💬 Эксперты называют инициативу попыткой защитить крупнейшие ИИ-компании от любой формы ответственности.

#AI #Regulation #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74🔥4
🇪🇺 Исследование EUIPO по авторскому праву и генеративному ИИ в Евросоюзе

Европейское ведомство интеллектуальной собственности (EUIPO) представило исследование о взаимодействии технологий генеративного ИИ с авторским правом.

🔍 Основные выводы исследования:

1️⃣ Доступ к качественному контенту – основа для обучения GenAI
Модели ИИ требуют большого объёма данных для обучения, что стимулирует формирование рынка лицензирования контента.

2️⃣ Механизмы защиты авторских прав в процессе обучения ИИ
🔵На этапе ввода данных правообладатели могут использовать опт-аут (технический или юридический запрет на использование данных), чтобы исключить свои данные из процесса парсинга (text and data mining).
🔵На этапе вывода данных стоит указывать, что контент был сгенерирован ИИ.

3️⃣ Роль государственных институтов
Национальные IP-ведомства и EUIPO могут:
🔵Обеспечивать техническую поддержку для реализации правовых механизмов;
🔵Содействовать прозрачности использования ИИ;
🔵Повышать осведомлённость о способах защиты авторских прав и предоставлять актуальную информацию о новых решениях.

⚙️ В докладе также изучены некоторые технические решения для защиты авторских прав:
1️⃣TDM Reservation Protocols – протоколы, позволяющие правообладателям автоматически отказаться от использования их данных в обучении ИИ.
2️⃣Content Authenticity Initiatives – меры по проверке и маркировке контента, созданного ИИ.
3️⃣Valuenode и Liccium Trust Engine – платформы для управления авторскими правами в условиях цифровой трансформации.

👍 Более того, в рамках Стратегического плана 2030 EUIPO планирует запустить к концу 2025 года Центр знаний по авторскому праву для содействия обмену информацией между правообладателями, разработчиками ИИ и регуляторами и развитию механизмов лицензирования и защиты интеллектуальной собственности.

#AI #Regulation #Copyright #IP #GenAI #EUIPO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84🙏3
🇺🇸 В США вступил в силу федеральный закон против сексуализированных дипфейков

Президент США подписал Take It Down Act, запрещающий публикацию в интернете откровенных изображений и видео без согласия изображённых лиц, в том числе сгенерированных ИИ.

Что предусматривает закон:
🔵уголовную ответственность за распространение и даже угрозу публикации,
🔵обязательные компенсации жертвам,
🔵обязанность сайтов удалить такие изображения в течение 48 часов после обращения.

Дональд Трамп на подписании законопроекта заявил:
«С развитием ИИ всё больше женщин сталкиваются с дипфейками и интимными изображениями, распространяемыми без их согласия. Это не просто неправильно – это вопиюще несправедливо. И с сегодняшнего дня это незаконно».


ℹ️ Большинство штатов уже имеют законы против сексуализированных дипфейков, но они различаются по формулировкам и санкциям. Take It Down Act стал первым масштабным федеральным шагом в этой области.

#AI #Regulation #USA #Deepfakes
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍4💯1
🇪🇺 Европейский AI Office опубликовал результаты консультаций по определению ИИ и запрещенным практикам

Отчёт подготовлен Центром европейских политических исследований (CEPS) по итогам двух публичных консультаций по ключевым статьям AI Act:
🔵определению систем ИИ (ст. 3(1)),
🔵перечню запрещённых практик (ст. 5).

Касательно определения ИИ участники консультаций призвали уточнить, что считать:
адаптивностью,
автономностью,
инференцией (способностью делать выводы из входных данных).

⚠️ Есть риск, что под определение ИИ попадут обычные программы (например, Excel с формулами). Предлагается установить порог сложности программ и публиковать примеры систем, не являющихся ИИ.

Наибольшее беспокойство вызвали следующие ИИ-практики:
🟥распознавание эмоций (особенно в образовании и HR),
🟥социальный рейтинг,
🟥удалённая биометрическая идентификация в реальном времени,
🟥манипулятивные техники (в рекламе, кредитовании и соцсетях).

Также непонятными для ИИ-компаний остались следующие моменты:
что значит «значительный вред»,
как отличить законное влияние от манипуляции,
где проходит граница между оценкой рисков и запрещённым прогнозированием преступности,
как разграничить ответственность между разработчиком и пользователем ИИ.

Малые компании сообщили о рисках чрезмерной регуляторной нагрузки – от них поступил запрос на практические гайды, шаблоны и государственную поддержку регулятора.

📝 На основе консультаций Еврокомиссия готовит разъяснения, которые помогут применять AI Act на практике. Первые версии ожидаются уже в 2025 году, но в будущем они будут уточняться по мере накопления кейсов и вопросов.

#AI #Regulation #EU #AIAct
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥3🤔31
🇯🇵 В Японии принят закон об искусственном интеллекте

Палата советников парламента Японии 28 мая утвердила первый всеобъемлющий закон, направленный на продвижение разработки и безопасного использования ИИ.

Согласно закону будет создан центральный координационный орган по вопросам ИИ, а также отдельной командой, в которую войдут все министры Кабинета, будет разработана национальная стратегия по ИИ.

🎯 Цели закона:
1️⃣ускорить внедрение ИИ в экономику,
2️⃣обеспечить защиту прав граждан,
3️⃣сформировать доверие к ИИ-технологиям,
4️⃣повысить международную конкурентоспособность Японии.

🏦Санкции
Закон не содержит штрафов, чтобы не препятствовать инновациям. В случае инцидентов, связанных с нарушением прав граждан, правительство может:
🔵проводить расследования;
🔵консультировать и направлять рекомендации бизнесу;
🔵информировать общественность.

Закон сопровождается дополнительной резолюцией, в которой предусмотрены базовые принципы развития и использования ИИ:
✔️прозрачность,
✔️этичность,
✔️учет человеческого достоинства,
✔️открытость и международное сотрудничество.

🧑‍⚖️ В части ответственности резолюция требует ужесточения мер против дипфейков, особенно в случае порнографии с участием несовершеннолетних.

❗️Закон не накладывает обязательных требований, но задаёт рамки для будущей политики. Это мягкая модель регулирования (в отличие от AI Act в Евросоюзе), ориентированная на поддержку инноваций и минимизацию рисков.

#AI #Regulation #Japan
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍5💯3🤔1
🎙️ Global Digital Forum 2025: обсуждаем будущее ИИ вместе с мировыми экспертами

6 июня в рамках Global Digital Forum 2025 пройдут 2️⃣ ключевые сессии с участием экспертов из России и других стран — о практическом применении ИИ и доверии к технологиям в эпоху глобальной нестабильности.

👍 ИИ во благо: прикладное применение ИИ для обеспечения равных возможностей
🔜09:00 – 10:15 (МСК)

За последнее десятилетие ИИ стал ключевой технологией цифровой трансформации, но его стремительное развитие породило и риски. Как внедрять ИИ в здравоохранении, образовании и других сферах на благо человека? Где пролегает граница между инновациями и регулированием?

Модератор:
🔹Андрей Незнамов — управляющий директор Центра человекоцентричного AI, ПАО Сбербанк (Россия)

Спикеры:
🔵Антон Владзимирский — заместитель директора по научной работе, Научно-практический клинический центр диагностики и телемедицинских технологий Департамента здравоохранения Москвы (Россия)
🔵Ван Ицзин — руководитель направления международной кооперации, Центр экспертизы Глобального индустриального ИИ-альянса при поддержке ЮНИДО (Китай)
🔵Рафаэль Луис Торралбас Эзпелета — президент Научно-технологического парка Гаваны (Куба)
🔵Сейдзо Оноэ — директор Бюро стандартизации Международного союза электросвязи (МСЭ) (Япония)
🔵Джабраил Матиев — директор по маркетингу в России и странах СНГ (Россия)
🔵Кебеде Самуэль Рахимето — руководитель подразделения по интерпретируемому ИИ и обучению с подкреплением, Эфиопский институт искусственного интеллекта (Эфиопия)
🔵Флип де Брюйн — основатель и генеральный директор Future CC, член правления Международной федерации киберспорта, Намибия

🛡️ Доверенный ИИ в эпоху глобального недоверия: технологии, этика и культурная адаптация
🔜 10:30 – 11:45 (МСК)

Эксперты постараются ответить на вопрос: «Как сделать ИИ по-настоящему безопасным, этичным и учитывающим локальные особенности?».

Модератор:
🔹Андрей Незнамов — управляющий директор Центра человекоцентричного AI, ПАО Сбербанк (Россия)

Спикеры:
🔵Мехди Снене — старший советник по искусственному интеллекту и цифровой трансформации, Канцелярия посланника Генерального секретаря ООН по технологиям
🔵Хабиб Мохаммед — руководитель Центра передового опыта в области ИИ и робототехники, Аддис-Абебский научно-технический университет (Эфиопия)
🔵Алексей Саврасов — руководитель проектов по цифровой трансформации и ИИ, ЮНИДО (Австрия)
🔵Шэнь Хао — заместитель главного технолога, Шанхайский исследовательский институт в сфере ИИ (SAIRI) (Китай)
🔵Гектор Родригес — вице-Президент Научно-технологического парка Гаваны (Куба)
🔵Дмитрий Служеникин — советник генерального директора по специальным проектам, АНО «Национальный технологический центр цифровой криптографии» (Россия)
🔵Анна Абрамова — директор Центра ИИ МГИМО (Россия)

📡 Смотрите трансляцию по ссылке: https://gdfconf.com/

#ИИ #AI #GlobalDigitalForum #GDF2025 #TrustworthyAI #AIethics
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍5👏5
📱 OpenAI запускает международную инициативу OpenAI for Countries в рамках проекта Stargate

Компания объявила о запуске программы OpenAI for Countries – новой инициативы по поддержке стран, стремящихся развивать ИИ в соответствии с демократическими принципами. Это расширение проекта Stargate, ранее анонсированного Дональдом Трампом: он предусматривает строительство суперкомпьютерных кампусов в Техасе и других регионах США.

По словам OpenAI, всё больше стран обращаются с запросами о создании у себя аналогов Stargate. Компания подчёркивает, что такого рода инфраструктура уже становится основой будущего экономического роста и технологического суверенитета.

Что предлагает OpenAI странам-партнёрам:
Создание национальных дата-центров, которые обеспечат суверенитет данных и безопасную персонализацию ИИ-продуктов под культуру и язык страны.
Адаптацию ChatGPT под нужды граждан для разных сфер с учетом культурного кода конкретной страны.
Развитие мер безопасности - компания готова к совместной работе по внедрению демократических механизмов глобального ИИ-управления.
Формирование национального AI-фонда, в который вложатся и OpenAI, и местное правительство.

В 1️⃣этапе компания планирует запустить 1️⃣0️⃣ международных проектов. Каждое партнёрство будет адаптировано под конкретную страну: где-то потребуется помощь в оптимизации уже строящейся инфраструктуры, а где-то – полное её создание с нуля.

#AI #Regulation #USA #Stargate
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🔥2
🇪🇺 Суд ЕС впервые разберётся, нарушает ли генеративный ИИ авторское право

Суд ЕС рассмотрит дело Like Company против Google Ireland (C-250/25), в котором венгерское издательство обвиняет чат-бота Gemini в незаконном использовании охраняемого авторским правом контента. Gemini якобы сгенерировал пересказ статьи, включающий существенные фрагменты оригинального текста, без разрешения правообладателя.

Суду предстоит ответить на следующие важные вопросы:
1️⃣Считаются ли такие действия публичным сообщением или воспроизведением?
2️⃣Подпадает ли обучение LLM под исключение для text and data mining (автоматизированного анализа текста и данных)?
3️⃣Требует ли каждый ответ ИИ разрешения правообладателя, если в нём есть охраняемые авторским правом элементы?

В зависимости от решения, разработчикам ИИ может потребоваться заключение лицензий со всеми правообладателями, особенно при работе с новостным контентом, что повлияет на весь рынок: от стартапов до крупнейших ИИ-платформ.

‼️ Особенно важно, что Суд должен дать толкование ст. 4 Директивы 2019/790, регулирующей парсинг данных, в том числе для коммерческих целей. Данное решение станет прецедентом, влияющим на разработку, коммерциализацию и регулирование ИИ во всей Европе.

#AI #Regulation #EUIPO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👏3🔥21
🎬 Disney и Universal подали в суд на Midjourney

Две крупнейшие голливудские студии обвинили Midjourney в массовом нарушении авторских прав. В иске, поданном в федеральный суд Лос-Анджелеса, утверждается, что «бездонная яма плагиата» (так они назвали ИИ-сервис) генерирует изображения, копирующие персонажей вроде Дарта Вейдера, Эльзы, миньонов, Человека-паука, Халка и других.

💬 Юрисконсульт Disney Хорасио Гутьеррес отметил:
«Мы оптимистично смотрим на возможности ИИ как инструмента, способного раскрывать человеческое творчество. Но пиратство остаётся пиратством — даже если его совершает ИИ-компания»


Midjourney, по данным иска, заработала 3️⃣0️⃣0️⃣💲 млн в 2024 году и готовит запуск видеосервиса. Студии утверждают, что:
1️⃣генерируемые изображения мало отличаются от оригиналов, за исключением фонов и деталей,
2️⃣и не имеют признаков творческой переработки.

Просьбы прекратить использование Midjourney игнорировала, а поданный иск никак не прокомментировала.

❗️Это первый подобный иск со стороны голливудских гигантов. При этом индустрия развлечений сама активно применяет ИИ (например, для омоложения актёров или синтеза голосов), но требует чётких гарантий от пиратства.

#AI #Copyright #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73🔥2
🧑‍⚖️ Штаты продолжают принимать законы, регулирующие ИИ

🗽 16 июня сенат Нью-Йорка принял закон «О безопасном и ответственном ИИ и просвещении» (Responsible AI Safety and Education – RAISE Act), который устанавливает обязательные требования к прозрачности и безопасности передовых моделей ИИ.

💬 Сенатор штата Нью-Йорк Эндрю Гунардес, один из авторов закона RAISE, отметил, что:
Цель не в том, чтобы тормозить инновации, а в том, чтобы обеспечить их безопасное и ответственное развитие.


При этом закон обязывает ИИ-компании:
🔵публиковать отчёты по принятым мерам безопасности;
🔵сообщать об инцидентах, связанных с их моделями (например, о генерации вредоносных ответов или об утечке данных).

Закон предусматривает штрафы до 3️⃣0️⃣ млн долларов США за несоблюдение требований.

🤠 А 22 июня в Техасе был подписан законопроект о безопасном управлении ИИ: Texas Responsible Artificial Intelligence Governance Act (TRAIGA). Закон устанавливает требования к раскрытию информации, содержит запреты на определённые виды использования ИИ и вводит санкции за нарушение.

Основные положения TRAIGA:
🔵запрет гос органам использовать ИИ для биометрической идентификации лиц и социального скоринга в отсутствие их согласий;
🔵запрет пользователям использовать ИИ для поощрения насилия, дискриминации и распространения детской порнографии;
🔵создание Совета по ИИ Техаса (консультативного органа по правовым и этическим вопросам)
🔵запуск регуляторных песочниц;
🔵обязанность ИИ-компаний уведомлять генерального прокурора штата обо всех инцидентах.

Закон предусматривает штрафы до 2️⃣0️⃣0️⃣ тысяч долларов или 4️⃣0️⃣ тысяч долларов в день, если речь идет о продолжающемся нарушении.

При этом нарушитель освобождается от ответственности, если:
🔵ИИ был неправомерно использован третьим лицом;
🔵нарушение выявлено в ходе внутреннего аудита или тестирования;
🔵соблюдены положения Рамочной структуры управления рисками ИИ от NIST или аналогичных стандартов.

🤔 Интересно, что, несмотря на федеральную инициативу ввести мораторий на законы штатов о регулировании ИИ, новые законы продолжают приниматься.

#AI #Regulation #RAISE #TRAIGA #NewYork #Texas #Governance
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥4💯32
🧩 Отчет Института Алана Тьюринга о влиянии генеративного ИИ на детей

Институт Алана Тьюринга опубликовал отчет «Understanding the Impacts of Generative AI Use on Children» о влиянии генеративного ИИ на детей: от использования в обучении до повседневного общения с чат-ботами.

⚡️Основные угрозы:
🔵снижение автономии и критического мышления
🔵генерация токсичного или предвзятого контента
🔵утечка личных данных и манипуляция поведением детей
🔵подмена человеческого взаимодействия

👩‍🎓 Потенциальная польза при контроле со стороны взрослых возможна по следующим направлениям:
🔵адаптивное и персонализированное обучение
🔵помощь детям с особенностями развития
🔵стимулирование творческого мышления

👍 В отчете также содержаться рекомендации для всех заинтересованных сторон:
🔵запрет таргетированной рекламы для детей
🔵тестирование ИИ на возрастную восприимчивость
🔵обучение цифровой грамотности в школах
🔵разработка ИИ-продуктов по принципу «безопасность по умолчанию»

#AI #Kids #Ethics #Regulation
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍2🔥2💯1
🧑‍⚖️ Обзор главных судебных дел прошедшей недели

На прошлой неделе сразу несколько громких судебных дел задали важные ориентиры в области IP и GenAI.

🖥 Anthropic
Федеральный судья США Уильям Олсап постановил, что обучение модели Claude на официально купленных книгах, защищенных авторским правом, не нарушает интересы правообладателей, поскольку использование произведений, полученных законным путем, для обучения больших языковых моделей признано добросовестным (fair use). Суд отметил, что Claude не воспроизводит оригинальные тексты книг и не копирует авторский стиль.
Однако отдельно будет рассмотрен вопрос ответственности компании за первоначальное скачивание этих книг с пиратских ресурсов.

📱 Meta*
Другой федеральный судья, Винс Чхабрия, отклонил аналогичный иск 1️⃣3️⃣ известных писателей против Meta, заявив, что истцы представили «неверные аргументы». Но он отдельно подчеркнул, что данное решение не подтверждает законность действий Meta, а лишь показывает слабость конкретного иска.
В своём иске авторы утверждали, что компания несёт «ответственность за массовые нарушения авторских прав», поскольку она загружала их книги из онлайн-хранилищ пиратских материалов, обучая свою генеративную модель Llama.

📱 Microsoft
На этом фоне Microsoft столкнулась с новым судебным разбирательством. Группа авторов обвинила компанию в использовании пиратских цифровых копий почти 200 тысяч книг при обучении модели Megatron. В иске подчёркивается, что Megatron создан для генерации текстов, имитирующих стиль, тематику и структуру оригинальных произведений. Авторы требуют компенсацию до 150 тысяч долларов за каждую книгу, использованную Microsoft незаконно.

❗️Эти судебные разбирательства важны тем, что формируют правовые ориентиры и границы использования защищённых авторским правом материалов при разработке и обучении генеративных моделей ИИ.

* Meta признана в России экстремистской организацией и запрещена

#AI #IP #Copyright #Anthropic #Meta #Microsoft #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍42
🇺🇸США рассмотрят полный запрет китайского ИИ в госструктурах

25 июня в Конгресс США был внесён законопроект «No Adversarial AI Act», который запрещает использование в федеральных агентствах ИИ-моделей, разработанных в Китае.

В чёрный список также попадут модели из:
🇷🇺 России
🇮🇷 Ирана
🇰🇵 КНДР

Что предлагает законопроект:
🔵 запрет на закупку и использование ИИ из «враждебных стран» в исполнительной власти
🔵 создание официального реестра таких моделей, который будет регулярно обновляться
🔵 возможность внести исключения, например, для научных исследований, но только с разрешения Конгресса или Административно-бюджетного управления
🔵 механизм «реабилитации»: компания может быть исключена из списка, если докажет, что не находится под контролем враждебного государства

📌 Поводом для инициативы стали подозрения в том, что китайская компания DeepSeek может быть связана с военными и разведывательными структурами КНР.

#AI #Regulation #USA
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍43
🇷🇺 БРИКС принял Декларацию о глобальном управлении ИИ

Лидеры стран БРИКС подписали декларацию, в которой призвали выработать международные принципы регулирования ИИ с опорой на инклюзивность, устойчивое развитие и права человека.

Ключевые положения Декларации:
ИИ должен служить интересам всех стран без исключений;
управление технологиями должно быть представительным, прозрачным и безопасным, в рамках норм ООН и национальных законов;
БРИКС выступает против фрагментации усилий по ИИ на международной арене;
сделан акцент на развитии открытых моделей, научном и технологическом сотрудничествн, а также на разработке международных стандартов;
особо отмечена необходимость осторожного подхода к сильному ИИ (Artificial General Intelligence, AGI).

🇺🇳 Страны БРИКС намерены выработать общую позицию и активизировать усилия по участию в глобальном диалоге по управлению ИИ под эгидой ООН.

#AI #Regulation #BRICS #UN
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍4👏2
📱Независимые издатели подали жалобу на Google из-за AI Overviews

30 июня альянс независимых издателей направил в Еврокомиссию антимонопольную жалобу на Google, обвинив компанию в злоупотреблении доминирующим положением из-за функции AI Overviews - ИИ-сводок, которые Google размещает над обычными ссылками в поиске.

В жалобе говорится, что:
🔵Google использует материалы издателей для генерации сводок без возможности их отказа (иначе сайт понижается в поисковой выдаче);
🔵AI Overviews снижают трафик и доходы независимых СМИ;
🔵позиционирование таких сводок в топе поиска нарушает принципы честной конкуренции.

📌 Издатели требуют срочно ввести временные меры, чтобы избежать необратимого ущерба для конкуренции и обеспечить доступ к оригинальному контенту.

🇬🇧Аналогичная жалоба также направлена и в антимонопольный орган Великобритании.

💬 Google отвечает, что ежедневно перенаправляет миллиарды кликов на сайты, а данные о потере трафика «искажены».
«Новые функции ИИ в поиске позволяют людям задавать больше вопросов, что создаёт дополнительные возможности для контента и бизнеса», — сказал представитель компании.


#AI #Regulation #Antitrust #EU #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4💯2
🇪🇺 Евросоюз опубликовал Кодекс практики ИИ общего назначения

10 июля Европейская комиссия представила Кодекс практики ИИ общего назначения — добровольный инструмент, призванный помочь разработчикам моделей ИИ общего назначения (GPAI) подготовиться к требованиям AI Act, которые вступят в силу с 2 августа 2025 года.

Кодекс разработан 1️⃣3️⃣ независимыми экспертами при участии 1000+ заинтересованных сторон: от Big Tech до НКО.

🎯 Цель документа – его соблюдение должно позволить разработчикам снизить регуляторную нагрузку и проще подтвердить соответствие AI Act.

Структура:
1️⃣ Прозрачность — содержит шаблон для документации модели по ст. 53 AI Act.
2️⃣ Авторское право — предлагает решения в части разработки и внедрения политики, соответствующей законодательству ЕС в области охраны исключительных прав.
3️⃣ Безопасность и защита — описывает современные передовые практики по управлению системными рисками и предназначена только для разработчиков наиболее продвинутых моделей, подпадающих под ст. 55 AI Act (системные риски).

❗️Важно отметить, что финальная версия Кодекса стала более гибкой: теперь по ряду положений ИИ-поставщики могут выбирать способ соответствия или следовать рекомендациям, а не строго заданным требованиям.

📈 Следующие шаги:
🔵После одобрения Кодекса Еврокомиссией и странами ЕС компании смогут официально подписывать его в добровольном порядке.
🔵До конца июля Еврокомиссия также опубликует разъясняющие рекомендации, которые помогут понять, кто именно попадает под новые правила.

#AI #Regilation #EU #AIAct #GPAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍431