ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
Исследование на соответствие Закону об ИИ

Исследователи Стэнфордского университета провели оценку основных поставщиков базовых моделей, включая OpenAI и Google, на предмет их соответствия версии Закона об ИИ, предложенной Европейским парламентом. Результаты показали, что в настоящее время эти провайдеры не полностью соответствуют требованиям Закона, но исследователи считают, что в будущем они смогут это сделать.

Одним из ключевых наблюдений, сделанных в ходе анализа, является отсутствие адекватного раскрытия информации. Важные детали, касающиеся данных, вычислений и ключевых характеристик моделей, часто не раскрываются. Это вызывает обеспокоенность по поводу прозрачности и подотчетности в экосистеме ИИ.

Для решения этих проблем исследователи подчеркивают необходимость того, чтобы политики ЕС избирательно устанавливали требования Закона об ИИ к влиятельным поставщикам, избегая при этом чрезмерного бремени для небольших компаний. Кроме того, крайне важно выделить необходимые технические ресурсы агентствам, ответственным за соблюдение Закона об ИИ.

Смогут ли политики обеспечить прозрачность и подотчетность в быстро развивающейся области ИИ, одновременно способствуя инновациям и поддерживая небольшие компании?

#AIAct #FoundationModels #Transparency #Accountability #Compliance #Innovation
Сложность регулирования базисных моделей в Законе ЕС об ИИ

Добрый день, сообщество AI & Law! Кай Зеннер, руководитель офиса и советник по цифровой политике в офисе депутата Европарламента Акселя Фосса, поделился на сайте ОЭСР своим мнением о регулировании базисных моделей в Законе об ИИ.

🔹 Существующий пробел: предложенный Европейской комиссией Закон об ИИ, был создан до того, как базисные модели (foundation models) получили широкое распространение в ИИ. Поэтому он не охватывает с достаточной точностью эти универсальные модели. Их потенциал для разнообразных и непредвиденных целей не позволяет вписать их в существующий подход к безопасности продукции. Принятый в законе подход, ограничивающий применение систем ИИ конкретными классами риска, недостаточно гибок для новейших базисных моделей, способных решать различные задачи. Это создает пробел в регулировании, который необходимо устранить.

🔹 Позитивный прогресс: Европейский парламент предпринял активный шаг для решения этой проблемы, введя статью 28b, которая добавляет регулирование специально для базисных моделей. Эта статья устанавливает девять основных обязательств для разработчиков, включая выявление рисков, тестирование, оценку и тщательное документирование. Эти меры направлены на достижение баланса между обеспечением безопасности и стимулированием инноваций в области ИИ.

🔹 Целевой подход: Важнейшей задачей является отсутствие чрезмерной нагрузки на мелких провайдеров и в то же время эффективное регулирование базисных моделей. Зеннер предлагает использовать системный подход, ориентируясь на небольшое число высокоэффективных и значимых базисных моделей, подпадающих под действие Закона об ИИ. Эта стратегия может быть аналогична тому, как в соответствии с Законом о цифровых услугах (Digital Services Act) выделяются очень крупные онлайн-платформы, что обеспечит сбалансированную и эффективную нормативную базу.

#AIRegulation #FoundationModels #AIAct #AIInnovation #AICommunity #TechLaw #OECDInsights
Великобритания: Управление по конкуренции и рынкам озвучило принципы ответственного развития ИИ

Привет всем! Управление по конкуренции и рынкам Великобритании (Competition and Markets Authority, CMA) представило набор принципов для обеспечения ответственного подхода к разработке и использованию базисных моделей в искусственном интеллекте.

Базисные модели, такие как ChatGPT и Office 365 Copilot, представляют собой универсальные системы ИИ, способные произвести революцию в различных отраслях. В отчете CMA изложены руководящие принципы, направленные на защиту прав потребителей и развитие здоровой конкуренции в индустрии ИИ.

По мере того как ИИ стремительно внедряется в нашу повседневную жизнь, CMA признает необходимость проактивного вмешательства. Эти принципы направлены на достижение баланса между развитием инновационного потенциала ИИ и обеспечением безопасности потребителей.

Предлагаемые CMA руководящие принципы сосредоточены на таких важнейших областях, как подотчетность, доступ, разнообразие, выбор, гибкость, справедливость и прозрачность. Эти принципы призваны направить разработчиков и лиц, внедряющих базисные модели, на путь ответственной разработки и использования ИИ.

CMA планирует активно взаимодействовать с заинтересованными сторонами для дальнейшего уточнения этих принципов.

#ResponsibleAI #AIRegulation #ConsumerProtection #Competition #FoundationModels #CMAAIprinciples
Закон ЕС об ИИ вряд ли будет принят в 2023 году

Всем привет! Европейские законодатели никак не могут прийти к консенсусу по вопросу регулирования базисных моделей ИИ, и принятие Закона ЕС об ИИ до декабря представляется маловероятным.

В настоящее время Испания, председательствующая в ЕС, выступает за более строгую оценку уязвимости и многоуровневую систему регулирования, основанную на пользовательской базе моделей ИИ.

Уже состоялось несколько раундов "трилога" - дискуссии с участием Европарламента, Совета ЕС и Еврокомиссии - по поводу формулировок закона. В результате есть опасение, что принятие решения может быть отложено до следующего года. Первоначально европейские законодатели планировали принять Закон ЕС об ИИ до конца года.

Один из проектов закона предполагает, что разработчики базисных моделей ИИ должны оценивать потенциальные риски, подвергать модели тщательному тестированию в процессе разработки и после выпуска, тщательно проверять обучающие данные на предмет погрешностей, валидировать данные и публиковать техническую документацию до выхода на рынок.

В ответ на это некоторые компании, работающие с открытым исходным кодом, призывают учитывать в этих обсуждениях интересы небольших предприятий. Они утверждают, что соблюдение этих правил может создать проблемы для некоторых разработчиков, подчеркивая необходимость проведения различий между моделями коммерческих фондов и моделями, используемыми любителями и исследователями.

Следите вместе с нами за дальнейшим развитием событий по этому важнейшему закону!

#EUAIAct #AIRegulation #FoundationModels #EuropeanLaw
Положения Закона ЕС об ИИ о базовых моделях устареют до их вступления в силу

Эксперты предупреждают, что важнейшее положение европейского Закона об искусственном интеллекте, направленное на оценку рисков, создаваемых базовыми моделями, такими как ChatGPT, может устареть в течение года из-за быстрого технологического прогресса. По словам Драгоша Тудораша, депутата Европарламента, участвующего в разработке закона, к тому времени, когда правила вступят в действие, либо несколько доминирующих моделей будут соответствовать критериям, либо новые технологические прорывы изменят картину.

Данное положение, которое должно вступить в силу через 12 месяцев, может не успеть за развивающимся технологиями ИИ. По мере того как отрасль стремительно развивается, включая потенциал более эффективных моделей или появление новых технологий, нормативно-правовая база должна адаптироваться, чтобы оставаться актуальной.

#AIAct #FoundationModels #AIRegulation
Исследовательская группа требует глобального прекращения разработки базовых моделей ИИ

Институт исследований машинного интеллекта (MIRI) призывает к глобальной остановке разработки базовых моделей ИИ, опасаясь, что без должных мер безопасности они могут «уничтожить человечество» . Базовые модели, способные выполнять широкий спектр задач, могут развиться до уровня, превосходящего человеческий интеллект.

MIRI настаивает на полном прекращении попыток создания систем, которые будут умнее человека. Это требование более жесткое, чем предыдущие призывы таких технологических лидеров, как Илон Маск и Стив Возняк, которые просили приостановить разработку моделей мощнее GPT-4 от OpenAI.

MIRI подчеркивает необходимость срочного принятия всеобъемлющих законов, включая установку «выключателя» для ИИ-систем, чтобы предотвратить их злонамеренные действия. Группа акцентирует внимание на важности серьезного подхода к экзистенциальным рискам и обеспечения безопасной разработки ИИ в будущем.

#ИИ #AI #ArtificialIntelligence #AIEthics #FoundationModels #MIRI