ЕС: Группа высокого уровня по Закону о цифровых рынках подчеркивает необходимость скоординированного регулирования ИИ
Группа высокого уровня по Закону о цифровых рынках (High-Level Group for the Digital Markets Act, DMA) в своем недавнем заявлении сообщила о необходимости скоординированного регулирования ИИ, отметив роль нового Закона об ИИ в устранении рисков и продвижении инноваций.
Группа, в которую входят такие органы, как BEREC и Европейский совет по защите данных, подчеркнула важность законного использования данных и честной конкуренции, отметив потенциальные преимущества ИИ и риски, такие как предвзятость и дезинформация.
Группа планирует постоянное сотрудничество для согласования развития ИИ с целями Закона о цифровых рынках и другими нормативно-правовыми актами, уделяя особое внимание облачным услугам, доступу к данным и основным правам.
#AI #DigitalMarketsAct #DataPrivacy
Группа высокого уровня по Закону о цифровых рынках (High-Level Group for the Digital Markets Act, DMA) в своем недавнем заявлении сообщила о необходимости скоординированного регулирования ИИ, отметив роль нового Закона об ИИ в устранении рисков и продвижении инноваций.
Группа, в которую входят такие органы, как BEREC и Европейский совет по защите данных, подчеркнула важность законного использования данных и честной конкуренции, отметив потенциальные преимущества ИИ и риски, такие как предвзятость и дезинформация.
Группа планирует постоянное сотрудничество для согласования развития ИИ с целями Закона о цифровых рынках и другими нормативно-правовыми актами, уделяя особое внимание облачным услугам, доступу к данным и основным правам.
#AI #DigitalMarketsAct #DataPrivacy
Digital Markets Act (DMA)
DMA High-Level Group Public Statement on Artificial Intelligence
Digital Markets Act High-Level Group Public Statement on Artificial Intelligence
Университет Эмори отстранил студентов за разработку учебного инструмента на базе ИИ
Двое студентов Университета Эмори, Бенджамин Крейвер и Карам Ханна, были отстранены за разработку учебного инструмента Eightball.
Примечательно, что этот инструмент не только получил одобрение университета, но и выиграл премию в размере $10,000 на дальнейшую разработку. Конфликт возник, когда Eightball получил возможность подключаться к онлайн-системе обучения Canvas, что позволило генерировать учебные карточки непосредственно из учебных материалов.
Университет Эмори сослался на возможные нарушения Кодекса чести, утверждая, что Eightball «может использоваться для мошенничества». Это привело к закрытию инструмента и судебному иску, поданному Крейвером против университета. В иске студент утверждает, что «нет доказательств, что кто-либо использовал Eightball для мошенничества».
#AI #Education #Innovation #Eightball #TechPolicy
Двое студентов Университета Эмори, Бенджамин Крейвер и Карам Ханна, были отстранены за разработку учебного инструмента Eightball.
Примечательно, что этот инструмент не только получил одобрение университета, но и выиграл премию в размере $10,000 на дальнейшую разработку. Конфликт возник, когда Eightball получил возможность подключаться к онлайн-системе обучения Canvas, что позволило генерировать учебные карточки непосредственно из учебных материалов.
Университет Эмори сослался на возможные нарушения Кодекса чести, утверждая, что Eightball «может использоваться для мошенничества». Это привело к закрытию инструмента и судебному иску, поданному Крейвером против университета. В иске студент утверждает, что «нет доказательств, что кто-либо использовал Eightball для мошенничества».
#AI #Education #Innovation #Eightball #TechPolicy
Семья Шумахера получила €200,000 компенсации за "интервью с ИИ"
Семья Михаэля Шумахера получила компенсацию в размере €200,000 ($217,000) от немецкого журнала, который опубликовал сгенерированное ИИ "эксклюзивное интервью с легендой Формулы-1".
В апреле прошлого года Die Aktuelle опубликовал материал, в котором заявлялось, что это эксклюзивное интервью с Шумахером, который не появлялся на публике после серьезной травмы головы, полученной в результате лыжной аварии в декабре 2013 года. В конце статьи выяснилось, что интервью было полностью сгенерировано ИИ.
Семья Шумахера подала в суд и получила компенсацию, подтвержденную Мюнхенским трудовым судом. Медиа-группа Funke, владелец Die Aktuelle, принесла извинения семье Шумахера и расторгла контракт с главным редактором, ответственным за публикацию. Семья продолжает строго охранять личную жизнь Михаэля, предоставляя минимум информации о его состоянии даже в недавнем документальном фильме Netflix о его жизни и карьере.
#ИИ #Приватность #AI #Privacy #LegalAction
Семья Михаэля Шумахера получила компенсацию в размере €200,000 ($217,000) от немецкого журнала, который опубликовал сгенерированное ИИ "эксклюзивное интервью с легендой Формулы-1".
В апреле прошлого года Die Aktuelle опубликовал материал, в котором заявлялось, что это эксклюзивное интервью с Шумахером, который не появлялся на публике после серьезной травмы головы, полученной в результате лыжной аварии в декабре 2013 года. В конце статьи выяснилось, что интервью было полностью сгенерировано ИИ.
Семья Шумахера подала в суд и получила компенсацию, подтвержденную Мюнхенским трудовым судом. Медиа-группа Funke, владелец Die Aktuelle, принесла извинения семье Шумахера и расторгла контракт с главным редактором, ответственным за публикацию. Семья продолжает строго охранять личную жизнь Михаэля, предоставляя минимум информации о его состоянии даже в недавнем документальном фильме Netflix о его жизни и карьере.
#ИИ #Приватность #AI #Privacy #LegalAction
The Independent
Michael Schumacher’s family wins compensation for fake AI ‘interview’
German magazine Die Aktuelle last year published an ‘exclusive interview’ with the F1 legend, who hasn’t been seen publicly for a decade since a near-fatal skiing accident, but the answers were generated by an artificial intelligence programme
Новый Европейский парламент будет решать вопрос о принятии Директивы об ответственности за искусственный интеллект
Следующему созыву Европейского парламента предстоит принять важное решение по Директиве об ответственности за искусственный интеллект (Artificial Intelligence Liability Directive, AILD). Директива направлена на устранение возможных правовых пробелов, оставленных Законом ЕС об ИИ и Директивой об ответственности за качество продукции (Product Liability Directive, PLD).
Комитет по правовым вопросам Европейского парламента заказал исследование, в котором участвуют Исследовательская служба Европейского парламента и внешний подрядчик, для целей определения необходимости новой директивы. Подробнее о сомнениях некоторых участников процесса в целесообразности принятия нового регулирования можно почитать здесь.
#AI #AILD #EuropeanParliament #AIRegulation #TechPolicy
Следующему созыву Европейского парламента предстоит принять важное решение по Директиве об ответственности за искусственный интеллект (Artificial Intelligence Liability Directive, AILD). Директива направлена на устранение возможных правовых пробелов, оставленных Законом ЕС об ИИ и Директивой об ответственности за качество продукции (Product Liability Directive, PLD).
Комитет по правовым вопросам Европейского парламента заказал исследование, в котором участвуют Исследовательская служба Европейского парламента и внешний подрядчик, для целей определения необходимости новой директивы. Подробнее о сомнениях некоторых участников процесса в целесообразности принятия нового регулирования можно почитать здесь.
#AI #AILD #EuropeanParliament #AIRegulation #TechPolicy
European Commission
Liability Rules for Artificial Intelligence
The European approach to artificial intelligence (AI) will help build a resilient Europe for the Digital Decade where people and businesses can enjoy the b
Исследование Стэнфорда выявило риски использования ИИ в юридических инструментах
Исследование Стэнфордского университета показывает, что специализированные генеративные ИИ-инструменты для юристов дают ложные результаты в 17% случаев, требуя внимательной проверки со стороны юристов. Эти инструменты, хотя и более точны, чем общие модели, такие как ChatGPT, все же представляют значительные риски для юридической точности и эффективности.
Исследование подчеркивает, что несмотря на улучшения, такие как процесс генерации с дополнительным извлечением (retrieval-augmentation generation, RAG), юридические ИИ-инструменты могут по-прежнему неправильно интерпретировать законы и судебные прецеденты. Такие ошибки могут привести к ошибочным юридическим выводам и подрывают доверие к таким технологиям технологиям.
#LegalTech #AI #StanfordStudy #GenerativeAI #LegalResearch #RGA #AIInLaw
Исследование Стэнфордского университета показывает, что специализированные генеративные ИИ-инструменты для юристов дают ложные результаты в 17% случаев, требуя внимательной проверки со стороны юристов. Эти инструменты, хотя и более точны, чем общие модели, такие как ChatGPT, все же представляют значительные риски для юридической точности и эффективности.
Исследование подчеркивает, что несмотря на улучшения, такие как процесс генерации с дополнительным извлечением (retrieval-augmentation generation, RAG), юридические ИИ-инструменты могут по-прежнему неправильно интерпретировать законы и судебные прецеденты. Такие ошибки могут привести к ошибочным юридическим выводам и подрывают доверие к таким технологиям технологиям.
#LegalTech #AI #StanfordStudy #GenerativeAI #LegalResearch #RGA #AIInLaw
Европейский надзорный орган выпустил руководство по защите данных при использовании генеративных ИИ-систем
Европейский надзорный орган по защите данных (European Data Protection Supervisor, EDPS) выпустил новое руководство по обеспечению соответствия требованиям защиты данных при использовании генеративных ИИ-систем. Это руководство особенно важно, учитывая ключевую роль EDPS в Законе ЕС об ИИ.
Согласно Закону об ИИ, EDPS будет:
✅ Создавать регуляторные песочницы для ИИ для европейских компаний;
✅ Участвовать в качестве наблюдателя в Европейском совете по ИИ;
✅ Осуществлять надзор за учреждениями ЕС в рамках Закона ЕС об ИИ;
✅ Выступать в качестве органа рыночного надзора за европейскими компаниями в рамках Закона ЕС об ИИ;
✅ Налагать административные штрафы в случае нарушений.
Эти функции означают, что интерпретации и руководство EDPS по разработке и использованию ИИ будут иметь значительное влияние на разработчиков и пользователей систем искусственного интеллекта ИИ.
Несмотря на то, что руководство не достаточно конкретно раскрывает некоторые вопросы, оно предоставляет хороший первоначальный обзор ключевых вызовов в области генеративного ИИ.
#ИИ #ЗащитаДанных #AI #DataProtection #EDPS #AIAct #GenerativeAI
Европейский надзорный орган по защите данных (European Data Protection Supervisor, EDPS) выпустил новое руководство по обеспечению соответствия требованиям защиты данных при использовании генеративных ИИ-систем. Это руководство особенно важно, учитывая ключевую роль EDPS в Законе ЕС об ИИ.
Согласно Закону об ИИ, EDPS будет:
✅ Создавать регуляторные песочницы для ИИ для европейских компаний;
✅ Участвовать в качестве наблюдателя в Европейском совете по ИИ;
✅ Осуществлять надзор за учреждениями ЕС в рамках Закона ЕС об ИИ;
✅ Выступать в качестве органа рыночного надзора за европейскими компаниями в рамках Закона ЕС об ИИ;
✅ Налагать административные штрафы в случае нарушений.
Эти функции означают, что интерпретации и руководство EDPS по разработке и использованию ИИ будут иметь значительное влияние на разработчиков и пользователей систем искусственного интеллекта ИИ.
Несмотря на то, что руководство не достаточно конкретно раскрывает некоторые вопросы, оно предоставляет хороший первоначальный обзор ключевых вызовов в области генеративного ИИ.
#ИИ #ЗащитаДанных #AI #DataProtection #EDPS #AIAct #GenerativeAI
ISO разместила в публичном доступе стандарт по управлению ИИ
Международная организация по стандартизации (ISO), известная своими отраслевыми стандартами, сделала ключевой ISO/IEC 22989 общедоступным и бесплатным. Этот стандарт охватывает широкий спектр тем, связанных с управлением ИИ, и предоставляет ценные рекомендации для ответственной разработки и внедрения технологий искусственного интеллекта.
ISO/IEC 22989 предоставляет стандартизированные концепции и терминологию, чтобы помочь заинтересованным сторонам лучше понять и эффективно использовать технологии ИИ. Этот документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки. Также стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.
Сделав этот стандарт общедоступным, ISO стремится способствовать широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы ИИ были надежными, устойчивыми, точными, безопасными и приватными.
ISO/IEC 22989 и другие стандарты в свободном доступе можно найти здесь.
#ISO #УправлениеИИ #ИИ #ISO #AIGovernance #AIGP #AI
Международная организация по стандартизации (ISO), известная своими отраслевыми стандартами, сделала ключевой ISO/IEC 22989 общедоступным и бесплатным. Этот стандарт охватывает широкий спектр тем, связанных с управлением ИИ, и предоставляет ценные рекомендации для ответственной разработки и внедрения технологий искусственного интеллекта.
ISO/IEC 22989 предоставляет стандартизированные концепции и терминологию, чтобы помочь заинтересованным сторонам лучше понять и эффективно использовать технологии ИИ. Этот документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки. Также стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.
Сделав этот стандарт общедоступным, ISO стремится способствовать широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы ИИ были надежными, устойчивыми, точными, безопасными и приватными.
ISO/IEC 22989 и другие стандарты в свободном доступе можно найти здесь.
#ISO #УправлениеИИ #ИИ #ISO #AIGovernance #AIGP #AI
standards.iso.org
Publicly Available Standards
ЕС и США: Разные подходы к регулированию ИИ
Бенджамин Седрик Ларсен из Всемирного экономического форума и Сабрина Кюсперт из Европейского офиса по ИИ опубликовали анализ на сайте Института Брукингса, сравнивающий подходы ЕС и США к регулированию ИИ. В США Указ Байдена содержит рекомендации для федеральных агентств и компаний, которые могут быть изменены или отменены. Со своей стороны, Закон ЕС об ИИ вводит юридически обязательные правила для моделей ИИ общего назначения, создавая строгую структуру управления.
Ключевые различия включают более серьезный акцент на системных рисках, таких как масштабная дискриминация и влияние на права человека, в ЕС по сравнению с США. Однако обе системы подчеркивают важность документирования, оценки и анализа моделей ИИ и требований к кибербезопасности.
Закон ЕС об ИИ может оказать глобальное влияние, аналогичное GDPR, в то время как Указ Байдена в основном влияет на внутреннюю политику с косвенным глобальным эффектом. Кроме того, оба региона работают над созданием необязательного кодекса поведения при работе с ИИ вместе с другими странами G7, что указывает на стремление к большей международной координации.
#AI #AIRegulation #EU #US #TechPolicy #AIAct #AIethics
Бенджамин Седрик Ларсен из Всемирного экономического форума и Сабрина Кюсперт из Европейского офиса по ИИ опубликовали анализ на сайте Института Брукингса, сравнивающий подходы ЕС и США к регулированию ИИ. В США Указ Байдена содержит рекомендации для федеральных агентств и компаний, которые могут быть изменены или отменены. Со своей стороны, Закон ЕС об ИИ вводит юридически обязательные правила для моделей ИИ общего назначения, создавая строгую структуру управления.
Ключевые различия включают более серьезный акцент на системных рисках, таких как масштабная дискриминация и влияние на права человека, в ЕС по сравнению с США. Однако обе системы подчеркивают важность документирования, оценки и анализа моделей ИИ и требований к кибербезопасности.
Закон ЕС об ИИ может оказать глобальное влияние, аналогичное GDPR, в то время как Указ Байдена в основном влияет на внутреннюю политику с косвенным глобальным эффектом. Кроме того, оба региона работают над созданием необязательного кодекса поведения при работе с ИИ вместе с другими странами G7, что указывает на стремление к большей международной координации.
#AI #AIRegulation #EU #US #TechPolicy #AIAct #AIethics
Brookings
Regulating general-purpose AI: Areas of convergence and divergence across the EU and the US
Benjamin Larsen and Sabrina Küspert compare the recent developments of the EU and US in regulating general-purpose AI.
США: Суд отказался от принятия правил по использованию ИИ после возражений адвокатов
Пятый окружной апелляционный суд в Новом Орлеане решил не принимать правило, регулирующее использование генеративного ИИ адвокатами. Предложенное правило, которое стало бы первым на апелляционном уровне, было направлено на обеспечение точности документов, созданных с помощью ИИ. На решение суда повлияли в основном негативные отзывы адвокатов.
Правило требовало бы от юристов, использующих ИИ, таких как ChatGPT от OpenAI, подтверждать точность цитат и правового анализа. Несоблюдение требований могло привести к санкциям и исключению документов из рассмотрения. Несмотря на отказ от принятия правила, суд подчеркнул, что текущие правила уже требуют правдивости и точности в подаваемых документах, и использование ИИ не будет оправданием для нарушений.
#ИИ #AI #LegalTech #GenerativeAI #LegalEthics
Пятый окружной апелляционный суд в Новом Орлеане решил не принимать правило, регулирующее использование генеративного ИИ адвокатами. Предложенное правило, которое стало бы первым на апелляционном уровне, было направлено на обеспечение точности документов, созданных с помощью ИИ. На решение суда повлияли в основном негативные отзывы адвокатов.
Правило требовало бы от юристов, использующих ИИ, таких как ChatGPT от OpenAI, подтверждать точность цитат и правового анализа. Несоблюдение требований могло привести к санкциям и исключению документов из рассмотрения. Несмотря на отказ от принятия правила, суд подчеркнул, что текущие правила уже требуют правдивости и точности в подаваемых документах, и использование ИИ не будет оправданием для нарушений.
#ИИ #AI #LegalTech #GenerativeAI #LegalEthics
Исследовательская группа требует глобального прекращения разработки базовых моделей ИИ
Институт исследований машинного интеллекта (MIRI) призывает к глобальной остановке разработки базовых моделей ИИ, опасаясь, что без должных мер безопасности они могут «уничтожить человечество» . Базовые модели, способные выполнять широкий спектр задач, могут развиться до уровня, превосходящего человеческий интеллект.
MIRI настаивает на полном прекращении попыток создания систем, которые будут умнее человека. Это требование более жесткое, чем предыдущие призывы таких технологических лидеров, как Илон Маск и Стив Возняк, которые просили приостановить разработку моделей мощнее GPT-4 от OpenAI.
MIRI подчеркивает необходимость срочного принятия всеобъемлющих законов, включая установку «выключателя» для ИИ-систем, чтобы предотвратить их злонамеренные действия. Группа акцентирует внимание на важности серьезного подхода к экзистенциальным рискам и обеспечения безопасной разработки ИИ в будущем.
#ИИ #AI #ArtificialIntelligence #AIEthics #FoundationModels #MIRI
Институт исследований машинного интеллекта (MIRI) призывает к глобальной остановке разработки базовых моделей ИИ, опасаясь, что без должных мер безопасности они могут «уничтожить человечество» . Базовые модели, способные выполнять широкий спектр задач, могут развиться до уровня, превосходящего человеческий интеллект.
MIRI настаивает на полном прекращении попыток создания систем, которые будут умнее человека. Это требование более жесткое, чем предыдущие призывы таких технологических лидеров, как Илон Маск и Стив Возняк, которые просили приостановить разработку моделей мощнее GPT-4 от OpenAI.
MIRI подчеркивает необходимость срочного принятия всеобъемлющих законов, включая установку «выключателя» для ИИ-систем, чтобы предотвратить их злонамеренные действия. Группа акцентирует внимание на важности серьезного подхода к экзистенциальным рискам и обеспечения безопасной разработки ИИ в будущем.
#ИИ #AI #ArtificialIntelligence #AIEthics #FoundationModels #MIRI
Machine Intelligence Research Institute
Blog - Machine Intelligence Research Institute