Нью-Йорк рассматривает проект закона о возмещении ущерба за ошибки чат-ботов
Новый проект закона S9381, представленный в Нью-Йорке, возлагает ответственность на компании за финансовые убытки или другой вред, причиненный пользователям из-за вводящей в заблуждение или неверной информации, предоставленной чат-ботами. Закон распространяется на владельцев бизнеса с числом сотрудников более двадцати, которые используют чат-ботов, включая компании, организации и государственные учреждения.
Согласно закону, владельцы не могут избежать ответственности, просто указывая на автоматизированную природу чат-ботов. Они должны предоставлять пользователям четкие и явные уведомления при взаимодействии с этими системами ИИ. Закон направлен на обеспечение ответственности и защиту пользователей от возможного вреда, вызванного чат-ботами.
#ИИ #Chatbots #AIRegulation
Новый проект закона S9381, представленный в Нью-Йорке, возлагает ответственность на компании за финансовые убытки или другой вред, причиненный пользователям из-за вводящей в заблуждение или неверной информации, предоставленной чат-ботами. Закон распространяется на владельцев бизнеса с числом сотрудников более двадцати, которые используют чат-ботов, включая компании, организации и государственные учреждения.
Согласно закону, владельцы не могут избежать ответственности, просто указывая на автоматизированную природу чат-ботов. Они должны предоставлять пользователям четкие и явные уведомления при взаимодействии с этими системами ИИ. Закон направлен на обеспечение ответственности и защиту пользователей от возможного вреда, вызванного чат-ботами.
#ИИ #Chatbots #AIRegulation
NYSenate.gov
NY State Senate Bill 2023-S9381
Imposes liability for misleading, incorrect, contradictory or harmful information to a user by a chatbot that results in financial loss or other demonstrable harm.
ЕС и США: Разные подходы к регулированию ИИ
Бенджамин Седрик Ларсен из Всемирного экономического форума и Сабрина Кюсперт из Европейского офиса по ИИ опубликовали анализ на сайте Института Брукингса, сравнивающий подходы ЕС и США к регулированию ИИ. В США Указ Байдена содержит рекомендации для федеральных агентств и компаний, которые могут быть изменены или отменены. Со своей стороны, Закон ЕС об ИИ вводит юридически обязательные правила для моделей ИИ общего назначения, создавая строгую структуру управления.
Ключевые различия включают более серьезный акцент на системных рисках, таких как масштабная дискриминация и влияние на права человека, в ЕС по сравнению с США. Однако обе системы подчеркивают важность документирования, оценки и анализа моделей ИИ и требований к кибербезопасности.
Закон ЕС об ИИ может оказать глобальное влияние, аналогичное GDPR, в то время как Указ Байдена в основном влияет на внутреннюю политику с косвенным глобальным эффектом. Кроме того, оба региона работают над созданием необязательного кодекса поведения при работе с ИИ вместе с другими странами G7, что указывает на стремление к большей международной координации.
#AI #AIRegulation #EU #US #TechPolicy #AIAct #AIethics
Бенджамин Седрик Ларсен из Всемирного экономического форума и Сабрина Кюсперт из Европейского офиса по ИИ опубликовали анализ на сайте Института Брукингса, сравнивающий подходы ЕС и США к регулированию ИИ. В США Указ Байдена содержит рекомендации для федеральных агентств и компаний, которые могут быть изменены или отменены. Со своей стороны, Закон ЕС об ИИ вводит юридически обязательные правила для моделей ИИ общего назначения, создавая строгую структуру управления.
Ключевые различия включают более серьезный акцент на системных рисках, таких как масштабная дискриминация и влияние на права человека, в ЕС по сравнению с США. Однако обе системы подчеркивают важность документирования, оценки и анализа моделей ИИ и требований к кибербезопасности.
Закон ЕС об ИИ может оказать глобальное влияние, аналогичное GDPR, в то время как Указ Байдена в основном влияет на внутреннюю политику с косвенным глобальным эффектом. Кроме того, оба региона работают над созданием необязательного кодекса поведения при работе с ИИ вместе с другими странами G7, что указывает на стремление к большей международной координации.
#AI #AIRegulation #EU #US #TechPolicy #AIAct #AIethics
Brookings
Regulating general-purpose AI: Areas of convergence and divergence across the EU and the US
Benjamin Larsen and Sabrina Küspert compare the recent developments of the EU and US in regulating general-purpose AI.
Новый доклад BRG о готовности руководителей компаний к регулированию ИИ
Согласно новому докладу Berkeley Research Group о глобальном регулировании ИИ, только 36% руководителей компаний верят, что их текущая и будущая политика в области ИИ обеспечит полное соблюдение регуляторных требований. Этот доклад, основанный на опросе более 200 руководителей компаний и юристов высшего уровня по всему миру, оценивает текущее состояние регулирования ИИ и выявляет ключевые проблемы и приоритеты для эффективного управления искусственным интеллектом внутри компаний.
Документ показывает отсутствие уверенности в готовности к соблюдению требований, так как многие организации сталкиваются с трудностями в реализации внутренних мер для ответственного использования ИИ. Особенно отстают в этом отношении сектора розничной торговли и потребительских товаров.
Основные приоритеты будущей политики ИИ включают целостность данных, безопасность и точность, хотя мнения различаются в зависимости от региона и отрасли. Руководители и респонденты из технологического и финансового секторов придают большее значение адаптивности и прозрачности, в то время как юристы и представители розничной торговли предпочитают обеспеченность исполнения и строгое соблюдение законов. Доклад также подчёркивает растущее расхождение между США и ЕС в вопросах регулирования ИИ, что усложняет создание широких и всеобъемлющих руководящих принципов.
#AI #AILaw #AIRegulation #Compliance
Согласно новому докладу Berkeley Research Group о глобальном регулировании ИИ, только 36% руководителей компаний верят, что их текущая и будущая политика в области ИИ обеспечит полное соблюдение регуляторных требований. Этот доклад, основанный на опросе более 200 руководителей компаний и юристов высшего уровня по всему миру, оценивает текущее состояние регулирования ИИ и выявляет ключевые проблемы и приоритеты для эффективного управления искусственным интеллектом внутри компаний.
Документ показывает отсутствие уверенности в готовности к соблюдению требований, так как многие организации сталкиваются с трудностями в реализации внутренних мер для ответственного использования ИИ. Особенно отстают в этом отношении сектора розничной торговли и потребительских товаров.
Основные приоритеты будущей политики ИИ включают целостность данных, безопасность и точность, хотя мнения различаются в зависимости от региона и отрасли. Руководители и респонденты из технологического и финансового секторов придают большее значение адаптивности и прозрачности, в то время как юристы и представители розничной торговли предпочитают обеспеченность исполнения и строгое соблюдение законов. Доклад также подчёркивает растущее расхождение между США и ЕС в вопросах регулирования ИИ, что усложняет создание широких и всеобъемлющих руководящих принципов.
#AI #AILaw #AIRegulation #Compliance
Франция призывает ЕС регулировать облачные сервисы генеративного ИИ
Французский антимонопольный орган призвал Европейскую комиссию регулировать облачные сервисы генеративного ИИ. В своем заключении, опубликованном в пятницу, орган призвал назначить компании, предоставляющие Model as a Service (MaaS), "привратниками" в рамках Закона ЕС о цифровых рынках. Эти MaaS-инструменты являются генеративными ИИ-решениями, доступными через облачные платформы. Также орган предложил Комиссии следить за миноритарными участиями крупных компаний на рынке ИИ для обеспечения справедливой конкуренции.
#AIRegulation #DigitalMarketsAct #GenerativeAI
Французский антимонопольный орган призвал Европейскую комиссию регулировать облачные сервисы генеративного ИИ. В своем заключении, опубликованном в пятницу, орган призвал назначить компании, предоставляющие Model as a Service (MaaS), "привратниками" в рамках Закона ЕС о цифровых рынках. Эти MaaS-инструменты являются генеративными ИИ-решениями, доступными через облачные платформы. Также орган предложил Комиссии следить за миноритарными участиями крупных компаний на рынке ИИ для обеспечения справедливой конкуренции.
#AIRegulation #DigitalMarketsAct #GenerativeAI
Европейская Комиссия планирует делегировать разработку кодексов практики ИИ
Статья в Euractiv рассказывает о том, что Европейская Комиссия планирует разрешить поставщикам моделей ИИ разрабатывать кодексы практики для соблюдения Закона ЕС об ИИ, консультируясь при этом с организациями гражданского общества. Этот подход вызывает опасения по поводу саморегулирования отрасли, так как эти кодексы будут использоваться для демонстрации соответствия новым требованиям до установления единых стандартов.
Комиссия может предоставить этим кодексам общеевропейскую силу. Некоторые представители гражданского общества беспокоятся, что это позволит крупным технологическим компаниям фактически устанавливать свои собственные правила. Формулировки Закона ЕС об ИИ относительно участия заинтересованных сторон в разработке этих кодексов неоднозначны. Комиссия заявила, что предстоящий запрос на выражение интереса уточнит, как различные заинтересованные стороны, включая гражданское общество, будут вовлечены в процесс. Однако конкретные детали пока отсутствуют.
Для управления процессом разработки, включая взаимодействие с заинтересованными сторонами и еженедельные рабочие группы, будет нанята внешняя фирма. Офис ИИ будет курировать процесс, сосредоточив внимание на утверждении окончательных кодексов.
#AIRegulation #AICodes #AIAct #Compliance
Статья в Euractiv рассказывает о том, что Европейская Комиссия планирует разрешить поставщикам моделей ИИ разрабатывать кодексы практики для соблюдения Закона ЕС об ИИ, консультируясь при этом с организациями гражданского общества. Этот подход вызывает опасения по поводу саморегулирования отрасли, так как эти кодексы будут использоваться для демонстрации соответствия новым требованиям до установления единых стандартов.
Комиссия может предоставить этим кодексам общеевропейскую силу. Некоторые представители гражданского общества беспокоятся, что это позволит крупным технологическим компаниям фактически устанавливать свои собственные правила. Формулировки Закона ЕС об ИИ относительно участия заинтересованных сторон в разработке этих кодексов неоднозначны. Комиссия заявила, что предстоящий запрос на выражение интереса уточнит, как различные заинтересованные стороны, включая гражданское общество, будут вовлечены в процесс. Однако конкретные детали пока отсутствуют.
Для управления процессом разработки, включая взаимодействие с заинтересованными сторонами и еженедельные рабочие группы, будет нанята внешняя фирма. Офис ИИ будет курировать процесс, сосредоточив внимание на утверждении окончательных кодексов.
#AIRegulation #AICodes #AIAct #Compliance
EURACTIV
Inside the EU Commission’s rush to build codes of practice for general purpose AI
Providers of general purpose AI, like ChatGPT, will be in the driver's seat when drafting codes of practice that they can later use to demonstrate compliance with the AI Act.
1726748568184.pdf
3.4 MB
Управление по защите данных Нидерландов выпустило доклад о рисках ИИ
В докладе «Риски ИИ и алгоритмов» Управление по защите данных Нидерландов отмечается растущая необходимость бдительности во всех секторах, от правительства до потребителей.
В отчете выделяются восемь ключевых моментов для эффективного управления. В частности, отмечается сложность контроля ИИ-приложений, давление, которое ИИ оказывает на демократические системы, и важность случайной выборки для управления рисками профилирования.
В качестве ключевых приоритетов отмечается усиление контроля за системами ИИ и корректировка национальной стратегии в этой области.
#AIGovernance #AIRegulation #AIEthics #AIAct #DataProtection #AlgorithmicRisks #AICompliance
В докладе «Риски ИИ и алгоритмов» Управление по защите данных Нидерландов отмечается растущая необходимость бдительности во всех секторах, от правительства до потребителей.
В отчете выделяются восемь ключевых моментов для эффективного управления. В частности, отмечается сложность контроля ИИ-приложений, давление, которое ИИ оказывает на демократические системы, и важность случайной выборки для управления рисками профилирования.
В качестве ключевых приоритетов отмечается усиление контроля за системами ИИ и корректировка национальной стратегии в этой области.
#AIGovernance #AIRegulation #AIEthics #AIAct #DataProtection #AlgorithmicRisks #AICompliance
Документы ОЭСР по управлению ИИ, часть 2
➡️ A new dawn for public employment services
➡️ Artificial intelligence and the changing demand for skills in Canada
➡️ Artificial intelligence, data and competition
➡️ Defining AI incidents and related terms
➡️ The impact of AI on productivity, distribution & growth
#AIGovernance #OECD #EthicsInAI #AIRegulation
➡️ A new dawn for public employment services
➡️ Artificial intelligence and the changing demand for skills in Canada
➡️ Artificial intelligence, data and competition
➡️ Defining AI incidents and related terms
➡️ The impact of AI on productivity, distribution & growth
#AIGovernance #OECD #EthicsInAI #AIRegulation
www.oecd-ilibrary.org
A new dawn for public employment services
As part of broader digitalisation efforts, half of public employment services (PES) in OECD countries are employing Artificial Intelligence (AI) to enhance their services. AI is being adopted across all key tasks of PES, including most commonly to...
Первопроходцы искусственного интеллекта удостоены Нобелевской премии
Джеффри Хинтон и Джон Хопфилд совместно удостоены Нобелевской премии по физике 2024 года за их новаторский вклад в машинное обучение и нейронные сети—работу, которая заложила основу для текущего бума в сфере ИИ. Их достижения значительно повлияли на то, как современные модели искусственного интеллекта обучаются и обрабатывают информацию.
Хинтон, известный как «Крестный отец ИИ», разработал методы, позволяющие нейронным сетям учиться на своих ошибках—ключевой элемент в обучении современных моделей ИИ. В то же время Джон Хопфилд, которому сейчас 91 год и который работает профессором в Принстоне, в 1982 году представил модель, имитирующую то, как мозг восстанавливает воспоминания, что оказало глубокое влияние на архитектуру нейронных сетей.
Несмотря на их вклад, оба ученых выражают обеспокоенность по поводу будущего ИИ. Хинтон, покинувший Google в 2023 году, стал активным сторонником осторожного подхода к развитию технологий, подчеркивая потенциальные риски создания систем, которые могут превзойти человеческий интеллект.
#NobelPrize2024 #AILeadership #AIRegulation #MachineLearning
Джеффри Хинтон и Джон Хопфилд совместно удостоены Нобелевской премии по физике 2024 года за их новаторский вклад в машинное обучение и нейронные сети—работу, которая заложила основу для текущего бума в сфере ИИ. Их достижения значительно повлияли на то, как современные модели искусственного интеллекта обучаются и обрабатывают информацию.
Хинтон, известный как «Крестный отец ИИ», разработал методы, позволяющие нейронным сетям учиться на своих ошибках—ключевой элемент в обучении современных моделей ИИ. В то же время Джон Хопфилд, которому сейчас 91 год и который работает профессором в Принстоне, в 1982 году представил модель, имитирующую то, как мозг восстанавливает воспоминания, что оказало глубокое влияние на архитектуру нейронных сетей.
Несмотря на их вклад, оба ученых выражают обеспокоенность по поводу будущего ИИ. Хинтон, покинувший Google в 2023 году, стал активным сторонником осторожного подхода к развитию технологий, подчеркивая потенциальные риски создания систем, которые могут превзойти человеческий интеллект.
#NobelPrize2024 #AILeadership #AIRegulation #MachineLearning
NobelPrize.org
The Nobel Prize in Physics 2024
The Nobel Prize in Physics 2024 was awarded jointly to John J. Hopfield and Geoffrey E. Hinton "for foundational discoveries and inventions that enable machine learning with artificial neural networks"
Выпущено новое руководство по управлению в эпоху генеративного ИИ
Альянс по управлению ИИ Всемирного экономического форума опубликовал новое руководство "Управление в эпоху генеративного ИИ: 360° подход для устойчивой политики и регулирования." Этот документ предназначен для поддержки политиков в обеспечении баланса между инновациями в ИИ и управлением рисками, разработке национальных стратегий по ИИ и укреплении глобального сотрудничества в области управления ИИ.
В руководстве описан трехступенчатый подход к управлению искусственным интеллектом. Во-первых, предложено «Использование прошлого» путем оценки существующих нормативных актов и выявления пробелов, специфичных для генеративного ИИ. Политикам рекомендуется четко определять ответственность, привлекать заинтересованные стороны из различных секторов и обеспечивать прозрачность моделей ИИ.
Второй этап, «Создание настоящего», предусматривает необходимость сотрудничества между правительствами, промышленностью, гражданским обществом и академическими кругами для укрепления управления ИИ. Это включает предоставление стимулов для ответственного использования ИИ, поддержку крупных компаний и малых и средних предприятий, а также установление четких национальных приоритетов для руководства инвестициями в ИИ.
«Планирование будущего» сосредоточено на гибкости и международном сотрудничестве. В рамках этого предлагается инвестировать в экспертизу в области ИИ, использовать инструменты прогнозирования для предвидения новых рисков и укреплять международное сотрудничество по стандартам ИИ. По мере развития генеративного ИИ, данное руководство нацелено на обеспечение эффективной и адаптивной политики.
#WEF #AIRegulation
Альянс по управлению ИИ Всемирного экономического форума опубликовал новое руководство "Управление в эпоху генеративного ИИ: 360° подход для устойчивой политики и регулирования." Этот документ предназначен для поддержки политиков в обеспечении баланса между инновациями в ИИ и управлением рисками, разработке национальных стратегий по ИИ и укреплении глобального сотрудничества в области управления ИИ.
В руководстве описан трехступенчатый подход к управлению искусственным интеллектом. Во-первых, предложено «Использование прошлого» путем оценки существующих нормативных актов и выявления пробелов, специфичных для генеративного ИИ. Политикам рекомендуется четко определять ответственность, привлекать заинтересованные стороны из различных секторов и обеспечивать прозрачность моделей ИИ.
Второй этап, «Создание настоящего», предусматривает необходимость сотрудничества между правительствами, промышленностью, гражданским обществом и академическими кругами для укрепления управления ИИ. Это включает предоставление стимулов для ответственного использования ИИ, поддержку крупных компаний и малых и средних предприятий, а также установление четких национальных приоритетов для руководства инвестициями в ИИ.
«Планирование будущего» сосредоточено на гибкости и международном сотрудничестве. В рамках этого предлагается инвестировать в экспертизу в области ИИ, использовать инструменты прогнозирования для предвидения новых рисков и укреплять международное сотрудничество по стандартам ИИ. По мере развития генеративного ИИ, данное руководство нацелено на обеспечение эффективной и адаптивной политики.
#WEF #AIRegulation
World Economic Forum
Governance in the Age of Generative AI: A 360° Approach for Resilient Policy and Regulation 2024
The Governance in the Age of Generative AI: A 360° Approach for Resilient Policy and Regulation 2024 report
В США выпущен доклад об ответственности ИИ и деликтном праве
В США выпущен новый доклад «Ответственность по деликтному праву США за крупномасштабные убытки, причиненные ИИ», который содержит важные инсайты для разработчиков ИИ, политиков и юристов. В докладе рассматриваются юридические риски, с которыми сталкиваются разработчики ИИ, и как существующее деликтное право США может быть адаптировано для лучшего стимулирования ответственного внедрения ИИ.
Авторы подчеркивают, что разработчики ИИ, которые пренебрегают тщательными мерами безопасности, такими как всестороннее тестирование и внедрение надежных защитных мер, могут столкнуться со значительной ответственностью. В докладе также отмечается неопределенность в применении текущего деликтного права к ИИ, включая вариации в юридической интерпретации в разных штатах, что может привести к дорогостоящим судебным разбирательствам.
Доклад призывает законодателей рассмотреть возможность совершенствования правовых рамок ответственности и разработки отраслевых стандартов, способствующих безопасности. Создание четких протоколов безопасности и их внедрение в отрасли помогут сбалансировать инновации и ответственность. Установление ясных юридических ожиданий позволит всем заинтересованным сторонам лучше управлять рисками и одновременно формировать более безопасную среду для ИИ.
#AILiability #TortLaw #ResponsibleAI #AIRegulation
В США выпущен новый доклад «Ответственность по деликтному праву США за крупномасштабные убытки, причиненные ИИ», который содержит важные инсайты для разработчиков ИИ, политиков и юристов. В докладе рассматриваются юридические риски, с которыми сталкиваются разработчики ИИ, и как существующее деликтное право США может быть адаптировано для лучшего стимулирования ответственного внедрения ИИ.
Авторы подчеркивают, что разработчики ИИ, которые пренебрегают тщательными мерами безопасности, такими как всестороннее тестирование и внедрение надежных защитных мер, могут столкнуться со значительной ответственностью. В докладе также отмечается неопределенность в применении текущего деликтного права к ИИ, включая вариации в юридической интерпретации в разных штатах, что может привести к дорогостоящим судебным разбирательствам.
Доклад призывает законодателей рассмотреть возможность совершенствования правовых рамок ответственности и разработки отраслевых стандартов, способствующих безопасности. Создание четких протоколов безопасности и их внедрение в отрасли помогут сбалансировать инновации и ответственность. Установление ясных юридических ожиданий позволит всем заинтересованным сторонам лучше управлять рисками и одновременно формировать более безопасную среду для ИИ.
#AILiability #TortLaw #ResponsibleAI #AIRegulation
www.rand.org
U.S. Tort Liability for Large-Scale Artificial Intelligence Damages
Researchers find that AI developers face considerable liability exposure under U.S. tort law for harms caused by their models, particularly if those models are developed or released without utilizing rigorous safety procedures and industry-leading safety…
Департамент финансовых услуг Нью-Йорка опубликовал руководство по киберрискам, связанным с ИИ
16 октября 2024 года Департамент финансовых услуг штата Нью-Йорк (New York Department of Financial Services, NYDFS) выпустил руководство, в котором обозначены растущие киберриски, связанные с использованием искусственного интеллекта страховыми компаниями и бизнесами, работающими с виртуальной валютой. Руководство фокусируется на таких угрозах, как социальная инженерия, когда дипфейки и другие инструменты ИИ используются для получения конфиденциальной информации и обхода биометрических систем безопасности.
Также поднимается вопрос об усилении кибератак с помощью ИИ, что увеличивает мощность, масштаб и скорость угроз, а также риски утечки или кражи больших объемов непубличных данных. Руководство подчеркивает необходимость интеграции специфических для ИИ аспектов в уже существующие программы оценки рисков, управление поставщиками и практики управления данными.
#Cybersecurity #AICompliance #NYDFS #RiskManagement #AIRegulation
16 октября 2024 года Департамент финансовых услуг штата Нью-Йорк (New York Department of Financial Services, NYDFS) выпустил руководство, в котором обозначены растущие киберриски, связанные с использованием искусственного интеллекта страховыми компаниями и бизнесами, работающими с виртуальной валютой. Руководство фокусируется на таких угрозах, как социальная инженерия, когда дипфейки и другие инструменты ИИ используются для получения конфиденциальной информации и обхода биометрических систем безопасности.
Также поднимается вопрос об усилении кибератак с помощью ИИ, что увеличивает мощность, масштаб и скорость угроз, а также риски утечки или кражи больших объемов непубличных данных. Руководство подчеркивает необходимость интеграции специфических для ИИ аспектов в уже существующие программы оценки рисков, управление поставщиками и практики управления данными.
#Cybersecurity #AICompliance #NYDFS #RiskManagement #AIRegulation
Department of Financial Services
Industry Letter - October 16, 2024: Cybersecurity Risks Arising from Artificial Intelligence and Strategies to Combat Related Risks
Industry LetterTo: The executives and information security personnel at all entities regulated by the New York State Department of Financial Services ("DFS" or "the Department")Re: Cybersecurity Risks Arising from Artificial Intelligence and Strategies to…
Shoosmiths и Enzai запустили новый сервис для ИИ комплаенса
Британская юридическая фирма Shoosmiths и платформа управления ИИ Enzai объединились для запуска сервиса "AI Comply". Эта новая платформа разработана для того, чтобы помочь бизнесу ориентироваться в сложном регулировании ИИ, сочетая передовые рабочие процессы управления ИИ от Enzai с юридическими консультациями от Shoosmiths. Сервис предлагает комплексное решение для обеспечения соблюдения норм, применяемым к компаниям, использующим технологии искусственного интеллекта.
#AICompliance #AIRegulation #LegalTech #AIGovernance
Британская юридическая фирма Shoosmiths и платформа управления ИИ Enzai объединились для запуска сервиса "AI Comply". Эта новая платформа разработана для того, чтобы помочь бизнесу ориентироваться в сложном регулировании ИИ, сочетая передовые рабочие процессы управления ИИ от Enzai с юридическими консультациями от Shoosmiths. Сервис предлагает комплексное решение для обеспечения соблюдения норм, применяемым к компаниям, использующим технологии искусственного интеллекта.
#AICompliance #AIRegulation #LegalTech #AIGovernance
Shoosmiths
AI Comply
In today’s fast-paced AI landscape, compliance is the cornerstone of responsible AI deployment. Organisations must establish robust governance to maximise the commercial opportunities of artificial intelligence while safeguarding customers and protecting…