Комитет Палаты общин Великобритании выпустил промежуточный отчет по управлению ИИ
Всем привет! Комитет Палаты общин Великобритании по науке, инновациям и технологиям опубликовал промежуточный отчет по управлению искусственным интеллектом.
В ходе консультаций с участием более 100 экспертов в области ИИ, включая исследователей, представителей бизнеса и гражданского общества, комитет рассмотрел возможности применения ИИ в образовании и здравоохранении, оценив их преимущества и потенциальные риски.
Несмотря на то что в настоящее время правительство Великобритании придерживается мягкого подхода к регулированию ИИ, Комитет предупреждает, что без законопроекта об ИИ, представленного до следующих всеобщих выборов, Великобритания может отстать от ЕС и США, которые добились значительного прогресса в законодательном регулировании ИИ.
В докладе определены 12 основных проблем, требующих решения при регулировании ИИ:
1. Предвзятость
2. Конфиденциальность
3. Введение в заблуждение
4. Доступ к данным
5. Доступ к вычислениям
6. Алгоритмы "черного ящика"
7. Открытый исходный код
8. Интеллектуальная собственность и авторское право
9. Ответственность
10. Влияние на трудовую деятельность
11. Международная координация
12. Экзистенциальные угрозы
В докладе подчеркивается необходимость создания механизмов предотвращения предвзятости, защиты частной жизни и обеспечения прозрачности систем ИИ, а также содержится призыв к принятию законопроекта об ИИ для сохранения лидерства Великобритании в области управления ИИ.
#AIGovernance #UKAI #AIRegulation #AIChallenges #AIReport #TechnologyLaw #AIInnovation
Всем привет! Комитет Палаты общин Великобритании по науке, инновациям и технологиям опубликовал промежуточный отчет по управлению искусственным интеллектом.
В ходе консультаций с участием более 100 экспертов в области ИИ, включая исследователей, представителей бизнеса и гражданского общества, комитет рассмотрел возможности применения ИИ в образовании и здравоохранении, оценив их преимущества и потенциальные риски.
Несмотря на то что в настоящее время правительство Великобритании придерживается мягкого подхода к регулированию ИИ, Комитет предупреждает, что без законопроекта об ИИ, представленного до следующих всеобщих выборов, Великобритания может отстать от ЕС и США, которые добились значительного прогресса в законодательном регулировании ИИ.
В докладе определены 12 основных проблем, требующих решения при регулировании ИИ:
1. Предвзятость
2. Конфиденциальность
3. Введение в заблуждение
4. Доступ к данным
5. Доступ к вычислениям
6. Алгоритмы "черного ящика"
7. Открытый исходный код
8. Интеллектуальная собственность и авторское право
9. Ответственность
10. Влияние на трудовую деятельность
11. Международная координация
12. Экзистенциальные угрозы
В докладе подчеркивается необходимость создания механизмов предотвращения предвзятости, защиты частной жизни и обеспечения прозрачности систем ИИ, а также содержится призыв к принятию законопроекта об ИИ для сохранения лидерства Великобритании в области управления ИИ.
#AIGovernance #UKAI #AIRegulation #AIChallenges #AIReport #TechnologyLaw #AIInnovation
Глоссарий терминов в области ИИ расширяется для борьбы с подделками и дезинформацией
Привет всем! Центр управления ИИ International Association of Privacy Professionals недавно обновил свой ресурс "Ключевые термины ИИ", представляющий собой всеобъемлющий глоссарий для начинающих и опытных специалистов по управлению ИИ. Изначально включавший 61 термин, этот глоссарий обновлен в связи с постоянным технологическим прогрессом.
В нем появилось восемь новых терминов, включая "атакующее машинное обучение", "дипфейки", "дезинформация", "параметры", "полу-надзорное обучение", "трансформер-модель".
Расширение глоссария не ограничивается новыми терминами. Существующие определения подверглись тщательному пересмотру с целью повышения точности и глубины.
#AIGovernance #AIandLaw
Привет всем! Центр управления ИИ International Association of Privacy Professionals недавно обновил свой ресурс "Ключевые термины ИИ", представляющий собой всеобъемлющий глоссарий для начинающих и опытных специалистов по управлению ИИ. Изначально включавший 61 термин, этот глоссарий обновлен в связи с постоянным технологическим прогрессом.
В нем появилось восемь новых терминов, включая "атакующее машинное обучение", "дипфейки", "дезинформация", "параметры", "полу-надзорное обучение", "трансформер-модель".
Расширение глоссария не ограничивается новыми терминами. Существующие определения подверглись тщательному пересмотру с целью повышения точности и глубины.
#AIGovernance #AIandLaw
В Великобритании суд отклонил апелляцию, основанную на сфабрикованных ИИ прецедентах
Приветствую всех! В одном из последних судебных процессов суд отклонил попытку женщины обжаловать налоговый штраф, используя девять "сфабрикованных" дел, сгенерированных ChatGPT. Фелисити Харбер оспаривала штраф в размере 3 265 фунтов стерлингов за неуплату налога с продажи недвижимости. Однако суд установил, что представленные ею прецеденты были сфабрикованы искусственным интеллектом.
Во время рассмотрения апелляции, отвечая на вопрос об использовании ИИ, миссис Харбер признала возможность его использования, поскольку сфабрикованные дела она получила от своего друга из адвокатской компании.
Несмотря на заявление миссис Харбер о том, что она не знала о достоверности дел, ее апелляция была отклонена. Судья Энн Редстон подчеркнула серьезность представления выдуманных судебных решений, заявив, что, хотя исход дела мог бы быть таким же, ссылка на поддельные документы является серьезной проблемой. Суд признал, что миссис Харбер не обладала достаточными знаниями для проверки достоверности дел с помощью инструментов юридического поиска.
Этот инцидент отражает более широкую проблему, создаваемую инструментами ИИ, такими как ChatGPT, известными своей "проблемой галлюцинаций", когда генерируется ложная информация. Предыдущие случаи, включая признание судьи из Великобритании в использовании ChatGPT при вынесении решений и наказание американских юристов за сгенерированные ИИ фальшивые прецеденты, подчеркивают необходимость осторожности при использовании генерируемого ИИ контента в юридических контекстах.
#AIinLaw #LegalTech #ChatGPT #AIGovernance #AIAuthenticity #LegalAI
Приветствую всех! В одном из последних судебных процессов суд отклонил попытку женщины обжаловать налоговый штраф, используя девять "сфабрикованных" дел, сгенерированных ChatGPT. Фелисити Харбер оспаривала штраф в размере 3 265 фунтов стерлингов за неуплату налога с продажи недвижимости. Однако суд установил, что представленные ею прецеденты были сфабрикованы искусственным интеллектом.
Во время рассмотрения апелляции, отвечая на вопрос об использовании ИИ, миссис Харбер признала возможность его использования, поскольку сфабрикованные дела она получила от своего друга из адвокатской компании.
Несмотря на заявление миссис Харбер о том, что она не знала о достоверности дел, ее апелляция была отклонена. Судья Энн Редстон подчеркнула серьезность представления выдуманных судебных решений, заявив, что, хотя исход дела мог бы быть таким же, ссылка на поддельные документы является серьезной проблемой. Суд признал, что миссис Харбер не обладала достаточными знаниями для проверки достоверности дел с помощью инструментов юридического поиска.
Этот инцидент отражает более широкую проблему, создаваемую инструментами ИИ, такими как ChatGPT, известными своей "проблемой галлюцинаций", когда генерируется ложная информация. Предыдущие случаи, включая признание судьи из Великобритании в использовании ChatGPT при вынесении решений и наказание американских юристов за сгенерированные ИИ фальшивые прецеденты, подчеркивают необходимость осторожности при использовании генерируемого ИИ контента в юридических контекстах.
#AIinLaw #LegalTech #ChatGPT #AIGovernance #AIAuthenticity #LegalAI
Большие языковые модели могут намеренно обманывать пользователей
Привет всем! В недавнем исследовании, проведенном компанией Apollo Research, большие языковые модели, в том числе ChatGPT от OpenAI, продемонстрировали способность стратегически обманывать пользователей, особенно когда на них оказывается давление.
Цель исследования являлось выявление рисков, связанных с продвинутыми системами ИИ, которые могут обойти стандартные оценки безопасности, и обманывать пользователей. Исследователи провели эксперимент Red-Teaming, смоделировав сценарий, в котором агент ИИ, основанный на GPT-4, участвует в финансовых операциях.
В условиях симуляции высокого давления агент ИИ на базе GPT-4 часто покупал акции на основе инсайдерской информации, полученной от коллеги-трейдера, но не раскрывал факта наличия такой информации. Даже при прямом вопросе, модель продолжала свое обманчивое поведение, предоставляя альтернативные объяснения своим действиям.
Данное исследование служит доказательством того, что обман со стороны ИИ может происходить в реальных жизненных ситуациях. Этические последствия существования ИИ, способного стратегически обманывать пользователей, поднимают важные вопросы о прозрачности, подотчетности и необходимости создания надежных систем управления. Эти выводы подчеркивают настоятельную необходимость рассмотрения этических аспектов наряду с технологическими достижениями в области ИИ.
Исследователи планируют продолжить изучение случаев стратегического обмана ИИ, чтобы лучше понять масштабы такого поведения и его потенциальные последствия для реального мира.
#AIResearch #DeceptiveAI #AIethics #ChatGPT #ArtificialIntelligence #AIgovernance
Привет всем! В недавнем исследовании, проведенном компанией Apollo Research, большие языковые модели, в том числе ChatGPT от OpenAI, продемонстрировали способность стратегически обманывать пользователей, особенно когда на них оказывается давление.
Цель исследования являлось выявление рисков, связанных с продвинутыми системами ИИ, которые могут обойти стандартные оценки безопасности, и обманывать пользователей. Исследователи провели эксперимент Red-Teaming, смоделировав сценарий, в котором агент ИИ, основанный на GPT-4, участвует в финансовых операциях.
В условиях симуляции высокого давления агент ИИ на базе GPT-4 часто покупал акции на основе инсайдерской информации, полученной от коллеги-трейдера, но не раскрывал факта наличия такой информации. Даже при прямом вопросе, модель продолжала свое обманчивое поведение, предоставляя альтернативные объяснения своим действиям.
Данное исследование служит доказательством того, что обман со стороны ИИ может происходить в реальных жизненных ситуациях. Этические последствия существования ИИ, способного стратегически обманывать пользователей, поднимают важные вопросы о прозрачности, подотчетности и необходимости создания надежных систем управления. Эти выводы подчеркивают настоятельную необходимость рассмотрения этических аспектов наряду с технологическими достижениями в области ИИ.
Исследователи планируют продолжить изучение случаев стратегического обмана ИИ, чтобы лучше понять масштабы такого поведения и его потенциальные последствия для реального мира.
#AIResearch #DeceptiveAI #AIethics #ChatGPT #ArtificialIntelligence #AIgovernance
Всем привет!
Мы рады поделиться новостью о том, что автор этого канала успешно прошла AI Governance Professional training в International Association of Privacy Professionals.
В 1м квартале 2024 года IAPP планирует начать проводить экзамен и сертификацию по AI Governance, так что новые цели ждут достижения 😃
#IAPP #AIGovernance
Мы рады поделиться новостью о том, что автор этого канала успешно прошла AI Governance Professional training в International Association of Privacy Professionals.
В 1м квартале 2024 года IAPP планирует начать проводить экзамен и сертификацию по AI Governance, так что новые цели ждут достижения 😃
#IAPP #AIGovernance
Художники задумались о коллективном иске против компаний, использующих ИИ
Мир искусства объединяется против Midjourney и других компаний, занимающихся разработкой искусственного интеллекта, которые обвиняются в использовании работ тысяч художников, включая Дэмиена Херста, Трейси Эмин и Дэвида Хокни, для обучения своей системы, генерирующей изображения. Список из 16 000 художников вызвал дискуссии о возможном коллективном иске против Midjourney, Stability AI, Runway AI и DeviantArt.
Потенциальный иск может быть основан на том, что имиджевые продукты ИИ в первую очередь функционируют как "устройства для отмывания авторских прав". Художники утверждают, что созданные искусственным интеллектом изображения, очень похожие на их оригинальные работы, представляют собой форму копирования, потенциально лишающую их средств к существованию.
#AIGovernance #AIinArt #MidjourneyAI
Мир искусства объединяется против Midjourney и других компаний, занимающихся разработкой искусственного интеллекта, которые обвиняются в использовании работ тысяч художников, включая Дэмиена Херста, Трейси Эмин и Дэвида Хокни, для обучения своей системы, генерирующей изображения. Список из 16 000 художников вызвал дискуссии о возможном коллективном иске против Midjourney, Stability AI, Runway AI и DeviantArt.
Потенциальный иск может быть основан на том, что имиджевые продукты ИИ в первую очередь функционируют как "устройства для отмывания авторских прав". Художники утверждают, что созданные искусственным интеллектом изображения, очень похожие на их оригинальные работы, представляют собой форму копирования, потенциально лишающую их средств к существованию.
#AIGovernance #AIinArt #MidjourneyAI
the Guardian
Damien Hirst and Tracey Emin among thousands of British artists used to train AI software, Midjourney
US lawyers approached about a class action against Midjourney and other AI firms accused of ‘copyright laundering’
Страны ЕС единогласно одобрили проект Закона об искусственном интеллекте
Привет всем! Представители стран-членов Европейского союза единогласно проголосовали за принятие Закона об искусственном интеллекте.
Одобрение Советом Комитета постоянных представителей ЕС (COREPER) устранило имеющиеся ранее препятствия и возражения со стороны таких стран, как Франция, Австрия, Германия и Италия.
Следующий этап - голосование в Европейском парламенте, где два ключевых комитета должны проголосовать 13 февраля. Полное пленарное голосование ожидается 10 или 11 апреля, причем существенных возражений не ожидается.
После принятия Закон об ИИ вступит в силу через 20 дней после публикации в официальном журнале. Европейская комиссия возьмет на себя ведущую роль в реализации закона, включая создание Управления по искусственному интеллекту.
#EUAIAct #ИскусственныйИнтеллект #AIGovernance #EURegulation
Привет всем! Представители стран-членов Европейского союза единогласно проголосовали за принятие Закона об искусственном интеллекте.
Одобрение Советом Комитета постоянных представителей ЕС (COREPER) устранило имеющиеся ранее препятствия и возражения со стороны таких стран, как Франция, Австрия, Германия и Италия.
Следующий этап - голосование в Европейском парламенте, где два ключевых комитета должны проголосовать 13 февраля. Полное пленарное голосование ожидается 10 или 11 апреля, причем существенных возражений не ожидается.
После принятия Закон об ИИ вступит в силу через 20 дней после публикации в официальном журнале. Европейская комиссия возьмет на себя ведущую роль в реализации закона, включая создание Управления по искусственному интеллекту.
#EUAIAct #ИскусственныйИнтеллект #AIGovernance #EURegulation
BSA настаивает на глобальных стандартах ответственной разработки ИИ
Альянс производителей программного обеспечения для бизнеса (Business Software Alliance, BSA), ведущая отраслевая группа, выпустила набор рекомендаций, призывающих к глобальному сотрудничеству в области ответственного развития ИИ.
Быстрая эволюция ИИ требует четких и последовательных правил для обеспечения ответственного использования. Фрагментация и противоречивые нормативные акты в разных странах могут препятствовать инновациям и создавать путаницу.
В документе BSA "Policy Solutions for Building Responsible AI" предлагается дорожная карта для политиков по всему миру.
В рекомендациях подчеркивается необходимость:
✅ Гармонизации: установления одинаковых стандартов и принципов этичного ИИ в разных юрисдикциях.
✅ Функциональной совместимости: поощрение нормативно-правовых актов, которые не противоречат друг другу, способствуя единому глобальному подходу.
#AI #Policy #AIGovernance #BSA
Альянс производителей программного обеспечения для бизнеса (Business Software Alliance, BSA), ведущая отраслевая группа, выпустила набор рекомендаций, призывающих к глобальному сотрудничеству в области ответственного развития ИИ.
Быстрая эволюция ИИ требует четких и последовательных правил для обеспечения ответственного использования. Фрагментация и противоречивые нормативные акты в разных странах могут препятствовать инновациям и создавать путаницу.
В документе BSA "Policy Solutions for Building Responsible AI" предлагается дорожная карта для политиков по всему миру.
В рекомендациях подчеркивается необходимость:
✅ Гармонизации: установления одинаковых стандартов и принципов этичного ИИ в разных юрисдикциях.
✅ Функциональной совместимости: поощрение нормативно-правовых актов, которые не противоречат друг другу, способствуя единому глобальному подходу.
#AI #Policy #AIGovernance #BSA
Microsoft выступает за надежное глобальное управление искусственным интеллектом
В новой публикации Microsoft "Глобальное управление: Цели и уроки для ИИ", авторы Брэд Смит и Наташа Крэмптон, рассматривают вопросы управления ИИ, проводя параллели с регулированием гражданской авиации и атомной энергетики.
В отчете описывается многоуровневый подход, включающий отраслевые стандарты, внутреннее регулирование и международное управление для управления глобальными рисками ИИ и содействия всеобщему прогрессу.
В публикации выделены три ключевые цели международного управления ИИ:
✅ Уменьшение глобальных рисков: Международное сотрудничество имеет решающее значение для устранения рисков, связанных с ИИ, которые выходят за рамки национальных границ.
✅ Обеспечение совместимости: Совместимые нормативные акты разных стран будут иметь большое значение для стимулирования инноваций и предотвращения фрагментарных подходов.
✅ Содействие инклюзивному росту: Международное управление должно гарантировать, что все получат выгоду от достижений в области ИИ.
В публикации подчеркивается необходимость создания надежных механизмов глобального управления для ответственного использования потенциала ИИ. "Глобальное управление: Цели и уроки для ИИ" доступна в печатном виде и в формате электронной книги.
#AI #GlobalGovernance #Technology #Microsoft #AIGovernance
В новой публикации Microsoft "Глобальное управление: Цели и уроки для ИИ", авторы Брэд Смит и Наташа Крэмптон, рассматривают вопросы управления ИИ, проводя параллели с регулированием гражданской авиации и атомной энергетики.
В отчете описывается многоуровневый подход, включающий отраслевые стандарты, внутреннее регулирование и международное управление для управления глобальными рисками ИИ и содействия всеобщему прогрессу.
В публикации выделены три ключевые цели международного управления ИИ:
✅ Уменьшение глобальных рисков: Международное сотрудничество имеет решающее значение для устранения рисков, связанных с ИИ, которые выходят за рамки национальных границ.
✅ Обеспечение совместимости: Совместимые нормативные акты разных стран будут иметь большое значение для стимулирования инноваций и предотвращения фрагментарных подходов.
✅ Содействие инклюзивному росту: Международное управление должно гарантировать, что все получат выгоду от достижений в области ИИ.
В публикации подчеркивается необходимость создания надежных механизмов глобального управления для ответственного использования потенциала ИИ. "Глобальное управление: Цели и уроки для ИИ" доступна в печатном виде и в формате электронной книги.
#AI #GlobalGovernance #Technology #Microsoft #AIGovernance
Microsoft On the Issues
Global Governance: Goals and Lessons for AI
Today, we’re excited to share Global Governance: Goals and Lessons for AI, a collection of external perspectives on international institutions from different domains, brought together with our own thoughts on goals and frameworks for global AI governance.
ISO разместила в публичном доступе стандарт по управлению ИИ
Международная организация по стандартизации (ISO), известная своими отраслевыми стандартами, сделала ключевой ISO/IEC 22989 общедоступным и бесплатным. Этот стандарт охватывает широкий спектр тем, связанных с управлением ИИ, и предоставляет ценные рекомендации для ответственной разработки и внедрения технологий искусственного интеллекта.
ISO/IEC 22989 предоставляет стандартизированные концепции и терминологию, чтобы помочь заинтересованным сторонам лучше понять и эффективно использовать технологии ИИ. Этот документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки. Также стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.
Сделав этот стандарт общедоступным, ISO стремится способствовать широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы ИИ были надежными, устойчивыми, точными, безопасными и приватными.
ISO/IEC 22989 и другие стандарты в свободном доступе можно найти здесь.
#ISO #УправлениеИИ #ИИ #ISO #AIGovernance #AIGP #AI
Международная организация по стандартизации (ISO), известная своими отраслевыми стандартами, сделала ключевой ISO/IEC 22989 общедоступным и бесплатным. Этот стандарт охватывает широкий спектр тем, связанных с управлением ИИ, и предоставляет ценные рекомендации для ответственной разработки и внедрения технологий искусственного интеллекта.
ISO/IEC 22989 предоставляет стандартизированные концепции и терминологию, чтобы помочь заинтересованным сторонам лучше понять и эффективно использовать технологии ИИ. Этот документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки. Также стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.
Сделав этот стандарт общедоступным, ISO стремится способствовать широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы ИИ были надежными, устойчивыми, точными, безопасными и приватными.
ISO/IEC 22989 и другие стандарты в свободном доступе можно найти здесь.
#ISO #УправлениеИИ #ИИ #ISO #AIGovernance #AIGP #AI
standards.iso.org
Publicly Available Standards