Stanford HAI опубликовал свой AI Index за 2024 год
На днях был опубликован очередной отчет AI Index, посвященный основным событиям (преимущественно в США), произошедшим в сфере ИИ за 2024 год. Отчет состоит из девяти разделов. Традиционно нас больше всего интересует седьмой раздел – Policy and Governance.
В нем очень много интересных данных. Пройдемся по основным выводам:
В США за последние пять лет резко возросло количество нормативных актов, связанных со сферой ИИ. В 2023 году их насчитывается 25 против одного в 2016 году. При том, что за прошедший год число актов выросло на 56,3%. В два раза выросло и число законопроектов – 181 за 2023 год против 88 за 2022. Также с 17 до 21 увеличилось число органов исполнительной власти, которые выпустили какие-либо документы, связанные с ИИ (это показывает расширение числа отраслей, в которых ИИ стал активно применяться).
Аналогичная тенденция наблюдается и в глобальном масштабе: за 2023 год число актов, так или иначе связанных с ИИ, удвоилось по всему миру (с 1247 в 2022 году до 2175 в 2023 году). За прошлый год ИИ упоминался в законодательных актах 49 стран.
Скриншоты с наиболее интересными цифрами прикладываю к посту.
UPDATE:
1 мая состоится презентация отчета.
Если кто- то желает посетить (очно или онлайн), то зарегистрироваться можно по ссылке.
На днях был опубликован очередной отчет AI Index, посвященный основным событиям (преимущественно в США), произошедшим в сфере ИИ за 2024 год. Отчет состоит из девяти разделов. Традиционно нас больше всего интересует седьмой раздел – Policy and Governance.
В нем очень много интересных данных. Пройдемся по основным выводам:
В США за последние пять лет резко возросло количество нормативных актов, связанных со сферой ИИ. В 2023 году их насчитывается 25 против одного в 2016 году. При том, что за прошедший год число актов выросло на 56,3%. В два раза выросло и число законопроектов – 181 за 2023 год против 88 за 2022. Также с 17 до 21 увеличилось число органов исполнительной власти, которые выпустили какие-либо документы, связанные с ИИ (это показывает расширение числа отраслей, в которых ИИ стал активно применяться).
Аналогичная тенденция наблюдается и в глобальном масштабе: за 2023 год число актов, так или иначе связанных с ИИ, удвоилось по всему миру (с 1247 в 2022 году до 2175 в 2023 году). За прошлый год ИИ упоминался в законодательных актах 49 стран.
Скриншоты с наиболее интересными цифрами прикладываю к посту.
UPDATE:
1 мая состоится презентация отчета.
Если кто- то желает посетить (очно или онлайн), то зарегистрироваться можно по ссылке.
❤5 4
Очередная версия текста проекта Регламента ЕС об ИИ
Наверное, многие из тех, кто ознакамливались с текстом проекта Регламента ЕС об ИИ, опубликованным по итогам трилога, обратили внимание на то, что документ находился в достаточно сыром состоянии в плане юридической техники и оформления. Имелись и фактические ошибки, которые породили массу споров среди экспертов относительно истинного содержания отдельных статей.
Вчера Европарламент опубликовал исправленный текст проекта Регламента.
Далее, 18 апреля исправленный текст будет рассмотрен на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO).
Если все пройдет нормально, то далее, как и предполагалось ранее, он будет вынесен на пленарное заседание Европарламента во второй половине апреля.
Наверное, многие из тех, кто ознакамливались с текстом проекта Регламента ЕС об ИИ, опубликованным по итогам трилога, обратили внимание на то, что документ находился в достаточно сыром состоянии в плане юридической техники и оформления. Имелись и фактические ошибки, которые породили массу споров среди экспертов относительно истинного содержания отдельных статей.
Вчера Европарламент опубликовал исправленный текст проекта Регламента.
Далее, 18 апреля исправленный текст будет рассмотрен на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO).
Если все пройдет нормально, то далее, как и предполагалось ранее, он будет вынесен на пленарное заседание Европарламента во второй половине апреля.
Обновленная версия Российской Национальной стратегии развития искусственного интеллекта до 2030 года
Давненько ничего не писал про Россию. Новость не самая свежая, но требует внимания. 15 февраля вступил в силу указ Президента РФ, который внес поправки в его же Указ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации».
Исходя из содержания, документ призван осовременить первоначальную версию указа от 2019 года, которая уже значительно устарела. Хотя и раньше к ней была масса вопросов.
Во-первых, истекает жизненный цикл у нацпроекта «Цифровая экономика», поэтому поручается до 1 июля 2024 г. обеспечить включение ФП «Искусственный интеллект» в новый нацпроект «Экономика данных», который должен быть разработан в этом году.
Во-вторых, незначительно изменилось определение ИИ.
Теперь это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Жирным выделил места, которые изменились. С самого начала это определение мне казалось несколько странным, так как оно: а) отсылает к способностям и когнитивным функциям человека, а не дает нам конкретные признаки ИИ; б) не является технологически нейтральным (что очень важно для нормативного регулирования), но при этом и не определяет перечень ИИ-технологий, а только вскользь упоминает ML; в) если речь идет про конкретные задачи, то получается, тут мы говорим только о «слабом ИИ»? (дальше будет понятно, к чему этот вопрос). Понятно, что определение взято из техстандарта, но терминология ОЭСР и ISO/IEC вызывает значительно меньше вопросов.
Незначительно поменялись и другие термины.
В-третьих, появился целый спектр новых терминов, например:
Сильный искусственный интеллект – тип искусственного интеллекта, который способен выполнять различные задачи, взаимодействовать с человеком и самостоятельно (без участия человека) адаптироваться к изменяющимся условиям.
Друзья, поздравляю, если дословно читать указ, то AGI уже тут!
Но если отбросить шутки, то не очень понятно, зачем такое теоретическое и размытое определение включать в НПА. Даже в науке нет устоявшегося подхода. Кто-то определяет AGI через наличие сознания, а кто-то – через возможность выполнять любые (не различные) задачи на одном уровне со средним человеком.
Есть сомнения, что к AGI можно отнести систему, которая может выполнять, допустим, две-три-пять задач на одном уровне с человеком, взаимодействовать с ним (например, общаться через какой-либо интерфейс) и адаптироваться (например, в ходе общения и перемещения в пространстве).
На мой взгляд, лучше доработать определение ИИ (систем ИИ), чтобы оно позволяло четко понимать предмет регулирования, чем вводить раньше времени еще более широкие термины.
Чтобы соответствовать духу времени были также включены определения модели ИИ, параметров модели ИИ, большой генеративной модели и большой фундаментальной модели.
Большие фундаментальные модели отличаются тем, что они могут: а) быть основой для создания и доработки различных видов программного обеспечения; б) содержать не менее 1 млрд. параметров (например, в GPT-2 - 1,5 млрд.); в) применяться для выполнения различных задач.
Интересно, что в Указе дается определение сильного ИИ, но при этом отсутствует какая-либо классификация фундаментальных моделей. Хотя, например, наиболее продвинутые модели уже выделяются и в проекте Регламента ЕС об ИИ и в последнем указе Президента США. Писал про это многократно на канале. Например, тут.
В тексте Указа также содержится много иной информации о современных трендах развития ИИ, а также о достигнутых результатах и планах на будущее. Хочется про них написать, но в посте уже лимит🤩 .
Давненько ничего не писал про Россию. Новость не самая свежая, но требует внимания. 15 февраля вступил в силу указ Президента РФ, который внес поправки в его же Указ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации».
Исходя из содержания, документ призван осовременить первоначальную версию указа от 2019 года, которая уже значительно устарела. Хотя и раньше к ней была масса вопросов.
Во-первых, истекает жизненный цикл у нацпроекта «Цифровая экономика», поэтому поручается до 1 июля 2024 г. обеспечить включение ФП «Искусственный интеллект» в новый нацпроект «Экономика данных», который должен быть разработан в этом году.
Во-вторых, незначительно изменилось определение ИИ.
Теперь это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Жирным выделил места, которые изменились. С самого начала это определение мне казалось несколько странным, так как оно: а) отсылает к способностям и когнитивным функциям человека, а не дает нам конкретные признаки ИИ; б) не является технологически нейтральным (что очень важно для нормативного регулирования), но при этом и не определяет перечень ИИ-технологий, а только вскользь упоминает ML; в) если речь идет про конкретные задачи, то получается, тут мы говорим только о «слабом ИИ»? (дальше будет понятно, к чему этот вопрос). Понятно, что определение взято из техстандарта, но терминология ОЭСР и ISO/IEC вызывает значительно меньше вопросов.
Незначительно поменялись и другие термины.
В-третьих, появился целый спектр новых терминов, например:
Сильный искусственный интеллект – тип искусственного интеллекта, который способен выполнять различные задачи, взаимодействовать с человеком и самостоятельно (без участия человека) адаптироваться к изменяющимся условиям.
Друзья, поздравляю, если дословно читать указ, то AGI уже тут!
Но если отбросить шутки, то не очень понятно, зачем такое теоретическое и размытое определение включать в НПА. Даже в науке нет устоявшегося подхода. Кто-то определяет AGI через наличие сознания, а кто-то – через возможность выполнять любые (не различные) задачи на одном уровне со средним человеком.
Есть сомнения, что к AGI можно отнести систему, которая может выполнять, допустим, две-три-пять задач на одном уровне с человеком, взаимодействовать с ним (например, общаться через какой-либо интерфейс) и адаптироваться (например, в ходе общения и перемещения в пространстве).
На мой взгляд, лучше доработать определение ИИ (систем ИИ), чтобы оно позволяло четко понимать предмет регулирования, чем вводить раньше времени еще более широкие термины.
Чтобы соответствовать духу времени были также включены определения модели ИИ, параметров модели ИИ, большой генеративной модели и большой фундаментальной модели.
Большие фундаментальные модели отличаются тем, что они могут: а) быть основой для создания и доработки различных видов программного обеспечения; б) содержать не менее 1 млрд. параметров (например, в GPT-2 - 1,5 млрд.); в) применяться для выполнения различных задач.
Интересно, что в Указе дается определение сильного ИИ, но при этом отсутствует какая-либо классификация фундаментальных моделей. Хотя, например, наиболее продвинутые модели уже выделяются и в проекте Регламента ЕС об ИИ и в последнем указе Президента США. Писал про это многократно на канале. Например, тут.
В тексте Указа также содержится много иной информации о современных трендах развития ИИ, а также о достигнутых результатах и планах на будущее. Хочется про них написать, но в посте уже лимит
Please open Telegram to view this post
VIEW IN TELEGRAM
publication.pravo.gov.ru
Указ Президента Российской Федерации от 15.02.2024 № 124 ∙ Официальное опубликование правовых актов
Указ Президента Российской Федерации от 15.02.2024 № 124
"О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим…
"О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим…
Этика на рубеже создания продвинутых ИИ-помощников
Обычно я не фанат разговоров об этике, когда ею пытаются заменить комплексное правовое регулирование. Однако в тех областях, в которых технологии придут в нашу жизнь не завтра, а послезавтра, исследования философов помогают подсветить для юристов проблемы и развилки, потребующие будущих законодательных решений. В этой связи с интересом прочитал статью Google Deepmind на тему, которая давно волновала мой юридический мозг: Этика продвинутых ИИ-помощников. Исследование достаточно объемное (268 страниц), но и писало его около полсотни авторов из авторитетных организаций. Тем не менее бояться не стоит. Одна библиография, как это обычно бывает, занимает почти 50 страниц.
Во-первых, авторы прочат, что такие ассистенты окажут фундаментальное влияние на общество, так как будут использоваться не только во всех сфера экономической жизни в качестве универсальных помощников, но станут выступать в роли личных советников, партнеров, компаньонов и даже наставников(и наставников наставников)🤩 . В итоге это повлияет и на самих людей, и на то, каким образом они коммуницируют и выстраивают отношения. А нас, юристов, очень сильно заботит ситуация, когда общественные отношения видоизменяются. Как правило, это приводит к трансформации существующих правовых институтов и возникновению новых (работы будет много).
Во-вторых, резко возрастет уровень автономности таких систем ИИ. Это нужно для того, чтобы они могли самостоятельно выбирать варианты решения задач на основе верхнеуровневых целей, поставленных пользователем. Очевидно, это может вызвать массу негативных последствий: от мисандерстендинга между пользователем и системой до злонамеренного противоправного использования. Для решения этих проблем авторы предлагают свой подход к элайнменту (выравниванию целей и задач между человеком и системой ИИ). Кстати, все еще ждем решение этой проблемы от OpenAI. Они обещали решить ее за четыре года (уже осталось три). Возросший уровень автономности, очевидно, снова оголит классические проблемные аспекты нормативного регулирования вроде информационной безопасности, оборота данных, ответственности, прозрачности и непредвзятости. Однако будут и новые вызовы. Например, вопрос юридических рамок работы таких систем и возможности делегирования им принятия юридически значимых решений. Потребуются и новые подходы и к оценке таких систем и моделей. Например, по влиянию на человека и общество в целом.
В-третьих, это приведет к еще большей антропоморфизации ИИ-ассистентов. С юридической стороны потребуется установление норм, которые будут призваны сохранить здоровые отношения между человеком и технологическими решениями. В том числе путем ограничения манипулятивных практик со стороны бизнеса и злоумышленников. Также даже страшно представлять, каким количеством чувствительной информации о человеке такой ассистент будет обладать. Помимо этого, снова станут актуальными обсуждения этической стороны вопроса в плане жестокого отношения к системам ИИ и иных «прав роботов». Ведь для многих людей такие системы с раннего детства фактически станут друзьями и воспитателями.
К сожалению, в фантастических произведениях не всегда рассматривается роль юриспруденции в высокотехнологичном будущем. Очевидно, что в реальной жизни нормативное регулирование будет отчасти влиять на то, чтобы вы в конечном счете оказались в комнате с Джарвисом, а не HAL 9000.
Обычно я не фанат разговоров об этике, когда ею пытаются заменить комплексное правовое регулирование. Однако в тех областях, в которых технологии придут в нашу жизнь не завтра, а послезавтра, исследования философов помогают подсветить для юристов проблемы и развилки, потребующие будущих законодательных решений. В этой связи с интересом прочитал статью Google Deepmind на тему, которая давно волновала мой юридический мозг: Этика продвинутых ИИ-помощников. Исследование достаточно объемное (268 страниц), но и писало его около полсотни авторов из авторитетных организаций. Тем не менее бояться не стоит. Одна библиография, как это обычно бывает, занимает почти 50 страниц.
Во-первых, авторы прочат, что такие ассистенты окажут фундаментальное влияние на общество, так как будут использоваться не только во всех сфера экономической жизни в качестве универсальных помощников, но станут выступать в роли личных советников, партнеров, компаньонов и даже наставников
Во-вторых, резко возрастет уровень автономности таких систем ИИ. Это нужно для того, чтобы они могли самостоятельно выбирать варианты решения задач на основе верхнеуровневых целей, поставленных пользователем. Очевидно, это может вызвать массу негативных последствий: от мисандерстендинга между пользователем и системой до злонамеренного противоправного использования. Для решения этих проблем авторы предлагают свой подход к элайнменту (выравниванию целей и задач между человеком и системой ИИ). Кстати, все еще ждем решение этой проблемы от OpenAI. Они обещали решить ее за четыре года (уже осталось три). Возросший уровень автономности, очевидно, снова оголит классические проблемные аспекты нормативного регулирования вроде информационной безопасности, оборота данных, ответственности, прозрачности и непредвзятости. Однако будут и новые вызовы. Например, вопрос юридических рамок работы таких систем и возможности делегирования им принятия юридически значимых решений. Потребуются и новые подходы и к оценке таких систем и моделей. Например, по влиянию на человека и общество в целом.
В-третьих, это приведет к еще большей антропоморфизации ИИ-ассистентов. С юридической стороны потребуется установление норм, которые будут призваны сохранить здоровые отношения между человеком и технологическими решениями. В том числе путем ограничения манипулятивных практик со стороны бизнеса и злоумышленников. Также даже страшно представлять, каким количеством чувствительной информации о человеке такой ассистент будет обладать. Помимо этого, снова станут актуальными обсуждения этической стороны вопроса в плане жестокого отношения к системам ИИ и иных «прав роботов». Ведь для многих людей такие системы с раннего детства фактически станут друзьями и воспитателями.
К сожалению, в фантастических произведениях не всегда рассматривается роль юриспруденции в высокотехнологичном будущем. Очевидно, что в реальной жизни нормативное регулирование будет отчасти влиять на то, чтобы вы в конечном счете оказались в комнате с Джарвисом, а не HAL 9000.
Please open Telegram to view this post
VIEW IN TELEGRAM
Google DeepMind
The ethics of advanced AI assistants
Exploring the promise and risks of a future with more capable AI
🔥10 3
Национальный институт стандартов и технологий США (NIST) опубликовал четыре проекта документа, связанных с генеративными системами ИИ
Вчера Национальный институт стандартов и технологий США опубликовал четыре проекта документа, разработка которых была определена октябрьским Указом Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).
Почти все документы содержат важные практические рекомендации. Однако это пока лишь первые версии, размещенные для публичного обсуждения. Кратко пройдемся по их содержанию:
1. AI RMF Generative AI Profile (NIST AI 600-1)
Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах.
Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. В их числе: 1) снижение барьеров по созданию химического, биологического, ядреного и другого вооружения; 2) конфабуляции (в быту их часто именуют галлюцинациями); 3) генерация опасных рекомендации и жесткого контента; 3) конфиденциальность; 5) безопасность окружающей среды; 6) взаимодействие человека с системой ИИ, способное привести к предвзятостям, мисэлайнменту и т.п.; 7) целостность информации; 8) информационная безопасность; 9) интеллектуальная собственность; 10) генерация непристойного или оскорбляющего контента; 11) генерация токсичного или предвзятого по каким-либо человеческим характеристикам контента; 12) многоступенчатость вывода систем и моделей на рынок и различные этапы их жизненного цикла.
2. Secure Software Development Practices for Generative AI (NIST SP 800-218A)
Документ также призван дополнить AI RMF и предусматривает особенности применения Системы безопасной разработки программного обеспечения Secure Software Development Framework (SSDF). Он содержит конкретные шаги по имплементации SSDF, которые призваны обеспечить безопасность разработки и применения систем и моделей ИИ.
3. Reducing Risks Posed by Synthetic Content (NIST AI 100-4)
В отчете рассматриваются существующие методы и рекомендации для: 1) проверки подлинности контента и отслеживания его происхождения; 2) маркировки сгенерированного контента, например, с помощью водяных знаков; 3) обнаружения сгенерированного контента; 4) предотвращения создания генеративными системами ИИ противоправного сексуализированного или насильственного контента; 5) тестирования систем и моделей; 6) оценки сгенерированного контента.
4. A Plan for Global Engagement on AI Standards (NIST AI 100-5)
В документе описывается план разработки стандартов в сфере ИИ.
Также в NIST объявили о создании исследовательского проекта GenAI, призванного в будущем разработать методики по оценке систем и моделей ИИ, требований к наборам данных и маркировке контента. На первом этапе предполагается проведение исследования, призванного разработать методику дифференциации сгенерированного контента и созданного человеком.
Вчера Национальный институт стандартов и технологий США опубликовал четыре проекта документа, разработка которых была определена октябрьским Указом Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).
Почти все документы содержат важные практические рекомендации. Однако это пока лишь первые версии, размещенные для публичного обсуждения. Кратко пройдемся по их содержанию:
1. AI RMF Generative AI Profile (NIST AI 600-1)
Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах.
Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. В их числе: 1) снижение барьеров по созданию химического, биологического, ядреного и другого вооружения; 2) конфабуляции (в быту их часто именуют галлюцинациями); 3) генерация опасных рекомендации и жесткого контента; 3) конфиденциальность; 5) безопасность окружающей среды; 6) взаимодействие человека с системой ИИ, способное привести к предвзятостям, мисэлайнменту и т.п.; 7) целостность информации; 8) информационная безопасность; 9) интеллектуальная собственность; 10) генерация непристойного или оскорбляющего контента; 11) генерация токсичного или предвзятого по каким-либо человеческим характеристикам контента; 12) многоступенчатость вывода систем и моделей на рынок и различные этапы их жизненного цикла.
2. Secure Software Development Practices for Generative AI (NIST SP 800-218A)
Документ также призван дополнить AI RMF и предусматривает особенности применения Системы безопасной разработки программного обеспечения Secure Software Development Framework (SSDF). Он содержит конкретные шаги по имплементации SSDF, которые призваны обеспечить безопасность разработки и применения систем и моделей ИИ.
3. Reducing Risks Posed by Synthetic Content (NIST AI 100-4)
В отчете рассматриваются существующие методы и рекомендации для: 1) проверки подлинности контента и отслеживания его происхождения; 2) маркировки сгенерированного контента, например, с помощью водяных знаков; 3) обнаружения сгенерированного контента; 4) предотвращения создания генеративными системами ИИ противоправного сексуализированного или насильственного контента; 5) тестирования систем и моделей; 6) оценки сгенерированного контента.
4. A Plan for Global Engagement on AI Standards (NIST AI 100-5)
В документе описывается план разработки стандартов в сфере ИИ.
Также в NIST объявили о создании исследовательского проекта GenAI, призванного в будущем разработать методики по оценке систем и моделей ИИ, требований к наборам данных и маркировке контента. На первом этапе предполагается проведение исследования, призванного разработать методику дифференциации сгенерированного контента и созданного человеком.
NIST
Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI
Announcements include draft guidance documents, a draft plan for international standards, and a new measurement program opening for public comment.
❤4 3🔥2 2
Исследование политик допустимого использования базовых моделей ИИ
Друзья, в праздники я немного приболел, но уже возвращаюсь с новым постом. Недавно Кевин Клайман из Stanford HAI опубликовал пост, в котором сравнил политики допустимого использования базовых моделей 30 ведущих компаний-разработчиков.
Данные политики распространены в сфере информационных технологий и определяют условия и ограничения для пользователей по использования продуктов и услуг. В случае с моделями ИИ политики допустимого использования в том числе помогают разработчикам уменьшить риски наступления негативных последствий, которые связаны с техническими недостатками и особенностями продуктов (предвзятости, дезинформация, галлюцинации и т.п.).
Как правило, политики либо размещаются отдельно, либо включаются в другие документы, такие как, например, пользовательские соглашения или лицензионные договоры.
Помимо рассматриваемых политик, отдельные ограничения по использованию моделей могут включаться и в другие документы, такие как политики поведения моделей, карточки моделей, политики API, договоры с третьими лицами (например, поставщиками облачных услуг или данных). С технической стороны негативные последствия использования моделей уменьшаются за счет их настройки и использования обучения на основе отзывов от человека или ИИ (RLHF, RLAIF).
К посту прикрепляю скриншоты, на которых можно увидеть примеры по всем 30 компаниям, а также таксономию ограничений.
Также можно сделать несколько общих выводов:
- пока что не существует единого подхода к набору и содержанию политик, которые должны публиковать компании. Соответственно, их содержание достаточно сильно разнится, как и сценарии запрещенного использования;
- законодательством данный вопрос регулируется достаточно скудно. Например, Китайские Временные меры по управлению генеративными системами ИИ устанавливают перечень запрещенных сценариев использования систем и моделей ИИ, но не регламентируют необходимость разработки отдельной политики. Проект Регламента ЕС об ИИ устанавливает необходимость публикации соответствующей политики для поставщиков моделей ИИ общего назначения. В США данный вопрос является предметом добровольного отраслевого саморегулирования;
- запрет отдельных сценариев использования моделей ИИ имеет отрицательные последствия в виде ограничения развития отдельных отраслей и использования моделей исследователями.
Друзья, в праздники я немного приболел, но уже возвращаюсь с новым постом. Недавно Кевин Клайман из Stanford HAI опубликовал пост, в котором сравнил политики допустимого использования базовых моделей 30 ведущих компаний-разработчиков.
Данные политики распространены в сфере информационных технологий и определяют условия и ограничения для пользователей по использования продуктов и услуг. В случае с моделями ИИ политики допустимого использования в том числе помогают разработчикам уменьшить риски наступления негативных последствий, которые связаны с техническими недостатками и особенностями продуктов (предвзятости, дезинформация, галлюцинации и т.п.).
Как правило, политики либо размещаются отдельно, либо включаются в другие документы, такие как, например, пользовательские соглашения или лицензионные договоры.
Помимо рассматриваемых политик, отдельные ограничения по использованию моделей могут включаться и в другие документы, такие как политики поведения моделей, карточки моделей, политики API, договоры с третьими лицами (например, поставщиками облачных услуг или данных). С технической стороны негативные последствия использования моделей уменьшаются за счет их настройки и использования обучения на основе отзывов от человека или ИИ (RLHF, RLAIF).
К посту прикрепляю скриншоты, на которых можно увидеть примеры по всем 30 компаниям, а также таксономию ограничений.
Также можно сделать несколько общих выводов:
- пока что не существует единого подхода к набору и содержанию политик, которые должны публиковать компании. Соответственно, их содержание достаточно сильно разнится, как и сценарии запрещенного использования;
- законодательством данный вопрос регулируется достаточно скудно. Например, Китайские Временные меры по управлению генеративными системами ИИ устанавливают перечень запрещенных сценариев использования систем и моделей ИИ, но не регламентируют необходимость разработки отдельной политики. Проект Регламента ЕС об ИИ устанавливает необходимость публикации соответствующей политики для поставщиков моделей ИИ общего назначения. В США данный вопрос является предметом добровольного отраслевого саморегулирования;
- запрет отдельных сценариев использования моделей ИИ имеет отрицательные последствия в виде ограничения развития отдельных отраслей и использования моделей исследователями.
❤5 5
В ЕС начал действовать ИИ-Пакт
В мае в ЕС начал действовать ИИ-Пакт, направленный на то, чтобы помочь бизнесу подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ. Пакт был запущен в ноябре 2023 года (писал об этом тут). С этого момента более 550 компаний выразили желание в нем участвовать.
Пакт состоит из двух основных элементов:
Первый элемент включает обмен информацией между органами ЕС и бизес-сообществом, который призван содействовать в подготовке к соблюдению требований грядущего Регламента. Для этого AI Office будет проводить разъяснительные мероприятия, а также собирать и публиковать лучшие практики.
Второй элемент предполагает поддержку бизнеса со стороны органов ЕС в поэтапном добровольном принятии обязательств по выполнению требований Регламента до того, как они станут общеобязательными. AI Office также будет обобщать и публиковать соответствующую практику.
ВАЖНО: 16 мая AI Office проведет первый вебинар по разъяснению положений проекта Регламента ЕС об ИИ. На нем будут рассмотрены основные подходы к управлению рисками.
В мае в ЕС начал действовать ИИ-Пакт, направленный на то, чтобы помочь бизнесу подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ. Пакт был запущен в ноябре 2023 года (писал об этом тут). С этого момента более 550 компаний выразили желание в нем участвовать.
Пакт состоит из двух основных элементов:
Первый элемент включает обмен информацией между органами ЕС и бизес-сообществом, который призван содействовать в подготовке к соблюдению требований грядущего Регламента. Для этого AI Office будет проводить разъяснительные мероприятия, а также собирать и публиковать лучшие практики.
Второй элемент предполагает поддержку бизнеса со стороны органов ЕС в поэтапном добровольном принятии обязательств по выполнению требований Регламента до того, как они станут общеобязательными. AI Office также будет обобщать и публиковать соответствующую практику.
ВАЖНО: 16 мая AI Office проведет первый вебинар по разъяснению положений проекта Регламента ЕС об ИИ. На нем будут рассмотрены основные подходы к управлению рисками.
Курс по AI Governance от RPPA
Друзья, я присоединился в качестве преподавателя на курс AI Governance, который проводит Russian Privacy Professionals Association.
Курс поможет за несколько месяцев интенсивно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов. В этом поможет крайне профессиональный состав преподавателей.
В рамках курса я прочитаю лекцию об основах нормативного правового регулирования в сфере разработки и применения систем ИИ в США, КНР и России.
Более подробно с программой можно ознакомиться по ссылке.
Друзья, я присоединился в качестве преподавателя на курс AI Governance, который проводит Russian Privacy Professionals Association.
Курс поможет за несколько месяцев интенсивно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов. В этом поможет крайне профессиональный состав преподавателей.
В рамках курса я прочитаю лекцию об основах нормативного правового регулирования в сфере разработки и применения систем ИИ в США, КНР и России.
Более подробно с программой можно ознакомиться по ссылке.
Telegram
Privacy GDPR Russia
#education #AI
😎У нас сегодня уже стартует курс, но нас не остановить, и мы еще позвали звездного преподавателя - Дмитрия Кутейникова.
👤 Дмитрий - кандидат юридических наук, руководитель лаборатории «Социально-правовые подходы использования искусственного…
😎У нас сегодня уже стартует курс, но нас не остановить, и мы еще позвали звездного преподавателя - Дмитрия Кутейникова.
👤 Дмитрий - кандидат юридических наук, руководитель лаборатории «Социально-правовые подходы использования искусственного…
🔥4 4❤1 1
Обновления по проекту регламента ЕС об ИИ
Сегодня Евросовет одобрил проект Регламента ЕС об ИИ. Это фактически знаменует собой переход к последней стадии правотворческого процесса.
Далее акт будет подписан председателями Европарламента и Евросовета и опубликован в официальном источнике в ближайшее время.
После публикации Регламент вступит в силу по истечении двадцати дней. Напомню, что для целого ряда положений установлен двухлетний переходный период.
Сегодня Евросовет одобрил проект Регламента ЕС об ИИ. Это фактически знаменует собой переход к последней стадии правотворческого процесса.
Далее акт будет подписан председателями Европарламента и Евросовета и опубликован в официальном источнике в ближайшее время.
После публикации Регламент вступит в силу по истечении двадцати дней. Напомню, что для целого ряда положений установлен двухлетний переходный период.
Consilium
Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI
Council gives final green light to artificial intelligence act, the first law of such kind in the world.
👍4 4❤3
Индекс прозрачности фундаментальных моделей ИИ
Группа из восьми исследователей, представляющих университеты Стэнфорда, MIT и Принстона, опубликовала Индекс прозрачности фундаментальных моделей ИИ. Предыдущий аналогичный индекс был опубликован в октябре 2023 года.
В этом году авторы исследовали отчеты о прозрачности 14 компаний-разработчиков ИИ по 100 параметрам. В прошлом году параметры были те же, но компаний исследовалось 10.
За шесть месяцев можно отметить следующие изменения:
- увеличились средние (58) и высшие баллы (85 из 100). Это на 21 балл лучше, чем в октябре 2023 года;
- высший балл вырос на 31 пункт, а низший – на 21. Все восемь разработчиков, которые участвовали в обоих индексах, улучшили свои показатели;
- разработчики стали более активно публиковать отчеты о прозрачности. Сами отчеты стали более подробными и содержательными.
Группа из восьми исследователей, представляющих университеты Стэнфорда, MIT и Принстона, опубликовала Индекс прозрачности фундаментальных моделей ИИ. Предыдущий аналогичный индекс был опубликован в октябре 2023 года.
В этом году авторы исследовали отчеты о прозрачности 14 компаний-разработчиков ИИ по 100 параметрам. В прошлом году параметры были те же, но компаний исследовалось 10.
За шесть месяцев можно отметить следующие изменения:
- увеличились средние (58) и высшие баллы (85 из 100). Это на 21 балл лучше, чем в октябре 2023 года;
- высший балл вырос на 31 пункт, а низший – на 21. Все восемь разработчиков, которые участвовали в обоих индексах, улучшили свои показатели;
- разработчики стали более активно публиковать отчеты о прозрачности. Сами отчеты стали более подробными и содержательными.