Опубликована вторая версия унифицированной терминологии в сфере ИИ между ЕС и США
В рамках шестого заседания в Левене (Бельгия) The U.S. and EU Trade and Technology Council (TTC) представил обновленную версию унифицированной терминологии в сфере ИИ (EU-U.S. Terminology and Taxonomy for Artificial Intelligence).
Новая версия документа включает 13 новых терминов и обновляет 24 из предыдущей. Интересно, что в таблице терминов указаны их источники, среди которых есть, например, и документы ОЭСР, проект Регламента ЕС об ИИ, научные и аналитические работы.
На встрече также выразили готовность в дальнейшем сближать регуляторные подходы ЕС и США, в том числе путем выработки совместных методик и бенчмарков.
С текстом документа можно ознакомиться тут.
О первом варианте документа писал в прошлом июне вот тут.
В рамках шестого заседания в Левене (Бельгия) The U.S. and EU Trade and Technology Council (TTC) представил обновленную версию унифицированной терминологии в сфере ИИ (EU-U.S. Terminology and Taxonomy for Artificial Intelligence).
Новая версия документа включает 13 новых терминов и обновляет 24 из предыдущей. Интересно, что в таблице терминов указаны их источники, среди которых есть, например, и документы ОЭСР, проект Регламента ЕС об ИИ, научные и аналитические работы.
На встрече также выразили готовность в дальнейшем сближать регуляторные подходы ЕС и США, в том числе путем выработки совместных методик и бенчмарков.
С текстом документа можно ознакомиться тут.
О первом варианте документа писал в прошлом июне вот тут.
Nextgov
US, EU update shared AI taxonomy, unveil new research alliance
At the conclusion of the sixth meeting of the US-EU Trade and Technology Council, leaders focused on creating uniformity in AI terminology and continuing transatlantic collaboration.
Развитие ИИ начинает влиять на корпоративную структуру компаний
Консультанты по корпоративному управлению из ISS-Corporate опубликовали отчет, посвященные влиянию развития ИИ-технологий на корпоративную структуру компаний (заметку про него еще можно почитать в посте на форуме Harvard Law School). Для этого были исследованы компании, входящие в индекс S&P 500 (а именно отчеты для SEC по форме DEF 14A).
Исходя из проведенного анализа, со стороны совета директоров обычно используются следующие методы по обеспечению безопасности и прозрачности использования систем ИИ:
- за использование ИИ ответственность возлагается на весь совет директоров или на конкретный комитет;
- в совете директоров имеется минимум один человек, компетентный в сфере ИИ;
- в компании создан отдельный комитет по ИИ-этике или сходное подразделение.
В процессе исследования авторы пришли к следующим выводам:
- только около 15% компаний, входящих в S&P 500, раскрывают в отчетах информацию о надзоре за использованием ИИ со стороны совета директоров;
- раскрытие информации о надзоре совета директоров за ИИ и об опыте директоров в области ИИ в основном встречается в секторе информационных технологий, где 38% компаний предоставляют информацию о том или ином уровне надзора;
- в 13% компаний из списка S&P 500 есть хотя бы один директор с опытом работы в сфере ИИ;
- поскольку ИИ становится существенным фактором для многих компаний, инвесторы могут начать требовать от компаний не только раскрытие информации о соответствующих функциях и составе совета директоров относительно ИИ, но и в целом предоставления большей информации об использовании ИИ в работе компании и продуктах.
Также интересно, что авторы отчета полагают: вероятность введения более жестких требований со стороны регуляторов относительно расширения доступа к информации в сфере ИИ довольно мала. Однако компании могут добровольно раскрывать эту информацию из-за увеличивающегося запроса на прозрачность со стороны клиентов и инвесторов.
Консультанты по корпоративному управлению из ISS-Corporate опубликовали отчет, посвященные влиянию развития ИИ-технологий на корпоративную структуру компаний (заметку про него еще можно почитать в посте на форуме Harvard Law School). Для этого были исследованы компании, входящие в индекс S&P 500 (а именно отчеты для SEC по форме DEF 14A).
Исходя из проведенного анализа, со стороны совета директоров обычно используются следующие методы по обеспечению безопасности и прозрачности использования систем ИИ:
- за использование ИИ ответственность возлагается на весь совет директоров или на конкретный комитет;
- в совете директоров имеется минимум один человек, компетентный в сфере ИИ;
- в компании создан отдельный комитет по ИИ-этике или сходное подразделение.
В процессе исследования авторы пришли к следующим выводам:
- только около 15% компаний, входящих в S&P 500, раскрывают в отчетах информацию о надзоре за использованием ИИ со стороны совета директоров;
- раскрытие информации о надзоре совета директоров за ИИ и об опыте директоров в области ИИ в основном встречается в секторе информационных технологий, где 38% компаний предоставляют информацию о том или ином уровне надзора;
- в 13% компаний из списка S&P 500 есть хотя бы один директор с опытом работы в сфере ИИ;
- поскольку ИИ становится существенным фактором для многих компаний, инвесторы могут начать требовать от компаний не только раскрытие информации о соответствующих функциях и составе совета директоров относительно ИИ, но и в целом предоставления большей информации об использовании ИИ в работе компании и продуктах.
Также интересно, что авторы отчета полагают: вероятность введения более жестких требований со стороны регуляторов относительно расширения доступа к информации в сфере ИИ довольно мала. Однако компании могут добровольно раскрывать эту информацию из-за увеличивающегося запроса на прозрачность со стороны клиентов и инвесторов.
❤6 3
Stanford HAI опубликовал свой AI Index за 2024 год
На днях был опубликован очередной отчет AI Index, посвященный основным событиям (преимущественно в США), произошедшим в сфере ИИ за 2024 год. Отчет состоит из девяти разделов. Традиционно нас больше всего интересует седьмой раздел – Policy and Governance.
В нем очень много интересных данных. Пройдемся по основным выводам:
В США за последние пять лет резко возросло количество нормативных актов, связанных со сферой ИИ. В 2023 году их насчитывается 25 против одного в 2016 году. При том, что за прошедший год число актов выросло на 56,3%. В два раза выросло и число законопроектов – 181 за 2023 год против 88 за 2022. Также с 17 до 21 увеличилось число органов исполнительной власти, которые выпустили какие-либо документы, связанные с ИИ (это показывает расширение числа отраслей, в которых ИИ стал активно применяться).
Аналогичная тенденция наблюдается и в глобальном масштабе: за 2023 год число актов, так или иначе связанных с ИИ, удвоилось по всему миру (с 1247 в 2022 году до 2175 в 2023 году). За прошлый год ИИ упоминался в законодательных актах 49 стран.
Скриншоты с наиболее интересными цифрами прикладываю к посту.
UPDATE:
1 мая состоится презентация отчета.
Если кто- то желает посетить (очно или онлайн), то зарегистрироваться можно по ссылке.
На днях был опубликован очередной отчет AI Index, посвященный основным событиям (преимущественно в США), произошедшим в сфере ИИ за 2024 год. Отчет состоит из девяти разделов. Традиционно нас больше всего интересует седьмой раздел – Policy and Governance.
В нем очень много интересных данных. Пройдемся по основным выводам:
В США за последние пять лет резко возросло количество нормативных актов, связанных со сферой ИИ. В 2023 году их насчитывается 25 против одного в 2016 году. При том, что за прошедший год число актов выросло на 56,3%. В два раза выросло и число законопроектов – 181 за 2023 год против 88 за 2022. Также с 17 до 21 увеличилось число органов исполнительной власти, которые выпустили какие-либо документы, связанные с ИИ (это показывает расширение числа отраслей, в которых ИИ стал активно применяться).
Аналогичная тенденция наблюдается и в глобальном масштабе: за 2023 год число актов, так или иначе связанных с ИИ, удвоилось по всему миру (с 1247 в 2022 году до 2175 в 2023 году). За прошлый год ИИ упоминался в законодательных актах 49 стран.
Скриншоты с наиболее интересными цифрами прикладываю к посту.
UPDATE:
1 мая состоится презентация отчета.
Если кто- то желает посетить (очно или онлайн), то зарегистрироваться можно по ссылке.
❤5 4
Очередная версия текста проекта Регламента ЕС об ИИ
Наверное, многие из тех, кто ознакамливались с текстом проекта Регламента ЕС об ИИ, опубликованным по итогам трилога, обратили внимание на то, что документ находился в достаточно сыром состоянии в плане юридической техники и оформления. Имелись и фактические ошибки, которые породили массу споров среди экспертов относительно истинного содержания отдельных статей.
Вчера Европарламент опубликовал исправленный текст проекта Регламента.
Далее, 18 апреля исправленный текст будет рассмотрен на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO).
Если все пройдет нормально, то далее, как и предполагалось ранее, он будет вынесен на пленарное заседание Европарламента во второй половине апреля.
Наверное, многие из тех, кто ознакамливались с текстом проекта Регламента ЕС об ИИ, опубликованным по итогам трилога, обратили внимание на то, что документ находился в достаточно сыром состоянии в плане юридической техники и оформления. Имелись и фактические ошибки, которые породили массу споров среди экспертов относительно истинного содержания отдельных статей.
Вчера Европарламент опубликовал исправленный текст проекта Регламента.
Далее, 18 апреля исправленный текст будет рассмотрен на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO).
Если все пройдет нормально, то далее, как и предполагалось ранее, он будет вынесен на пленарное заседание Европарламента во второй половине апреля.
Обновленная версия Российской Национальной стратегии развития искусственного интеллекта до 2030 года
Давненько ничего не писал про Россию. Новость не самая свежая, но требует внимания. 15 февраля вступил в силу указ Президента РФ, который внес поправки в его же Указ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации».
Исходя из содержания, документ призван осовременить первоначальную версию указа от 2019 года, которая уже значительно устарела. Хотя и раньше к ней была масса вопросов.
Во-первых, истекает жизненный цикл у нацпроекта «Цифровая экономика», поэтому поручается до 1 июля 2024 г. обеспечить включение ФП «Искусственный интеллект» в новый нацпроект «Экономика данных», который должен быть разработан в этом году.
Во-вторых, незначительно изменилось определение ИИ.
Теперь это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Жирным выделил места, которые изменились. С самого начала это определение мне казалось несколько странным, так как оно: а) отсылает к способностям и когнитивным функциям человека, а не дает нам конкретные признаки ИИ; б) не является технологически нейтральным (что очень важно для нормативного регулирования), но при этом и не определяет перечень ИИ-технологий, а только вскользь упоминает ML; в) если речь идет про конкретные задачи, то получается, тут мы говорим только о «слабом ИИ»? (дальше будет понятно, к чему этот вопрос). Понятно, что определение взято из техстандарта, но терминология ОЭСР и ISO/IEC вызывает значительно меньше вопросов.
Незначительно поменялись и другие термины.
В-третьих, появился целый спектр новых терминов, например:
Сильный искусственный интеллект – тип искусственного интеллекта, который способен выполнять различные задачи, взаимодействовать с человеком и самостоятельно (без участия человека) адаптироваться к изменяющимся условиям.
Друзья, поздравляю, если дословно читать указ, то AGI уже тут!
Но если отбросить шутки, то не очень понятно, зачем такое теоретическое и размытое определение включать в НПА. Даже в науке нет устоявшегося подхода. Кто-то определяет AGI через наличие сознания, а кто-то – через возможность выполнять любые (не различные) задачи на одном уровне со средним человеком.
Есть сомнения, что к AGI можно отнести систему, которая может выполнять, допустим, две-три-пять задач на одном уровне с человеком, взаимодействовать с ним (например, общаться через какой-либо интерфейс) и адаптироваться (например, в ходе общения и перемещения в пространстве).
На мой взгляд, лучше доработать определение ИИ (систем ИИ), чтобы оно позволяло четко понимать предмет регулирования, чем вводить раньше времени еще более широкие термины.
Чтобы соответствовать духу времени были также включены определения модели ИИ, параметров модели ИИ, большой генеративной модели и большой фундаментальной модели.
Большие фундаментальные модели отличаются тем, что они могут: а) быть основой для создания и доработки различных видов программного обеспечения; б) содержать не менее 1 млрд. параметров (например, в GPT-2 - 1,5 млрд.); в) применяться для выполнения различных задач.
Интересно, что в Указе дается определение сильного ИИ, но при этом отсутствует какая-либо классификация фундаментальных моделей. Хотя, например, наиболее продвинутые модели уже выделяются и в проекте Регламента ЕС об ИИ и в последнем указе Президента США. Писал про это многократно на канале. Например, тут.
В тексте Указа также содержится много иной информации о современных трендах развития ИИ, а также о достигнутых результатах и планах на будущее. Хочется про них написать, но в посте уже лимит🤩 .
Давненько ничего не писал про Россию. Новость не самая свежая, но требует внимания. 15 февраля вступил в силу указ Президента РФ, который внес поправки в его же Указ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации».
Исходя из содержания, документ призван осовременить первоначальную версию указа от 2019 года, которая уже значительно устарела. Хотя и раньше к ней была масса вопросов.
Во-первых, истекает жизненный цикл у нацпроекта «Цифровая экономика», поэтому поручается до 1 июля 2024 г. обеспечить включение ФП «Искусственный интеллект» в новый нацпроект «Экономика данных», который должен быть разработан в этом году.
Во-вторых, незначительно изменилось определение ИИ.
Теперь это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Жирным выделил места, которые изменились. С самого начала это определение мне казалось несколько странным, так как оно: а) отсылает к способностям и когнитивным функциям человека, а не дает нам конкретные признаки ИИ; б) не является технологически нейтральным (что очень важно для нормативного регулирования), но при этом и не определяет перечень ИИ-технологий, а только вскользь упоминает ML; в) если речь идет про конкретные задачи, то получается, тут мы говорим только о «слабом ИИ»? (дальше будет понятно, к чему этот вопрос). Понятно, что определение взято из техстандарта, но терминология ОЭСР и ISO/IEC вызывает значительно меньше вопросов.
Незначительно поменялись и другие термины.
В-третьих, появился целый спектр новых терминов, например:
Сильный искусственный интеллект – тип искусственного интеллекта, который способен выполнять различные задачи, взаимодействовать с человеком и самостоятельно (без участия человека) адаптироваться к изменяющимся условиям.
Друзья, поздравляю, если дословно читать указ, то AGI уже тут!
Но если отбросить шутки, то не очень понятно, зачем такое теоретическое и размытое определение включать в НПА. Даже в науке нет устоявшегося подхода. Кто-то определяет AGI через наличие сознания, а кто-то – через возможность выполнять любые (не различные) задачи на одном уровне со средним человеком.
Есть сомнения, что к AGI можно отнести систему, которая может выполнять, допустим, две-три-пять задач на одном уровне с человеком, взаимодействовать с ним (например, общаться через какой-либо интерфейс) и адаптироваться (например, в ходе общения и перемещения в пространстве).
На мой взгляд, лучше доработать определение ИИ (систем ИИ), чтобы оно позволяло четко понимать предмет регулирования, чем вводить раньше времени еще более широкие термины.
Чтобы соответствовать духу времени были также включены определения модели ИИ, параметров модели ИИ, большой генеративной модели и большой фундаментальной модели.
Большие фундаментальные модели отличаются тем, что они могут: а) быть основой для создания и доработки различных видов программного обеспечения; б) содержать не менее 1 млрд. параметров (например, в GPT-2 - 1,5 млрд.); в) применяться для выполнения различных задач.
Интересно, что в Указе дается определение сильного ИИ, но при этом отсутствует какая-либо классификация фундаментальных моделей. Хотя, например, наиболее продвинутые модели уже выделяются и в проекте Регламента ЕС об ИИ и в последнем указе Президента США. Писал про это многократно на канале. Например, тут.
В тексте Указа также содержится много иной информации о современных трендах развития ИИ, а также о достигнутых результатах и планах на будущее. Хочется про них написать, но в посте уже лимит
Please open Telegram to view this post
VIEW IN TELEGRAM
publication.pravo.gov.ru
Указ Президента Российской Федерации от 15.02.2024 № 124 ∙ Официальное опубликование правовых актов
Указ Президента Российской Федерации от 15.02.2024 № 124
"О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим…
"О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим…
Этика на рубеже создания продвинутых ИИ-помощников
Обычно я не фанат разговоров об этике, когда ею пытаются заменить комплексное правовое регулирование. Однако в тех областях, в которых технологии придут в нашу жизнь не завтра, а послезавтра, исследования философов помогают подсветить для юристов проблемы и развилки, потребующие будущих законодательных решений. В этой связи с интересом прочитал статью Google Deepmind на тему, которая давно волновала мой юридический мозг: Этика продвинутых ИИ-помощников. Исследование достаточно объемное (268 страниц), но и писало его около полсотни авторов из авторитетных организаций. Тем не менее бояться не стоит. Одна библиография, как это обычно бывает, занимает почти 50 страниц.
Во-первых, авторы прочат, что такие ассистенты окажут фундаментальное влияние на общество, так как будут использоваться не только во всех сфера экономической жизни в качестве универсальных помощников, но станут выступать в роли личных советников, партнеров, компаньонов и даже наставников(и наставников наставников)🤩 . В итоге это повлияет и на самих людей, и на то, каким образом они коммуницируют и выстраивают отношения. А нас, юристов, очень сильно заботит ситуация, когда общественные отношения видоизменяются. Как правило, это приводит к трансформации существующих правовых институтов и возникновению новых (работы будет много).
Во-вторых, резко возрастет уровень автономности таких систем ИИ. Это нужно для того, чтобы они могли самостоятельно выбирать варианты решения задач на основе верхнеуровневых целей, поставленных пользователем. Очевидно, это может вызвать массу негативных последствий: от мисандерстендинга между пользователем и системой до злонамеренного противоправного использования. Для решения этих проблем авторы предлагают свой подход к элайнменту (выравниванию целей и задач между человеком и системой ИИ). Кстати, все еще ждем решение этой проблемы от OpenAI. Они обещали решить ее за четыре года (уже осталось три). Возросший уровень автономности, очевидно, снова оголит классические проблемные аспекты нормативного регулирования вроде информационной безопасности, оборота данных, ответственности, прозрачности и непредвзятости. Однако будут и новые вызовы. Например, вопрос юридических рамок работы таких систем и возможности делегирования им принятия юридически значимых решений. Потребуются и новые подходы и к оценке таких систем и моделей. Например, по влиянию на человека и общество в целом.
В-третьих, это приведет к еще большей антропоморфизации ИИ-ассистентов. С юридической стороны потребуется установление норм, которые будут призваны сохранить здоровые отношения между человеком и технологическими решениями. В том числе путем ограничения манипулятивных практик со стороны бизнеса и злоумышленников. Также даже страшно представлять, каким количеством чувствительной информации о человеке такой ассистент будет обладать. Помимо этого, снова станут актуальными обсуждения этической стороны вопроса в плане жестокого отношения к системам ИИ и иных «прав роботов». Ведь для многих людей такие системы с раннего детства фактически станут друзьями и воспитателями.
К сожалению, в фантастических произведениях не всегда рассматривается роль юриспруденции в высокотехнологичном будущем. Очевидно, что в реальной жизни нормативное регулирование будет отчасти влиять на то, чтобы вы в конечном счете оказались в комнате с Джарвисом, а не HAL 9000.
Обычно я не фанат разговоров об этике, когда ею пытаются заменить комплексное правовое регулирование. Однако в тех областях, в которых технологии придут в нашу жизнь не завтра, а послезавтра, исследования философов помогают подсветить для юристов проблемы и развилки, потребующие будущих законодательных решений. В этой связи с интересом прочитал статью Google Deepmind на тему, которая давно волновала мой юридический мозг: Этика продвинутых ИИ-помощников. Исследование достаточно объемное (268 страниц), но и писало его около полсотни авторов из авторитетных организаций. Тем не менее бояться не стоит. Одна библиография, как это обычно бывает, занимает почти 50 страниц.
Во-первых, авторы прочат, что такие ассистенты окажут фундаментальное влияние на общество, так как будут использоваться не только во всех сфера экономической жизни в качестве универсальных помощников, но станут выступать в роли личных советников, партнеров, компаньонов и даже наставников
Во-вторых, резко возрастет уровень автономности таких систем ИИ. Это нужно для того, чтобы они могли самостоятельно выбирать варианты решения задач на основе верхнеуровневых целей, поставленных пользователем. Очевидно, это может вызвать массу негативных последствий: от мисандерстендинга между пользователем и системой до злонамеренного противоправного использования. Для решения этих проблем авторы предлагают свой подход к элайнменту (выравниванию целей и задач между человеком и системой ИИ). Кстати, все еще ждем решение этой проблемы от OpenAI. Они обещали решить ее за четыре года (уже осталось три). Возросший уровень автономности, очевидно, снова оголит классические проблемные аспекты нормативного регулирования вроде информационной безопасности, оборота данных, ответственности, прозрачности и непредвзятости. Однако будут и новые вызовы. Например, вопрос юридических рамок работы таких систем и возможности делегирования им принятия юридически значимых решений. Потребуются и новые подходы и к оценке таких систем и моделей. Например, по влиянию на человека и общество в целом.
В-третьих, это приведет к еще большей антропоморфизации ИИ-ассистентов. С юридической стороны потребуется установление норм, которые будут призваны сохранить здоровые отношения между человеком и технологическими решениями. В том числе путем ограничения манипулятивных практик со стороны бизнеса и злоумышленников. Также даже страшно представлять, каким количеством чувствительной информации о человеке такой ассистент будет обладать. Помимо этого, снова станут актуальными обсуждения этической стороны вопроса в плане жестокого отношения к системам ИИ и иных «прав роботов». Ведь для многих людей такие системы с раннего детства фактически станут друзьями и воспитателями.
К сожалению, в фантастических произведениях не всегда рассматривается роль юриспруденции в высокотехнологичном будущем. Очевидно, что в реальной жизни нормативное регулирование будет отчасти влиять на то, чтобы вы в конечном счете оказались в комнате с Джарвисом, а не HAL 9000.
Please open Telegram to view this post
VIEW IN TELEGRAM
Google DeepMind
The ethics of advanced AI assistants
Exploring the promise and risks of a future with more capable AI
🔥10 3
Национальный институт стандартов и технологий США (NIST) опубликовал четыре проекта документа, связанных с генеративными системами ИИ
Вчера Национальный институт стандартов и технологий США опубликовал четыре проекта документа, разработка которых была определена октябрьским Указом Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).
Почти все документы содержат важные практические рекомендации. Однако это пока лишь первые версии, размещенные для публичного обсуждения. Кратко пройдемся по их содержанию:
1. AI RMF Generative AI Profile (NIST AI 600-1)
Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах.
Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. В их числе: 1) снижение барьеров по созданию химического, биологического, ядреного и другого вооружения; 2) конфабуляции (в быту их часто именуют галлюцинациями); 3) генерация опасных рекомендации и жесткого контента; 3) конфиденциальность; 5) безопасность окружающей среды; 6) взаимодействие человека с системой ИИ, способное привести к предвзятостям, мисэлайнменту и т.п.; 7) целостность информации; 8) информационная безопасность; 9) интеллектуальная собственность; 10) генерация непристойного или оскорбляющего контента; 11) генерация токсичного или предвзятого по каким-либо человеческим характеристикам контента; 12) многоступенчатость вывода систем и моделей на рынок и различные этапы их жизненного цикла.
2. Secure Software Development Practices for Generative AI (NIST SP 800-218A)
Документ также призван дополнить AI RMF и предусматривает особенности применения Системы безопасной разработки программного обеспечения Secure Software Development Framework (SSDF). Он содержит конкретные шаги по имплементации SSDF, которые призваны обеспечить безопасность разработки и применения систем и моделей ИИ.
3. Reducing Risks Posed by Synthetic Content (NIST AI 100-4)
В отчете рассматриваются существующие методы и рекомендации для: 1) проверки подлинности контента и отслеживания его происхождения; 2) маркировки сгенерированного контента, например, с помощью водяных знаков; 3) обнаружения сгенерированного контента; 4) предотвращения создания генеративными системами ИИ противоправного сексуализированного или насильственного контента; 5) тестирования систем и моделей; 6) оценки сгенерированного контента.
4. A Plan for Global Engagement on AI Standards (NIST AI 100-5)
В документе описывается план разработки стандартов в сфере ИИ.
Также в NIST объявили о создании исследовательского проекта GenAI, призванного в будущем разработать методики по оценке систем и моделей ИИ, требований к наборам данных и маркировке контента. На первом этапе предполагается проведение исследования, призванного разработать методику дифференциации сгенерированного контента и созданного человеком.
Вчера Национальный институт стандартов и технологий США опубликовал четыре проекта документа, разработка которых была определена октябрьским Указом Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).
Почти все документы содержат важные практические рекомендации. Однако это пока лишь первые версии, размещенные для публичного обсуждения. Кратко пройдемся по их содержанию:
1. AI RMF Generative AI Profile (NIST AI 600-1)
Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах.
Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. В их числе: 1) снижение барьеров по созданию химического, биологического, ядреного и другого вооружения; 2) конфабуляции (в быту их часто именуют галлюцинациями); 3) генерация опасных рекомендации и жесткого контента; 3) конфиденциальность; 5) безопасность окружающей среды; 6) взаимодействие человека с системой ИИ, способное привести к предвзятостям, мисэлайнменту и т.п.; 7) целостность информации; 8) информационная безопасность; 9) интеллектуальная собственность; 10) генерация непристойного или оскорбляющего контента; 11) генерация токсичного или предвзятого по каким-либо человеческим характеристикам контента; 12) многоступенчатость вывода систем и моделей на рынок и различные этапы их жизненного цикла.
2. Secure Software Development Practices for Generative AI (NIST SP 800-218A)
Документ также призван дополнить AI RMF и предусматривает особенности применения Системы безопасной разработки программного обеспечения Secure Software Development Framework (SSDF). Он содержит конкретные шаги по имплементации SSDF, которые призваны обеспечить безопасность разработки и применения систем и моделей ИИ.
3. Reducing Risks Posed by Synthetic Content (NIST AI 100-4)
В отчете рассматриваются существующие методы и рекомендации для: 1) проверки подлинности контента и отслеживания его происхождения; 2) маркировки сгенерированного контента, например, с помощью водяных знаков; 3) обнаружения сгенерированного контента; 4) предотвращения создания генеративными системами ИИ противоправного сексуализированного или насильственного контента; 5) тестирования систем и моделей; 6) оценки сгенерированного контента.
4. A Plan for Global Engagement on AI Standards (NIST AI 100-5)
В документе описывается план разработки стандартов в сфере ИИ.
Также в NIST объявили о создании исследовательского проекта GenAI, призванного в будущем разработать методики по оценке систем и моделей ИИ, требований к наборам данных и маркировке контента. На первом этапе предполагается проведение исследования, призванного разработать методику дифференциации сгенерированного контента и созданного человеком.
NIST
Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI
Announcements include draft guidance documents, a draft plan for international standards, and a new measurement program opening for public comment.
❤4 3🔥2 2