Опубликована база данных мер по снижению рисков ИИ
Ранее я уже неоднократно писал о базе данных ИИ-рисков, которую ведут исследователи из MIT. Если в прошлый раз проект расширился за счёт включения базы данных по ИИ-инцидентам, то теперь появилась отдельная база мер по снижению ИИ-рисков (AI Risk Mitigation Database). Правда это пока ее первый вариант.
База данных разбита на четыре обширные группы, каждая из которых включает набор контролей:
- Governance & Oversight
- Technical & Security
- Operational Process
- Transparency & Accountability
Как формировалась база?
Исследователи проанализировали 13 наиболее известных научных работ и фреймворков и выявили 831 меру по снижению рисков. При этом большинство рассмотренных публикаций касалось именно передовых систем ИИ, поэтому текущая версия базы пока не является полностью репрезентативной.
Статья
Полная база данных
Ранее я уже неоднократно писал о базе данных ИИ-рисков, которую ведут исследователи из MIT. Если в прошлый раз проект расширился за счёт включения базы данных по ИИ-инцидентам, то теперь появилась отдельная база мер по снижению ИИ-рисков (AI Risk Mitigation Database). Правда это пока ее первый вариант.
База данных разбита на четыре обширные группы, каждая из которых включает набор контролей:
- Governance & Oversight
- Technical & Security
- Operational Process
- Transparency & Accountability
Как формировалась база?
Исследователи проанализировали 13 наиболее известных научных работ и фреймворков и выявили 831 меру по снижению рисков. При этом большинство рассмотренных публикаций касалось именно передовых систем ИИ, поэтому текущая версия базы пока не является полностью репрезентативной.
Статья
Полная база данных
❤9👍2
Нужны ли дополнительные требования для интеграторов моделей ИИ?
Именно таким вопросом задались авторы исследования, на которое мы сегодня посмотрим более подробно. Кстати, все авторы довольно известны в узких кругах, поэтому советую обратить на них внимание.
В чем же основная проблема?
В двух словах интеграторы (авторы тут их называют downstream developers) – люди или организации, которые модифицируют чужие модели ИИ и используют их для своих целей. При этом в данную группу не входят те, кто пользуются моделями as is. Авторы намеренно рассматривают очень широкий круг субъектов, а не только интеграторов опенсорс моделей (видно на скриншотах). Озабоченность с точки зрения правового регулирования они вызывают потому что при модификации они, с одной стороны, довольно легко могут обходить ограничения модели, а с другой – способны доработать модель так, чтобы у нее появились новые способности. Вместе с тем таких интеграторов уже сотни тысяч и далеко не все из них обладают достаточными знаниями и инфраструктурой для избежания негативных последствий.
Какие варианты регулирования есть?
Они рассматривают плюсы и минусы трех основных подходов:
- установление требований непосредственно для интеграторов: необходимо установить границы существенных модификаций и пропорционально этому распределять требования;
- установление специфических требований для разработчиков моделей ИИ применительно к интеграторам: внедрять технические меры, способные защитить от нежелательных модификаций и предоставлять необходимую информацию по всей цепочке поставки;
- использовать механизмы внедоговорной ответственности и рекомендательные фреймворки: прежде всего донастройка существующих механизмов внедоговорной ответственности, чтобы можно было ее гибко распределять между разными субъектами внутри цепочек поставок.
Что предлагают авторы?
По сути, авторы склоняются к комбинированному подходу: обязательства для разработчиков моделей ИИ неизбежны, а требования для интеграторов возможны лишь в тех случаях, когда их модификации явно приводят к увеличению рисков:
- создать добровольные рекомендации для интеграторов;
- установить требования для разработчиков моделей ИИ;
- внимательно изучать экосистему разработчиков и интеграторов, чтобы вовремя реагировать на точки бифуркации.
Местами очень напоминает несколько упрощенную версию существующего регулирования в ЕС. Кстати, данный вопрос я недавно подробно раскрывал на мастер-классе👀 .
Именно таким вопросом задались авторы исследования, на которое мы сегодня посмотрим более подробно. Кстати, все авторы довольно известны в узких кругах, поэтому советую обратить на них внимание.
В чем же основная проблема?
В двух словах интеграторы (авторы тут их называют downstream developers) – люди или организации, которые модифицируют чужие модели ИИ и используют их для своих целей. При этом в данную группу не входят те, кто пользуются моделями as is. Авторы намеренно рассматривают очень широкий круг субъектов, а не только интеграторов опенсорс моделей (видно на скриншотах). Озабоченность с точки зрения правового регулирования они вызывают потому что при модификации они, с одной стороны, довольно легко могут обходить ограничения модели, а с другой – способны доработать модель так, чтобы у нее появились новые способности. Вместе с тем таких интеграторов уже сотни тысяч и далеко не все из них обладают достаточными знаниями и инфраструктурой для избежания негативных последствий.
Какие варианты регулирования есть?
Они рассматривают плюсы и минусы трех основных подходов:
- установление требований непосредственно для интеграторов: необходимо установить границы существенных модификаций и пропорционально этому распределять требования;
- установление специфических требований для разработчиков моделей ИИ применительно к интеграторам: внедрять технические меры, способные защитить от нежелательных модификаций и предоставлять необходимую информацию по всей цепочке поставки;
- использовать механизмы внедоговорной ответственности и рекомендательные фреймворки: прежде всего донастройка существующих механизмов внедоговорной ответственности, чтобы можно было ее гибко распределять между разными субъектами внутри цепочек поставок.
Что предлагают авторы?
По сути, авторы склоняются к комбинированному подходу: обязательства для разработчиков моделей ИИ неизбежны, а требования для интеграторов возможны лишь в тех случаях, когда их модификации явно приводят к увеличению рисков:
- создать добровольные рекомендации для интеграторов;
- установить требования для разработчиков моделей ИИ;
- внимательно изучать экосистему разработчиков и интеграторов, чтобы вовремя реагировать на точки бифуркации.
Местами очень напоминает несколько упрощенную версию существующего регулирования в ЕС. Кстати, данный вопрос я недавно подробно раскрывал на мастер-классе
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍5 4❤3
Смотрим популярные интервью про ИИ и немного удивляемся
Друзья, сегодня у нас воскресный расслабленный пост. За последние пару недель я частями посмотрел громкие русскоязычные интервью по теме ИИ: Дмитрий Волков (специалист по AI Safety) у Елизаветы Осетинской и Андрей Дороничев (известный IT-предприниматель) у Юрия Дудя. Конечно, оба спикера классные и профессиональные, поэтому могу советовать посмотреть, особенно если вы только начинаете интересоваться сферой ИИ. Если вы в ней варитесь достаточно давно, то будет несколько скучновато, так как многие тезисы давно качуют от спикера к спикеру. Но даже в этом случае можно освежить материал и замотивироваться.
Однако небольшая ложка дёгтя от меня, о которой не могу молчать: в обоих интервью, когда речь заходит про ИИ-регулирование, спикеры отвечают, мягко говоря, путано.
Давайте разбираться:
В первом случае Дмитрий рассказывает Елизавете про вклад Великобритании в AI Safety, в том числе через создание UK AI Safety Institute (на самом деле он уже не Safety, а Security; кроме того, подобные институты были одновременно созданы и в США, и в ЕС, а сейчас их по всему миру больше десятка, но да ладно). После чего спикер и интервьюер соглашаются, что если кто-то и будет пионером в ИИ-регулировании, то это будет Великобритания. Гхм, где-то от такого утверждения закатили глаза как минимум Китай и ЕС. Великобритания ведёт полезную работу на уровне органов власти, но с законодательными решениями всё очень туго.
Далее на вопрос про основные компоненты успешного регулирования Дмитрий указывает три аспекта: прозрачность моделей ИИ (с точки зрения документации и внешних независимых оценок), возможность иметь у государственных органов «красную кнопку» (привёл пример Президента США, хех) и обязательная реализация программ по AI Safety and Security как со стороны бизнеса, так и госорганов. В этот момент хотелось сказать, что ровно это сейчас и реализуется в законодательстве ЕС и отчасти в Китае.
Во втором интервью ситуация более курьёзная: в вопросе про регулирование Андрей внезапно говорит, что в ЕС подход очень плохой, так как они ЗАПРЕТИЛИ разрабатывать модели ИИ выше определённого порога по компьюту. В этот момент я чуть не подавился обедом. Я уже многократно указывал, что на поставщиков моделей ИИ общего назначения, представляющих системные риски (10^25 FLOP), накладываются дополнительные обязательства как раз по AI Safety and Security, о которых так просил спикер из первого интервью. А если и говорить про запрещенные практики, то они касаются систем, а не моделей и связаны с отдельными узкими юзкейсами, но никак не привязаны к техническим характеристикам модели.
Далее Андрей высказывается в духе того, что негоже законодателям регулировать технологии, в которых они ничего не понимают. Однако в данном случае сам Андрей делает выводы про законодательство на основе того, что он где-то услышал краем уха. И мне не хочется быть защитником ЕС, у них куча своих проблем, о которых я часто говорю, но такое передёргивание фактов явно не поможет в создании классного безопасного ИИ, о котором все так много говорят.
Вообще большинство интервью и разговоров про ИИ грешат жонглированием великими обещаниями и сценариями апокалипсиса. Однако мало кто понимает, что развиваться должны не только технологии, но и регуляторные подходы. Никакой инопланетный корабль вам не принесёт безопасное регулирование в момент создания сильного ИИ. Процесс создания новых технологий и передовые подходы к регулированию – вещи, которые должны идти рука об руку. Понятно, что Андрей сам является фаундером ИИ-стартапа и играет на поле бизнеса, но хотелось бы напомнить, что именно технологический бизнес и вкладывает миллионы долларов в лоббизм, направленный на упрощение законодательства и отказ от дорогостоящих мер по внедрению AI Safety and Security, а также прозрачности.
Вывод: если вы хотите серьёзно разобраться в проблеме или вам нужна консультация, то не слушайте технобро, а идите к специалистам по ИИ-регулированиию. Их довольно мало, но они есть🤩 .
Вынужден указать, что РФ считает обоих интервьюеров иноагентами.
Друзья, сегодня у нас воскресный расслабленный пост. За последние пару недель я частями посмотрел громкие русскоязычные интервью по теме ИИ: Дмитрий Волков (специалист по AI Safety) у Елизаветы Осетинской и Андрей Дороничев (известный IT-предприниматель) у Юрия Дудя. Конечно, оба спикера классные и профессиональные, поэтому могу советовать посмотреть, особенно если вы только начинаете интересоваться сферой ИИ. Если вы в ней варитесь достаточно давно, то будет несколько скучновато, так как многие тезисы давно качуют от спикера к спикеру. Но даже в этом случае можно освежить материал и замотивироваться.
Однако небольшая ложка дёгтя от меня, о которой не могу молчать: в обоих интервью, когда речь заходит про ИИ-регулирование, спикеры отвечают, мягко говоря, путано.
Давайте разбираться:
В первом случае Дмитрий рассказывает Елизавете про вклад Великобритании в AI Safety, в том числе через создание UK AI Safety Institute (на самом деле он уже не Safety, а Security; кроме того, подобные институты были одновременно созданы и в США, и в ЕС, а сейчас их по всему миру больше десятка, но да ладно). После чего спикер и интервьюер соглашаются, что если кто-то и будет пионером в ИИ-регулировании, то это будет Великобритания. Гхм, где-то от такого утверждения закатили глаза как минимум Китай и ЕС. Великобритания ведёт полезную работу на уровне органов власти, но с законодательными решениями всё очень туго.
Далее на вопрос про основные компоненты успешного регулирования Дмитрий указывает три аспекта: прозрачность моделей ИИ (с точки зрения документации и внешних независимых оценок), возможность иметь у государственных органов «красную кнопку» (привёл пример Президента США, хех) и обязательная реализация программ по AI Safety and Security как со стороны бизнеса, так и госорганов. В этот момент хотелось сказать, что ровно это сейчас и реализуется в законодательстве ЕС и отчасти в Китае.
Во втором интервью ситуация более курьёзная: в вопросе про регулирование Андрей внезапно говорит, что в ЕС подход очень плохой, так как они ЗАПРЕТИЛИ разрабатывать модели ИИ выше определённого порога по компьюту. В этот момент я чуть не подавился обедом. Я уже многократно указывал, что на поставщиков моделей ИИ общего назначения, представляющих системные риски (10^25 FLOP), накладываются дополнительные обязательства как раз по AI Safety and Security, о которых так просил спикер из первого интервью. А если и говорить про запрещенные практики, то они касаются систем, а не моделей и связаны с отдельными узкими юзкейсами, но никак не привязаны к техническим характеристикам модели.
Далее Андрей высказывается в духе того, что негоже законодателям регулировать технологии, в которых они ничего не понимают. Однако в данном случае сам Андрей делает выводы про законодательство на основе того, что он где-то услышал краем уха. И мне не хочется быть защитником ЕС, у них куча своих проблем, о которых я часто говорю, но такое передёргивание фактов явно не поможет в создании классного безопасного ИИ, о котором все так много говорят.
Вообще большинство интервью и разговоров про ИИ грешат жонглированием великими обещаниями и сценариями апокалипсиса. Однако мало кто понимает, что развиваться должны не только технологии, но и регуляторные подходы. Никакой инопланетный корабль вам не принесёт безопасное регулирование в момент создания сильного ИИ. Процесс создания новых технологий и передовые подходы к регулированию – вещи, которые должны идти рука об руку. Понятно, что Андрей сам является фаундером ИИ-стартапа и играет на поле бизнеса, но хотелось бы напомнить, что именно технологический бизнес и вкладывает миллионы долларов в лоббизм, направленный на упрощение законодательства и отказ от дорогостоящих мер по внедрению AI Safety and Security, а также прозрачности.
Вывод: если вы хотите серьёзно разобраться в проблеме или вам нужна консультация, то не слушайте технобро, а идите к специалистам по ИИ-регулированиию. Их довольно мало, но они есть
Вынужден указать, что РФ считает обоих интервьюеров иноагентами.
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤9👍6 1
Разбираем новую американскую ИИ-стратегию в части регулирования
Август – хорошее время для планирования. А мы пока посмотрим, что же планируют делать с ИИ-регулированием в США. В конце прошлого месяца Дональд Трамп подписал долгожданный AI Action Plan, который довольно скромно уместился в 28 страниц, но содержит массу всего интересного и спорного.
Документ состоит из трех частей: поддержка инноваций, инфраструктура и международное сотрудничество.
Мы посмотрим на отдельные положения, связанные с нормативным регулированием:
- органам власти необходимо проактивно собирать информацию о нормативных положениях, которые ограничивают инновации, и всячески устранять разнообразные барьеры. Эта формулировка достаточно общая, поэтому не будем на ней останавливаться.
- пересмотреть решения и иные регуляторные меры FTC, принятые предыдущей администрацией. А вот это уже интересно. Прежде всего FTC провела большую операцию AI Comply, результатом которой стали штрафы для компаний, которые использовали системы ИИ для создания и продвижения вводящих в заблуждение или мошеннических схем. Интересно, будет ли реальный пересмотр данных решений;
- Office of Management and Budget (OMB) при выделении финансовых средств надлежит проверять, насколько законодательство того или иного штата “сдерживает инновации” и соответственно ограничивать бюджетирование в таких случаях. FCC же надлежит проверить законодательство в штатах на предмет ограничения ее полномочий, установленных федеральным законом. Таким образом, администрация Трампа пытается давить на законодателей штатов, в которых ИИ-регулирование идет сильно дальше федерального и уже начинает приобретать европейские черты. Ранее уже была попытка ограничить компетенции законодателей на уровне штатов и муниципальных образований в сфере ИИ через One Big Beautiful Bill Act, но в итоге данное положение не выстояло и не вошло в финальный текст документа;
- особое значение уделяется опенсорс моделям ИИ как одним из основных факторов массового внедрения систем ИИ. Предполагается создать систему (финансовый рынок), которая позволит эффективно предоставлять вычислительные мощности исследовательским организациям и стартапам;
- из NIST AI RMF необходимо будет удалить все положения, связанные с дезинформацией, равенством, разнообразием и инклюзивностью, а также с влиянием на климат. Более того, провозглашается, что все модели ИИ должны обучаться на основе свободы слова (очевидно, в том, как ее понимает текущая администрация);
- Центр по стандартизации в сфере ИИ (CAISI) при NIST должен будет проводить оценки передовых моделей китайского производства на предмет их соответствия ценностям КПК и цензуры.
Однако, несмотря на полное противопоставление себя предыдущей администрации, некоторые аспекты все равно остаются общими, хоть и формулируются несколько мягче:
- все еще большое внимание уделяется оценкам моделей. Их надлежит проводить, а методики развивать. Более того, очень мягко написано, что в будущем обязательные оценки могут стать частью правоприменительной практики в рамках уже существующего законодательства (услада для юридического уха);
- продолжается вездесущая война с дипфейками, однако не за счет законодательных решений, а через деятельность органов власти;
- госорганы также должны проводить предварительные оценки передовых моделей на предмет угроз национальной безопасности. Прежде всего для создания вооружений (CBRNE). Также сохранились и требования по обеспечению биобезопасности;
- остаются требования по кибербезопасности (особенно для критической инфраструктуры) и обмен информацией об инцидентах между бизнесом и органами власти. Продолжается борьба за интерпретируемость моделей ИИ.
А еще мне "понравилось" положение, которое обязывает государственные органы заключить соглашения с провайдерами облачных услуг и всеми, у кого есть вычислительные мощности, на предмет того, что в случае чрезвычайного или военного положения государство получает преимущественный доступ к вычислительным мощностям.
Август – хорошее время для планирования. А мы пока посмотрим, что же планируют делать с ИИ-регулированием в США. В конце прошлого месяца Дональд Трамп подписал долгожданный AI Action Plan, который довольно скромно уместился в 28 страниц, но содержит массу всего интересного и спорного.
Документ состоит из трех частей: поддержка инноваций, инфраструктура и международное сотрудничество.
Мы посмотрим на отдельные положения, связанные с нормативным регулированием:
- органам власти необходимо проактивно собирать информацию о нормативных положениях, которые ограничивают инновации, и всячески устранять разнообразные барьеры. Эта формулировка достаточно общая, поэтому не будем на ней останавливаться.
- пересмотреть решения и иные регуляторные меры FTC, принятые предыдущей администрацией. А вот это уже интересно. Прежде всего FTC провела большую операцию AI Comply, результатом которой стали штрафы для компаний, которые использовали системы ИИ для создания и продвижения вводящих в заблуждение или мошеннических схем. Интересно, будет ли реальный пересмотр данных решений;
- Office of Management and Budget (OMB) при выделении финансовых средств надлежит проверять, насколько законодательство того или иного штата “сдерживает инновации” и соответственно ограничивать бюджетирование в таких случаях. FCC же надлежит проверить законодательство в штатах на предмет ограничения ее полномочий, установленных федеральным законом. Таким образом, администрация Трампа пытается давить на законодателей штатов, в которых ИИ-регулирование идет сильно дальше федерального и уже начинает приобретать европейские черты. Ранее уже была попытка ограничить компетенции законодателей на уровне штатов и муниципальных образований в сфере ИИ через One Big Beautiful Bill Act, но в итоге данное положение не выстояло и не вошло в финальный текст документа;
- особое значение уделяется опенсорс моделям ИИ как одним из основных факторов массового внедрения систем ИИ. Предполагается создать систему (финансовый рынок), которая позволит эффективно предоставлять вычислительные мощности исследовательским организациям и стартапам;
- из NIST AI RMF необходимо будет удалить все положения, связанные с дезинформацией, равенством, разнообразием и инклюзивностью, а также с влиянием на климат. Более того, провозглашается, что все модели ИИ должны обучаться на основе свободы слова (очевидно, в том, как ее понимает текущая администрация);
- Центр по стандартизации в сфере ИИ (CAISI) при NIST должен будет проводить оценки передовых моделей китайского производства на предмет их соответствия ценностям КПК и цензуры.
Однако, несмотря на полное противопоставление себя предыдущей администрации, некоторые аспекты все равно остаются общими, хоть и формулируются несколько мягче:
- все еще большое внимание уделяется оценкам моделей. Их надлежит проводить, а методики развивать. Более того, очень мягко написано, что в будущем обязательные оценки могут стать частью правоприменительной практики в рамках уже существующего законодательства (услада для юридического уха);
- продолжается вездесущая война с дипфейками, однако не за счет законодательных решений, а через деятельность органов власти;
- госорганы также должны проводить предварительные оценки передовых моделей на предмет угроз национальной безопасности. Прежде всего для создания вооружений (CBRNE). Также сохранились и требования по обеспечению биобезопасности;
- остаются требования по кибербезопасности (особенно для критической инфраструктуры) и обмен информацией об инцидентах между бизнесом и органами власти. Продолжается борьба за интерпретируемость моделей ИИ.
А еще мне "понравилось" положение, которое обязывает государственные органы заключить соглашения с провайдерами облачных услуг и всеми, у кого есть вычислительные мощности, на предмет того, что в случае чрезвычайного или военного положения государство получает преимущественный доступ к вычислительным мощностям.
www.ai.gov
AI Action Plan
Explore President Trump's AI Action Plan, America's roadmap to win the AI race focused on Three Pillars: Accelerating Innovation, Building AI Infrastructure, and Leading in International diplomacy and Security.
❤5 3 1
Смотрим на письмо OpenAI к губернатору Калифорнии
Обычно я редко обращаю внимание на различные письма, высказывания и иные инфоповоды, которые не связаны с какой-то практической ценностью, однако тут я решил сделать исключение, так как позиция OpenAI, изложенная в письме к губернатору штата Калифорния, довольно примечательна.
Калифорния является одним из лидеров среди штатов по ИИ-регулированию, которое концептуально уже далеко ушло от федерального. Достаточно плотно штат раздумывает и о регулировании в сфере разработки и применения передовых моделей ИИ и систем ИИ повышенного риска. Недавно я разбирал в посте отчет рабочей группы. Так вот, ИИ-разработчики, многие из которых базируются в Калифорнии, объяснимо переживают за свои бюджеты и стараются лоббировать уменьшение регуляторного бремени.
Что же предлагают в OpenAI?
Освобождать разработчиков передовых моделей ИИ от необходимости исполнять будущие законодательные требования в тех случаях, если:
- они уже соответствуют передовым фреймворкам демократических стран. Тут OpenAI ссылается на наш любимый Европейский Кодекс практик для моделей ИИ общего назначения (GPAI Code of Practice). Кстати, OpenAI, как и ряд других разработчиков, уже подписались его исполнять. Мы его с вами многократно разбирали. Если пропустили, то ознакомиться можно тут;
или
- в отношении их моделей уже были проведены оценки угроз национальной безопасности Центром по стандартизации в сфере ИИ (CAISI) при NIST в рамках соглашения о добровольном сотрудничестве. О том, что такие оценки надо проводить, писал во вчерашнем посте про AI Action Plan.
Хорошо это или плохо?
Если требования Калифорнии будут сосредоточены только вокруг AI Safety, то второе положение выглядит оправданно, так как это позволит избежать дублирования схожих процедур на федеральном уровне и уровне штатов. Тут скорее стоит говорить о координации действий разных органов власти.
Что касается первого пункта, то ситуация несколько более спорная: Кодекс шире, чем сфера AI Safety per se. Поэтому тут крайне проблематично поставить знак равенства между двумя разными процедурами. Таким образом, про “зачет автоматом” мы можем говорить только применительно к AI Safety. Остальные же сферы все равно потребуется законодательно регулировать.
Что еще хочется сказать? Если вы сами не хотите проактивно разрабатывать правовые нормы и регуляторные механизмы, то познакомьтесь с Брюссельским эффектом🤩 .
Обычно я редко обращаю внимание на различные письма, высказывания и иные инфоповоды, которые не связаны с какой-то практической ценностью, однако тут я решил сделать исключение, так как позиция OpenAI, изложенная в письме к губернатору штата Калифорния, довольно примечательна.
Калифорния является одним из лидеров среди штатов по ИИ-регулированию, которое концептуально уже далеко ушло от федерального. Достаточно плотно штат раздумывает и о регулировании в сфере разработки и применения передовых моделей ИИ и систем ИИ повышенного риска. Недавно я разбирал в посте отчет рабочей группы. Так вот, ИИ-разработчики, многие из которых базируются в Калифорнии, объяснимо переживают за свои бюджеты и стараются лоббировать уменьшение регуляторного бремени.
Что же предлагают в OpenAI?
Освобождать разработчиков передовых моделей ИИ от необходимости исполнять будущие законодательные требования в тех случаях, если:
- они уже соответствуют передовым фреймворкам демократических стран. Тут OpenAI ссылается на наш любимый Европейский Кодекс практик для моделей ИИ общего назначения (GPAI Code of Practice). Кстати, OpenAI, как и ряд других разработчиков, уже подписались его исполнять. Мы его с вами многократно разбирали. Если пропустили, то ознакомиться можно тут;
или
- в отношении их моделей уже были проведены оценки угроз национальной безопасности Центром по стандартизации в сфере ИИ (CAISI) при NIST в рамках соглашения о добровольном сотрудничестве. О том, что такие оценки надо проводить, писал во вчерашнем посте про AI Action Plan.
Хорошо это или плохо?
Если требования Калифорнии будут сосредоточены только вокруг AI Safety, то второе положение выглядит оправданно, так как это позволит избежать дублирования схожих процедур на федеральном уровне и уровне штатов. Тут скорее стоит говорить о координации действий разных органов власти.
Что касается первого пункта, то ситуация несколько более спорная: Кодекс шире, чем сфера AI Safety per se. Поэтому тут крайне проблематично поставить знак равенства между двумя разными процедурами. Таким образом, про “зачет автоматом” мы можем говорить только применительно к AI Safety. Остальные же сферы все равно потребуется законодательно регулировать.
Что еще хочется сказать? Если вы сами не хотите проактивно разрабатывать правовые нормы и регуляторные механизмы, то познакомьтесь с Брюссельским эффектом
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
OpenAI’s letter to Governor Newsom on harmonized regulation
We’ve just sent a letter to Gov. Gavin Newsom calling for California to lead the way in harmonizing state-based AI regulation with national—and, by virtue of US leadership, emerging global—standards.
❤3👍1 1
Строгая ответственность для операторов систем ИИ повышенного риска: разбираем отчет, подготовленный по заказу Европарламента
В июле этого года вышел 140-страничный отчет об ИИ и гражданско-правовой ответственности, который был подготовлен по заказу профильного подразделения Европарламента (JURI). Автором отчета выступил Андреа Бертолини, профессор частного права и руководитель центра по регулированию ИИ и робототехники в Scuola Superiore Sant’Anna.
Если отбросить историю и дискуссии, то ключевой идеей отчета является необходимость выработки такого подхода к гражданско-правовой ответственности, который позволял бы сформировать единый режим на уровне ЕС и упростил бы поиск корректного субъекта внутри цепочек поставок систем ИИ. Особую актуальность данная тема приобрела после отказа законодателей от разработки отдельной директивы об ответственности в сфере ИИ (AILD). Я про это много писал на канале. Последнее – тут.
Основное решение видится следующим: применять к операторам (прежде всего поставщикам (providers) и эксплуатантам (deployers)) систем ИИ повышенного риска правила строгой (безвиновной) ответственности. При этом у операторов должно сохраняться право подавать регрессные иски к другим субъектам внутри цепочек поставок.
Хочется отметить, что данное решение сложно назвать новым. Более того, оно уже обсуждалось в ходе прошедших в этом году публичных слушаний в Европарламенте. Тогда, наоборот, было высказано мнение, что круг систем повышенного риска по смыслу Регламента ЕС об ИИ является слишком узким. Было даже предложено ввести новую категорию – high-impact AI systems, которая включала бы также высокоавтоматизированные системы ИИ и модели ИИ общего назначения, представляющие системные риски.
Так что мы наблюдаем очередной случай, когда ИИ-регулирование концептуально ходит по кругу💻 .
Кстати, мы с коллегой предлагали нечто похожее в статье еще полтора года назад.
В июле этого года вышел 140-страничный отчет об ИИ и гражданско-правовой ответственности, который был подготовлен по заказу профильного подразделения Европарламента (JURI). Автором отчета выступил Андреа Бертолини, профессор частного права и руководитель центра по регулированию ИИ и робототехники в Scuola Superiore Sant’Anna.
Если отбросить историю и дискуссии, то ключевой идеей отчета является необходимость выработки такого подхода к гражданско-правовой ответственности, который позволял бы сформировать единый режим на уровне ЕС и упростил бы поиск корректного субъекта внутри цепочек поставок систем ИИ. Особую актуальность данная тема приобрела после отказа законодателей от разработки отдельной директивы об ответственности в сфере ИИ (AILD). Я про это много писал на канале. Последнее – тут.
Основное решение видится следующим: применять к операторам (прежде всего поставщикам (providers) и эксплуатантам (deployers)) систем ИИ повышенного риска правила строгой (безвиновной) ответственности. При этом у операторов должно сохраняться право подавать регрессные иски к другим субъектам внутри цепочек поставок.
Хочется отметить, что данное решение сложно назвать новым. Более того, оно уже обсуждалось в ходе прошедших в этом году публичных слушаний в Европарламенте. Тогда, наоборот, было высказано мнение, что круг систем повышенного риска по смыслу Регламента ЕС об ИИ является слишком узким. Было даже предложено ввести новую категорию – high-impact AI systems, которая включала бы также высокоавтоматизированные системы ИИ и модели ИИ общего назначения, представляющие системные риски.
Так что мы наблюдаем очередной случай, когда ИИ-регулирование концептуально ходит по кругу
Кстати, мы с коллегой предлагали нечто похожее в статье еще полтора года назад.
Please open Telegram to view this post
VIEW IN TELEGRAM
www.europarl.europa.eu
Artificial Intelligence and Civil Liability | Think Tank | European Parliament
❤6 3👍1
Обзор текущего состояния ИИ-регулирования: сравниваем яблоки и апельсины с авторами новой статьи
В июне на ACM Conference on Fairness, Accountability, and Transparency была представлена статья, в которой авторы попытались проанализировать текущее состояние нормативного правового регулирования на примере нескольких юрисдикций.
Давайте посмотрим на некоторые основные выводы:
- в целом в мире наблюдается постепенный переход от мягкого регулирования к жёсткому. Однако огромное число разнообразных актов и рекомендаций, которые отличаются между собой и по юридической силе, и по субъекту их издавшему, вводят в заблуждение людей, далёких от сферы ИИ-регулирования. Для этого авторы и пытаются разработать таксономию, чтобы как-то всё это систематизировать.
Также сложно не согласиться с авторами в том, что в некоторых юрисдикциях пытаются делать упор на инструменты мягкого права, что в конечном итоге приводит к возникновению у людей ложного чувства защищённости. Людям кажется, что в стране много всяких фреймворков и этических кодексов, но на деле ничего из этого не имеет юридической силы и не обязательно к исполнению (тут должен быть тезис про регулирование в РФ, но я уже устал это повторять🐱 ).
Другой важный вопрос касается рисков «регуляторного захвата», когда стейкхолдеры через лоббирование и участие в рабочих группах фактически размывают первоначальные интенции законодателей в ходе правотворческого процесса. Это мы многократно видели, например, в ЕС, когда финальные тексты актов были значительно более компромиссными, чем первые драфты;
- вертикальный vs горизонтальный подходы к регулированию: большинство стран всё же стараются разработать общее регулирование в сфере ИИ, однако США на федеральном уровне придерживается отраслевого подхода;
- ex post vs ex ante: аналогично предыдущему пункту большинство стран стараются регулировать сферу превентивно, а не разбираться с негативными последствиями уже через юридическую ответственность.
Также важно отметить, что авторы присоединяются к любимому тезису, который часто отстаиваю я и мои друзья и коллеги: качественное регулирование не тормозит инновации, а наоборот способствует технологическому развитию через понятность, прозрачность и защиту прав человека.
Авторы также приводят и самый очевидный пример: все часто критикуют ЕС за жёсткое регулирование и низкие темпы инноваций, но при этом хвалят Китай, в котором регулирование в сфере ИИ местами ещё более строгое.
В июне на ACM Conference on Fairness, Accountability, and Transparency была представлена статья, в которой авторы попытались проанализировать текущее состояние нормативного правового регулирования на примере нескольких юрисдикций.
Давайте посмотрим на некоторые основные выводы:
- в целом в мире наблюдается постепенный переход от мягкого регулирования к жёсткому. Однако огромное число разнообразных актов и рекомендаций, которые отличаются между собой и по юридической силе, и по субъекту их издавшему, вводят в заблуждение людей, далёких от сферы ИИ-регулирования. Для этого авторы и пытаются разработать таксономию, чтобы как-то всё это систематизировать.
Также сложно не согласиться с авторами в том, что в некоторых юрисдикциях пытаются делать упор на инструменты мягкого права, что в конечном итоге приводит к возникновению у людей ложного чувства защищённости. Людям кажется, что в стране много всяких фреймворков и этических кодексов, но на деле ничего из этого не имеет юридической силы и не обязательно к исполнению (тут должен быть тезис про регулирование в РФ, но я уже устал это повторять
Другой важный вопрос касается рисков «регуляторного захвата», когда стейкхолдеры через лоббирование и участие в рабочих группах фактически размывают первоначальные интенции законодателей в ходе правотворческого процесса. Это мы многократно видели, например, в ЕС, когда финальные тексты актов были значительно более компромиссными, чем первые драфты;
- вертикальный vs горизонтальный подходы к регулированию: большинство стран всё же стараются разработать общее регулирование в сфере ИИ, однако США на федеральном уровне придерживается отраслевого подхода;
- ex post vs ex ante: аналогично предыдущему пункту большинство стран стараются регулировать сферу превентивно, а не разбираться с негативными последствиями уже через юридическую ответственность.
Также важно отметить, что авторы присоединяются к любимому тезису, который часто отстаиваю я и мои друзья и коллеги: качественное регулирование не тормозит инновации, а наоборот способствует технологическому развитию через понятность, прозрачность и защиту прав человека.
Авторы также приводят и самый очевидный пример: все часто критикуют ЕС за жёсткое регулирование и низкие темпы инноваций, но при этом хвалят Китай, в котором регулирование в сфере ИИ местами ещё более строгое.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤4 2
В октябре стартует третий поток нашего курса по AI Governance, самое время подать заявку
Друзья, время летит быстро, и мы с коллегами уже совсем скоро запускаем третий поток курса по AI Governance. Мы всей командой фактически беспрерывно работаем над его улучшением, поэтому будет много всего интересного.
О чём курс и для кого?
Курс поможет за несколько месяцев подробно разобраться как в ландшафте нормативного правового регулирования в России и ключевых юрисдикциях, так и научиться выстраивать систему менеджмента ИИ в организации и обеспечивать комплаенс ИИ-продуктов.
Вы получите все необходимые знания, чтобы минимизировать риски, маневрировать среди законодательных требований и обеспечивать безопасную разработку и эксплуатацию систем и моделей ИИ.
Курс будет полезен не только юристам, но и всем, кто работает с системами ИИ, включая DPO, специалистов по комплаенсу, управлению рисками и информационной безопасностью, а также руководителей направлений, продуктовых и проектных менеджеров.
Чем, на мой взгляд, курс удачен?
- преподавательский состав: все эксперты имеют солидный опыт и горят своим делом. Также очень важно, что бэкграунд преподавателей соответствует тематике их занятий: технические основы преподает инженер, за оборот данных, информационную безопасность и IP отвечают профильные специалисты и т. д.;
- опытные менторы: помимо преподавателей в ходе всего обучения студенты плотно взаимодействуют с менторами – обычно это выпускники прошлых потоков, которые уже работают в сфере AI Governance. Это даёт возможность увидеть реальные карьерные треки на примере живых людей, обзавестись полезными контактами и стать частью большого международного коммьюнити специалистов;
- материал ориентирован на практику и сбалансирован: лекции и практические занятия выстроены так, чтобы сформировать системные знания и давать возможность отрабатывать их на кейсах из реальной практики. Полученные знания можно применять как в иностранных юрисдикциях, так и в России. Кроме того, они станут отличной базой для подготовки к международным сертификациям в сфере ИИ.
Что буду преподавать я?
В рамках курса я проведу занятия по регулированию в сфере разработки и применения систем и моделей ИИ в ЕС, США и КНР, а также приму участие в семинарах и других активностях🤩 .
Когда стартует обучение?
Курс стартует уже 27 октября. Более подробно с программой можно ознакомиться по ссылке.
Друзья, время летит быстро, и мы с коллегами уже совсем скоро запускаем третий поток курса по AI Governance. Мы всей командой фактически беспрерывно работаем над его улучшением, поэтому будет много всего интересного.
О чём курс и для кого?
Курс поможет за несколько месяцев подробно разобраться как в ландшафте нормативного правового регулирования в России и ключевых юрисдикциях, так и научиться выстраивать систему менеджмента ИИ в организации и обеспечивать комплаенс ИИ-продуктов.
Вы получите все необходимые знания, чтобы минимизировать риски, маневрировать среди законодательных требований и обеспечивать безопасную разработку и эксплуатацию систем и моделей ИИ.
Курс будет полезен не только юристам, но и всем, кто работает с системами ИИ, включая DPO, специалистов по комплаенсу, управлению рисками и информационной безопасностью, а также руководителей направлений, продуктовых и проектных менеджеров.
Чем, на мой взгляд, курс удачен?
- преподавательский состав: все эксперты имеют солидный опыт и горят своим делом. Также очень важно, что бэкграунд преподавателей соответствует тематике их занятий: технические основы преподает инженер, за оборот данных, информационную безопасность и IP отвечают профильные специалисты и т. д.;
- опытные менторы: помимо преподавателей в ходе всего обучения студенты плотно взаимодействуют с менторами – обычно это выпускники прошлых потоков, которые уже работают в сфере AI Governance. Это даёт возможность увидеть реальные карьерные треки на примере живых людей, обзавестись полезными контактами и стать частью большого международного коммьюнити специалистов;
- материал ориентирован на практику и сбалансирован: лекции и практические занятия выстроены так, чтобы сформировать системные знания и давать возможность отрабатывать их на кейсах из реальной практики. Полученные знания можно применять как в иностранных юрисдикциях, так и в России. Кроме того, они станут отличной базой для подготовки к международным сертификациям в сфере ИИ.
Что буду преподавать я?
В рамках курса я проведу занятия по регулированию в сфере разработки и применения систем и моделей ИИ в ЕС, США и КНР, а также приму участие в семинарах и других активностях
Когда стартует обучение?
Курс стартует уже 27 октября. Более подробно с программой можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
rppaedu.pro
AI Governance
Образовательный продукт AI Governance поможет специалисту стать экспертом в области и научиться превращать технологии из риска в актив
1❤8 5👍1 1
Что делать с передовыми моделями ИИ, которые разрабатываются внутри компаний, но еще не выведены на рынок?
Сегодня изучаем очередное исследование от авторов из Institute for AI Policy and Strategy, в котором поднимается важный вопрос: нужны ли какие-то требования по безопасности для поставщиков, чьи модели разрабатываются в лабораториях, но еще не выпущены на рынок. Как правило, современные подходы к нормативному правовому регулированию фокусируются именно на стадии применения систем ИИ в общественном пространстве и стараются всячески исключить сферу научных исследований, чтобы не тормозить развитие инноваций.
Однако авторы подчеркивают, что, как правило, компании-разработчики передовых моделей ИИ уже имеют более совершенные их версии за месяцы до официального релиза. Более того, эти версии моделей, с одной стороны, могут быть плохо изучены на предмет системных рисков и иметь способности двойного назначения, а с другой – еще не быть качественно протестированы и оснащены мерами по обеспечению безопасности.
Авторы особенно акцентируют внимание на трех потенциальных сценариях потери контроля:
- внутреннее реплицирование системы на серверах разработчика. В оригинале это звучит как Internal rogue deployment, что чатгпт предложил мне перевести как внутренний «развёртыш». Теперь этот термин навсегда в моей голове🤩 ;
- создание внешних копий себя в интернете;
- создание неподконтрольной системой ИИ кода или компонентов для системы ИИ следующего поколения.
Также в условиях, когда передовые модели ИИ становятся не просто бизнес-преимуществом, а важным внешнеполитическим фактором, вооруженные силы или разведки могут пытаться получить доступ или взломать модели частных компаний и стартапов других государств. Последние же попросту не имеют достаточных компетенций и ресурсов, чтобы противостоять таким атакам самостоятельно.
Что же предлагают авторы с точки зрения регулирования?
- Компании, которые разрабатывают передовые модели ИИ, должны предоставлять больше информации государственным органам и предоставлять свои модели для оценки до их размещения на рынке. Например, в США Center for AI Standards and Innovation (CAISI) на основе добровольного соглашения с OpenAI и Anthropic уже проводит такие оценки. Кроме этого, предлагается, чтобы компании раскрывали информацию о проведении внутренних оценок, общего плана по безопасности и необходимой документации о внутренней системе ИИ. Кстати, практически аналогичные требования применяются и в ЕС в отношении моделей ИИ общего назначения, представляющих системные риски.
- Установить стандарты безопасности для внутренних систем ИИ, а также осуществлять поддержку со стороны спецслужб по мере увеличения рисков.
- Увеличить государственную поддержку в сфере ИИ-безопасности, в том числе для проведения исследований и подготовки кадров.
Сегодня изучаем очередное исследование от авторов из Institute for AI Policy and Strategy, в котором поднимается важный вопрос: нужны ли какие-то требования по безопасности для поставщиков, чьи модели разрабатываются в лабораториях, но еще не выпущены на рынок. Как правило, современные подходы к нормативному правовому регулированию фокусируются именно на стадии применения систем ИИ в общественном пространстве и стараются всячески исключить сферу научных исследований, чтобы не тормозить развитие инноваций.
Однако авторы подчеркивают, что, как правило, компании-разработчики передовых моделей ИИ уже имеют более совершенные их версии за месяцы до официального релиза. Более того, эти версии моделей, с одной стороны, могут быть плохо изучены на предмет системных рисков и иметь способности двойного назначения, а с другой – еще не быть качественно протестированы и оснащены мерами по обеспечению безопасности.
Авторы особенно акцентируют внимание на трех потенциальных сценариях потери контроля:
- внутреннее реплицирование системы на серверах разработчика. В оригинале это звучит как Internal rogue deployment, что чатгпт предложил мне перевести как внутренний «развёртыш». Теперь этот термин навсегда в моей голове
- создание внешних копий себя в интернете;
- создание неподконтрольной системой ИИ кода или компонентов для системы ИИ следующего поколения.
Также в условиях, когда передовые модели ИИ становятся не просто бизнес-преимуществом, а важным внешнеполитическим фактором, вооруженные силы или разведки могут пытаться получить доступ или взломать модели частных компаний и стартапов других государств. Последние же попросту не имеют достаточных компетенций и ресурсов, чтобы противостоять таким атакам самостоятельно.
Что же предлагают авторы с точки зрения регулирования?
- Компании, которые разрабатывают передовые модели ИИ, должны предоставлять больше информации государственным органам и предоставлять свои модели для оценки до их размещения на рынке. Например, в США Center for AI Standards and Innovation (CAISI) на основе добровольного соглашения с OpenAI и Anthropic уже проводит такие оценки. Кроме этого, предлагается, чтобы компании раскрывали информацию о проведении внутренних оценок, общего плана по безопасности и необходимой документации о внутренней системе ИИ. Кстати, практически аналогичные требования применяются и в ЕС в отношении моделей ИИ общего назначения, представляющих системные риски.
- Установить стандарты безопасности для внутренних систем ИИ, а также осуществлять поддержку со стороны спецслужб по мере увеличения рисков.
- Увеличить государственную поддержку в сфере ИИ-безопасности, в том числе для проведения исследований и подготовки кадров.
Please open Telegram to view this post
VIEW IN TELEGRAM
Institute for AI Policy and Strategy
Managing Risks from Internal AI Systems — Institute for AI Policy and Strategy
The most powerful AI systems are used internally for months before they are released to the public. These internal AI systems may possess capabilities significantly ahead of the public frontier, particularly in high-stakes, dual-use areas like AI research…
❤2 2 1
24 сентября проведем вебинар про первый опыт сертификации систем ИИ на российском рынке по ISO/IEC 42001: cистема менеджмента ИИ
Друзья, буквально несколько месяцев назад Яндекс стал первой компанией в РФ, сертифицировавшей свою систему менеджмента ИИ по международному стандарту ISO/IEC 42001. Этот стандарт постепенно набирает популярность среди разработчиков систем ИИ, а также поставщиков их компонентов по всему миру. Также он является хорошим способом выстроить процессы в компании и подготовиться к исполнению законодательных требований ведущих стран и регионов.
Мы пригласили представителей команды, которая непосредственно занималась сертификацией, и зададим им самые актуальные вопросы.
Вебинар состоится уже завтра, приходите🐱 .
Регистрация по ссылке.
Друзья, буквально несколько месяцев назад Яндекс стал первой компанией в РФ, сертифицировавшей свою систему менеджмента ИИ по международному стандарту ISO/IEC 42001. Этот стандарт постепенно набирает популярность среди разработчиков систем ИИ, а также поставщиков их компонентов по всему миру. Также он является хорошим способом выстроить процессы в компании и подготовиться к исполнению законодательных требований ведущих стран и регионов.
Мы пригласили представителей команды, которая непосредственно занималась сертификацией, и зададим им самые актуальные вопросы.
Вебинар состоится уже завтра, приходите
Регистрация по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
RPPA PRO: Privacy • AI • Cybersecurity • IP
😎🆕 AI: Вебинар: Система менеджмента ИИ по ISO/IEC 42001:2023 - первый опыт сертификации ИИ-систем на российском рынке
Друзья, а мы приглашаем вас принять участие в вебинаре🔥
📌В 2025 году компания Яндекс первая в России сертифицировала систему менеджмента…
Друзья, а мы приглашаем вас принять участие в вебинаре🔥
📌В 2025 году компания Яндекс первая в России сертифицировала систему менеджмента…
❤5🔥5👍1