Появилась запись моего мастер-класса по моделям ИИ общего назначения
Друзья, если кто-то не смог прийти на мастер-класс, то теперь его можно посмотреть в удобное для вас время.
Вопросы можно и нужно задавать в комментариях или в личных сообщениях.
Также буду рад, если вы укажете темы, на которые, по вашему мнению, стоит обратить внимание на следующем вебинаре.
Всем, кто пришел лично, отдельное спасибо за вопросы и дискуссию🤩 .
Друзья, если кто-то не смог прийти на мастер-класс, то теперь его можно посмотреть в удобное для вас время.
Вопросы можно и нужно задавать в комментариях или в личных сообщениях.
Также буду рад, если вы укажете темы, на которые, по вашему мнению, стоит обратить внимание на следующем вебинаре.
Всем, кто пришел лично, отдельное спасибо за вопросы и дискуссию
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Мастер-класс Дмитрия Кутейникова «Глава V Регламента по ИИ: ЕС наносит ответный удар»
С 2 августа 2025 года вступает в силу Глава V Регламента ЕС по ИИ, устанавливающая обязательные требования для поставщиков моделей ИИ общего назначения — именно тех моделей, которые лежат в основе популярных продуктов вроде ChatGPT, Claude, Gemini, DeepSeek…
🔥14❤2👍1
Опубликована база данных мер по снижению рисков ИИ
Ранее я уже неоднократно писал о базе данных ИИ-рисков, которую ведут исследователи из MIT. Если в прошлый раз проект расширился за счёт включения базы данных по ИИ-инцидентам, то теперь появилась отдельная база мер по снижению ИИ-рисков (AI Risk Mitigation Database). Правда это пока ее первый вариант.
База данных разбита на четыре обширные группы, каждая из которых включает набор контролей:
- Governance & Oversight
- Technical & Security
- Operational Process
- Transparency & Accountability
Как формировалась база?
Исследователи проанализировали 13 наиболее известных научных работ и фреймворков и выявили 831 меру по снижению рисков. При этом большинство рассмотренных публикаций касалось именно передовых систем ИИ, поэтому текущая версия базы пока не является полностью репрезентативной.
Статья
Полная база данных
Ранее я уже неоднократно писал о базе данных ИИ-рисков, которую ведут исследователи из MIT. Если в прошлый раз проект расширился за счёт включения базы данных по ИИ-инцидентам, то теперь появилась отдельная база мер по снижению ИИ-рисков (AI Risk Mitigation Database). Правда это пока ее первый вариант.
База данных разбита на четыре обширные группы, каждая из которых включает набор контролей:
- Governance & Oversight
- Technical & Security
- Operational Process
- Transparency & Accountability
Как формировалась база?
Исследователи проанализировали 13 наиболее известных научных работ и фреймворков и выявили 831 меру по снижению рисков. При этом большинство рассмотренных публикаций касалось именно передовых систем ИИ, поэтому текущая версия базы пока не является полностью репрезентативной.
Статья
Полная база данных
❤9👍2
Нужны ли дополнительные требования для интеграторов моделей ИИ?
Именно таким вопросом задались авторы исследования, на которое мы сегодня посмотрим более подробно. Кстати, все авторы довольно известны в узких кругах, поэтому советую обратить на них внимание.
В чем же основная проблема?
В двух словах интеграторы (авторы тут их называют downstream developers) – люди или организации, которые модифицируют чужие модели ИИ и используют их для своих целей. При этом в данную группу не входят те, кто пользуются моделями as is. Авторы намеренно рассматривают очень широкий круг субъектов, а не только интеграторов опенсорс моделей (видно на скриншотах). Озабоченность с точки зрения правового регулирования они вызывают потому что при модификации они, с одной стороны, довольно легко могут обходить ограничения модели, а с другой – способны доработать модель так, чтобы у нее появились новые способности. Вместе с тем таких интеграторов уже сотни тысяч и далеко не все из них обладают достаточными знаниями и инфраструктурой для избежания негативных последствий.
Какие варианты регулирования есть?
Они рассматривают плюсы и минусы трех основных подходов:
- установление требований непосредственно для интеграторов: необходимо установить границы существенных модификаций и пропорционально этому распределять требования;
- установление специфических требований для разработчиков моделей ИИ применительно к интеграторам: внедрять технические меры, способные защитить от нежелательных модификаций и предоставлять необходимую информацию по всей цепочке поставки;
- использовать механизмы внедоговорной ответственности и рекомендательные фреймворки: прежде всего донастройка существующих механизмов внедоговорной ответственности, чтобы можно было ее гибко распределять между разными субъектами внутри цепочек поставок.
Что предлагают авторы?
По сути, авторы склоняются к комбинированному подходу: обязательства для разработчиков моделей ИИ неизбежны, а требования для интеграторов возможны лишь в тех случаях, когда их модификации явно приводят к увеличению рисков:
- создать добровольные рекомендации для интеграторов;
- установить требования для разработчиков моделей ИИ;
- внимательно изучать экосистему разработчиков и интеграторов, чтобы вовремя реагировать на точки бифуркации.
Местами очень напоминает несколько упрощенную версию существующего регулирования в ЕС. Кстати, данный вопрос я недавно подробно раскрывал на мастер-классе👀 .
Именно таким вопросом задались авторы исследования, на которое мы сегодня посмотрим более подробно. Кстати, все авторы довольно известны в узких кругах, поэтому советую обратить на них внимание.
В чем же основная проблема?
В двух словах интеграторы (авторы тут их называют downstream developers) – люди или организации, которые модифицируют чужие модели ИИ и используют их для своих целей. При этом в данную группу не входят те, кто пользуются моделями as is. Авторы намеренно рассматривают очень широкий круг субъектов, а не только интеграторов опенсорс моделей (видно на скриншотах). Озабоченность с точки зрения правового регулирования они вызывают потому что при модификации они, с одной стороны, довольно легко могут обходить ограничения модели, а с другой – способны доработать модель так, чтобы у нее появились новые способности. Вместе с тем таких интеграторов уже сотни тысяч и далеко не все из них обладают достаточными знаниями и инфраструктурой для избежания негативных последствий.
Какие варианты регулирования есть?
Они рассматривают плюсы и минусы трех основных подходов:
- установление требований непосредственно для интеграторов: необходимо установить границы существенных модификаций и пропорционально этому распределять требования;
- установление специфических требований для разработчиков моделей ИИ применительно к интеграторам: внедрять технические меры, способные защитить от нежелательных модификаций и предоставлять необходимую информацию по всей цепочке поставки;
- использовать механизмы внедоговорной ответственности и рекомендательные фреймворки: прежде всего донастройка существующих механизмов внедоговорной ответственности, чтобы можно было ее гибко распределять между разными субъектами внутри цепочек поставок.
Что предлагают авторы?
По сути, авторы склоняются к комбинированному подходу: обязательства для разработчиков моделей ИИ неизбежны, а требования для интеграторов возможны лишь в тех случаях, когда их модификации явно приводят к увеличению рисков:
- создать добровольные рекомендации для интеграторов;
- установить требования для разработчиков моделей ИИ;
- внимательно изучать экосистему разработчиков и интеграторов, чтобы вовремя реагировать на точки бифуркации.
Местами очень напоминает несколько упрощенную версию существующего регулирования в ЕС. Кстати, данный вопрос я недавно подробно раскрывал на мастер-классе
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍5 4❤3
Смотрим популярные интервью про ИИ и немного удивляемся
Друзья, сегодня у нас воскресный расслабленный пост. За последние пару недель я частями посмотрел громкие русскоязычные интервью по теме ИИ: Дмитрий Волков (специалист по AI Safety) у Елизаветы Осетинской и Андрей Дороничев (известный IT-предприниматель) у Юрия Дудя. Конечно, оба спикера классные и профессиональные, поэтому могу советовать посмотреть, особенно если вы только начинаете интересоваться сферой ИИ. Если вы в ней варитесь достаточно давно, то будет несколько скучновато, так как многие тезисы давно качуют от спикера к спикеру. Но даже в этом случае можно освежить материал и замотивироваться.
Однако небольшая ложка дёгтя от меня, о которой не могу молчать: в обоих интервью, когда речь заходит про ИИ-регулирование, спикеры отвечают, мягко говоря, путано.
Давайте разбираться:
В первом случае Дмитрий рассказывает Елизавете про вклад Великобритании в AI Safety, в том числе через создание UK AI Safety Institute (на самом деле он уже не Safety, а Security; кроме того, подобные институты были одновременно созданы и в США, и в ЕС, а сейчас их по всему миру больше десятка, но да ладно). После чего спикер и интервьюер соглашаются, что если кто-то и будет пионером в ИИ-регулировании, то это будет Великобритания. Гхм, где-то от такого утверждения закатили глаза как минимум Китай и ЕС. Великобритания ведёт полезную работу на уровне органов власти, но с законодательными решениями всё очень туго.
Далее на вопрос про основные компоненты успешного регулирования Дмитрий указывает три аспекта: прозрачность моделей ИИ (с точки зрения документации и внешних независимых оценок), возможность иметь у государственных органов «красную кнопку» (привёл пример Президента США, хех) и обязательная реализация программ по AI Safety and Security как со стороны бизнеса, так и госорганов. В этот момент хотелось сказать, что ровно это сейчас и реализуется в законодательстве ЕС и отчасти в Китае.
Во втором интервью ситуация более курьёзная: в вопросе про регулирование Андрей внезапно говорит, что в ЕС подход очень плохой, так как они ЗАПРЕТИЛИ разрабатывать модели ИИ выше определённого порога по компьюту. В этот момент я чуть не подавился обедом. Я уже многократно указывал, что на поставщиков моделей ИИ общего назначения, представляющих системные риски (10^25 FLOP), накладываются дополнительные обязательства как раз по AI Safety and Security, о которых так просил спикер из первого интервью. А если и говорить про запрещенные практики, то они касаются систем, а не моделей и связаны с отдельными узкими юзкейсами, но никак не привязаны к техническим характеристикам модели.
Далее Андрей высказывается в духе того, что негоже законодателям регулировать технологии, в которых они ничего не понимают. Однако в данном случае сам Андрей делает выводы про законодательство на основе того, что он где-то услышал краем уха. И мне не хочется быть защитником ЕС, у них куча своих проблем, о которых я часто говорю, но такое передёргивание фактов явно не поможет в создании классного безопасного ИИ, о котором все так много говорят.
Вообще большинство интервью и разговоров про ИИ грешат жонглированием великими обещаниями и сценариями апокалипсиса. Однако мало кто понимает, что развиваться должны не только технологии, но и регуляторные подходы. Никакой инопланетный корабль вам не принесёт безопасное регулирование в момент создания сильного ИИ. Процесс создания новых технологий и передовые подходы к регулированию – вещи, которые должны идти рука об руку. Понятно, что Андрей сам является фаундером ИИ-стартапа и играет на поле бизнеса, но хотелось бы напомнить, что именно технологический бизнес и вкладывает миллионы долларов в лоббизм, направленный на упрощение законодательства и отказ от дорогостоящих мер по внедрению AI Safety and Security, а также прозрачности.
Вывод: если вы хотите серьёзно разобраться в проблеме или вам нужна консультация, то не слушайте технобро, а идите к специалистам по ИИ-регулированиию. Их довольно мало, но они есть🤩 .
Вынужден указать, что РФ считает обоих интервьюеров иноагентами.
Друзья, сегодня у нас воскресный расслабленный пост. За последние пару недель я частями посмотрел громкие русскоязычные интервью по теме ИИ: Дмитрий Волков (специалист по AI Safety) у Елизаветы Осетинской и Андрей Дороничев (известный IT-предприниматель) у Юрия Дудя. Конечно, оба спикера классные и профессиональные, поэтому могу советовать посмотреть, особенно если вы только начинаете интересоваться сферой ИИ. Если вы в ней варитесь достаточно давно, то будет несколько скучновато, так как многие тезисы давно качуют от спикера к спикеру. Но даже в этом случае можно освежить материал и замотивироваться.
Однако небольшая ложка дёгтя от меня, о которой не могу молчать: в обоих интервью, когда речь заходит про ИИ-регулирование, спикеры отвечают, мягко говоря, путано.
Давайте разбираться:
В первом случае Дмитрий рассказывает Елизавете про вклад Великобритании в AI Safety, в том числе через создание UK AI Safety Institute (на самом деле он уже не Safety, а Security; кроме того, подобные институты были одновременно созданы и в США, и в ЕС, а сейчас их по всему миру больше десятка, но да ладно). После чего спикер и интервьюер соглашаются, что если кто-то и будет пионером в ИИ-регулировании, то это будет Великобритания. Гхм, где-то от такого утверждения закатили глаза как минимум Китай и ЕС. Великобритания ведёт полезную работу на уровне органов власти, но с законодательными решениями всё очень туго.
Далее на вопрос про основные компоненты успешного регулирования Дмитрий указывает три аспекта: прозрачность моделей ИИ (с точки зрения документации и внешних независимых оценок), возможность иметь у государственных органов «красную кнопку» (привёл пример Президента США, хех) и обязательная реализация программ по AI Safety and Security как со стороны бизнеса, так и госорганов. В этот момент хотелось сказать, что ровно это сейчас и реализуется в законодательстве ЕС и отчасти в Китае.
Во втором интервью ситуация более курьёзная: в вопросе про регулирование Андрей внезапно говорит, что в ЕС подход очень плохой, так как они ЗАПРЕТИЛИ разрабатывать модели ИИ выше определённого порога по компьюту. В этот момент я чуть не подавился обедом. Я уже многократно указывал, что на поставщиков моделей ИИ общего назначения, представляющих системные риски (10^25 FLOP), накладываются дополнительные обязательства как раз по AI Safety and Security, о которых так просил спикер из первого интервью. А если и говорить про запрещенные практики, то они касаются систем, а не моделей и связаны с отдельными узкими юзкейсами, но никак не привязаны к техническим характеристикам модели.
Далее Андрей высказывается в духе того, что негоже законодателям регулировать технологии, в которых они ничего не понимают. Однако в данном случае сам Андрей делает выводы про законодательство на основе того, что он где-то услышал краем уха. И мне не хочется быть защитником ЕС, у них куча своих проблем, о которых я часто говорю, но такое передёргивание фактов явно не поможет в создании классного безопасного ИИ, о котором все так много говорят.
Вообще большинство интервью и разговоров про ИИ грешат жонглированием великими обещаниями и сценариями апокалипсиса. Однако мало кто понимает, что развиваться должны не только технологии, но и регуляторные подходы. Никакой инопланетный корабль вам не принесёт безопасное регулирование в момент создания сильного ИИ. Процесс создания новых технологий и передовые подходы к регулированию – вещи, которые должны идти рука об руку. Понятно, что Андрей сам является фаундером ИИ-стартапа и играет на поле бизнеса, но хотелось бы напомнить, что именно технологический бизнес и вкладывает миллионы долларов в лоббизм, направленный на упрощение законодательства и отказ от дорогостоящих мер по внедрению AI Safety and Security, а также прозрачности.
Вывод: если вы хотите серьёзно разобраться в проблеме или вам нужна консультация, то не слушайте технобро, а идите к специалистам по ИИ-регулированиию. Их довольно мало, но они есть
Вынужден указать, что РФ считает обоих интервьюеров иноагентами.
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤7👍5 1
Разбираем новую американскую ИИ-стратегию в части регулирования
Август – хорошее время для планирования. А мы пока посмотрим, что же планируют делать с ИИ-регулированием в США. В конце прошлого месяца Дональд Трамп подписал долгожданный AI Action Plan, который довольно скромно уместился в 28 страниц, но содержит массу всего интересного и спорного.
Документ состоит из трех частей: поддержка инноваций, инфраструктура и международное сотрудничество.
Мы посмотрим на отдельные положения, связанные с нормативным регулированием:
- органам власти необходимо проактивно собирать информацию о нормативных положениях, которые ограничивают инновации, и всячески устранять разнообразные барьеры. Эта формулировка достаточно общая, поэтому не будем на ней останавливаться.
- пересмотреть решения и иные регуляторные меры FTC, принятые предыдущей администрацией. А вот это уже интересно. Прежде всего FTC провела большую операцию AI Comply, результатом которой стали штрафы для компаний, которые использовали системы ИИ для создания и продвижения вводящих в заблуждение или мошеннических схем. Интересно, будет ли реальный пересмотр данных решений;
- Office of Management and Budget (OMB) при выделении финансовых средств надлежит проверять, насколько законодательство того или иного штата “сдерживает инновации” и соответственно ограничивать бюджетирование в таких случаях. FCC же надлежит проверить законодательство в штатах на предмет ограничения ее полномочий, установленных федеральным законом. Таким образом, администрация Трампа пытается давить на законодателей штатов, в которых ИИ-регулирование идет сильно дальше федерального и уже начинает приобретать европейские черты. Ранее уже была попытка ограничить компетенции законодателей на уровне штатов и муниципальных образований в сфере ИИ через One Big Beautiful Bill Act, но в итоге данное положение не выстояло и не вошло в финальный текст документа;
- особое значение уделяется опенсорс моделям ИИ как одним из основных факторов массового внедрения систем ИИ. Предполагается создать систему (финансовый рынок), которая позволит эффективно предоставлять вычислительные мощности исследовательским организациям и стартапам;
- из NIST AI RMF необходимо будет удалить все положения, связанные с дезинформацией, равенством, разнообразием и инклюзивностью, а также с влиянием на климат. Более того, провозглашается, что все модели ИИ должны обучаться на основе свободы слова (очевидно, в том, как ее понимает текущая администрация);
- Центр по стандартизации в сфере ИИ (CAISI) при NIST должен будет проводить оценки передовых моделей китайского производства на предмет их соответствия ценностям КПК и цензуры.
Однако, несмотря на полное противопоставление себя предыдущей администрации, некоторые аспекты все равно остаются общими, хоть и формулируются несколько мягче:
- все еще большое внимание уделяется оценкам моделей. Их надлежит проводить, а методики развивать. Более того, очень мягко написано, что в будущем обязательные оценки могут стать частью правоприменительной практики в рамках уже существующего законодательства (услада для юридического уха);
- продолжается вездесущая война с дипфейками, однако не за счет законодательных решений, а через деятельность органов власти;
- госорганы также должны проводить предварительные оценки передовых моделей на предмет угроз национальной безопасности. Прежде всего для создания вооружений (CBRNE). Также сохранились и требования по обеспечению биобезопасности;
- остаются требования по кибербезопасности (особенно для критической инфраструктуры) и обмен информацией об инцидентах между бизнесом и органами власти. Продолжается борьба за интерпретируемость моделей ИИ.
А еще мне "понравилось" положение, которое обязывает государственные органы заключить соглашения с провайдерами облачных услуг и всеми, у кого есть вычислительные мощности, на предмет того, что в случае чрезвычайного или военного положения государство получает преимущественный доступ к вычислительным мощностям.
Август – хорошее время для планирования. А мы пока посмотрим, что же планируют делать с ИИ-регулированием в США. В конце прошлого месяца Дональд Трамп подписал долгожданный AI Action Plan, который довольно скромно уместился в 28 страниц, но содержит массу всего интересного и спорного.
Документ состоит из трех частей: поддержка инноваций, инфраструктура и международное сотрудничество.
Мы посмотрим на отдельные положения, связанные с нормативным регулированием:
- органам власти необходимо проактивно собирать информацию о нормативных положениях, которые ограничивают инновации, и всячески устранять разнообразные барьеры. Эта формулировка достаточно общая, поэтому не будем на ней останавливаться.
- пересмотреть решения и иные регуляторные меры FTC, принятые предыдущей администрацией. А вот это уже интересно. Прежде всего FTC провела большую операцию AI Comply, результатом которой стали штрафы для компаний, которые использовали системы ИИ для создания и продвижения вводящих в заблуждение или мошеннических схем. Интересно, будет ли реальный пересмотр данных решений;
- Office of Management and Budget (OMB) при выделении финансовых средств надлежит проверять, насколько законодательство того или иного штата “сдерживает инновации” и соответственно ограничивать бюджетирование в таких случаях. FCC же надлежит проверить законодательство в штатах на предмет ограничения ее полномочий, установленных федеральным законом. Таким образом, администрация Трампа пытается давить на законодателей штатов, в которых ИИ-регулирование идет сильно дальше федерального и уже начинает приобретать европейские черты. Ранее уже была попытка ограничить компетенции законодателей на уровне штатов и муниципальных образований в сфере ИИ через One Big Beautiful Bill Act, но в итоге данное положение не выстояло и не вошло в финальный текст документа;
- особое значение уделяется опенсорс моделям ИИ как одним из основных факторов массового внедрения систем ИИ. Предполагается создать систему (финансовый рынок), которая позволит эффективно предоставлять вычислительные мощности исследовательским организациям и стартапам;
- из NIST AI RMF необходимо будет удалить все положения, связанные с дезинформацией, равенством, разнообразием и инклюзивностью, а также с влиянием на климат. Более того, провозглашается, что все модели ИИ должны обучаться на основе свободы слова (очевидно, в том, как ее понимает текущая администрация);
- Центр по стандартизации в сфере ИИ (CAISI) при NIST должен будет проводить оценки передовых моделей китайского производства на предмет их соответствия ценностям КПК и цензуры.
Однако, несмотря на полное противопоставление себя предыдущей администрации, некоторые аспекты все равно остаются общими, хоть и формулируются несколько мягче:
- все еще большое внимание уделяется оценкам моделей. Их надлежит проводить, а методики развивать. Более того, очень мягко написано, что в будущем обязательные оценки могут стать частью правоприменительной практики в рамках уже существующего законодательства (услада для юридического уха);
- продолжается вездесущая война с дипфейками, однако не за счет законодательных решений, а через деятельность органов власти;
- госорганы также должны проводить предварительные оценки передовых моделей на предмет угроз национальной безопасности. Прежде всего для создания вооружений (CBRNE). Также сохранились и требования по обеспечению биобезопасности;
- остаются требования по кибербезопасности (особенно для критической инфраструктуры) и обмен информацией об инцидентах между бизнесом и органами власти. Продолжается борьба за интерпретируемость моделей ИИ.
А еще мне "понравилось" положение, которое обязывает государственные органы заключить соглашения с провайдерами облачных услуг и всеми, у кого есть вычислительные мощности, на предмет того, что в случае чрезвычайного или военного положения государство получает преимущественный доступ к вычислительным мощностям.
www.ai.gov
AI Action Plan
Explore President Trump's AI Action Plan, America's roadmap to win the AI race focused on Three Pillars: Accelerating Innovation, Building AI Infrastructure, and Leading in International diplomacy and Security.
❤5 3 1
Смотрим на письмо OpenAI к губернатору Калифорнии
Обычно я редко обращаю внимание на различные письма, высказывания и иные инфоповоды, которые не связаны с какой-то практической ценностью, однако тут я решил сделать исключение, так как позиция OpenAI, изложенная в письме к губернатору штата Калифорния, довольно примечательна.
Калифорния является одним из лидеров среди штатов по ИИ-регулированию, которое концептуально уже далеко ушло от федерального. Достаточно плотно штат раздумывает и о регулировании в сфере разработки и применения передовых моделей ИИ и систем ИИ повышенного риска. Недавно я разбирал в посте отчет рабочей группы. Так вот, ИИ-разработчики, многие из которых базируются в Калифорнии, объяснимо переживают за свои бюджеты и стараются лоббировать уменьшение регуляторного бремени.
Что же предлагают в OpenAI?
Освобождать разработчиков передовых моделей ИИ от необходимости исполнять будущие законодательные требования в тех случаях, если:
- они уже соответствуют передовым фреймворкам демократических стран. Тут OpenAI ссылается на наш любимый Европейский Кодекс практик для моделей ИИ общего назначения (GPAI Code of Practice). Кстати, OpenAI, как и ряд других разработчиков, уже подписались его исполнять. Мы его с вами многократно разбирали. Если пропустили, то ознакомиться можно тут;
или
- в отношении их моделей уже были проведены оценки угроз национальной безопасности Центром по стандартизации в сфере ИИ (CAISI) при NIST в рамках соглашения о добровольном сотрудничестве. О том, что такие оценки надо проводить, писал во вчерашнем посте про AI Action Plan.
Хорошо это или плохо?
Если требования Калифорнии будут сосредоточены только вокруг AI Safety, то второе положение выглядит оправданно, так как это позволит избежать дублирования схожих процедур на федеральном уровне и уровне штатов. Тут скорее стоит говорить о координации действий разных органов власти.
Что касается первого пункта, то ситуация несколько более спорная: Кодекс шире, чем сфера AI Safety per se. Поэтому тут крайне проблематично поставить знак равенства между двумя разными процедурами. Таким образом, про “зачет автоматом” мы можем говорить только применительно к AI Safety. Остальные же сферы все равно потребуется законодательно регулировать.
Что еще хочется сказать? Если вы сами не хотите проактивно разрабатывать правовые нормы и регуляторные механизмы, то познакомьтесь с Брюссельским эффектом🤩 .
Обычно я редко обращаю внимание на различные письма, высказывания и иные инфоповоды, которые не связаны с какой-то практической ценностью, однако тут я решил сделать исключение, так как позиция OpenAI, изложенная в письме к губернатору штата Калифорния, довольно примечательна.
Калифорния является одним из лидеров среди штатов по ИИ-регулированию, которое концептуально уже далеко ушло от федерального. Достаточно плотно штат раздумывает и о регулировании в сфере разработки и применения передовых моделей ИИ и систем ИИ повышенного риска. Недавно я разбирал в посте отчет рабочей группы. Так вот, ИИ-разработчики, многие из которых базируются в Калифорнии, объяснимо переживают за свои бюджеты и стараются лоббировать уменьшение регуляторного бремени.
Что же предлагают в OpenAI?
Освобождать разработчиков передовых моделей ИИ от необходимости исполнять будущие законодательные требования в тех случаях, если:
- они уже соответствуют передовым фреймворкам демократических стран. Тут OpenAI ссылается на наш любимый Европейский Кодекс практик для моделей ИИ общего назначения (GPAI Code of Practice). Кстати, OpenAI, как и ряд других разработчиков, уже подписались его исполнять. Мы его с вами многократно разбирали. Если пропустили, то ознакомиться можно тут;
или
- в отношении их моделей уже были проведены оценки угроз национальной безопасности Центром по стандартизации в сфере ИИ (CAISI) при NIST в рамках соглашения о добровольном сотрудничестве. О том, что такие оценки надо проводить, писал во вчерашнем посте про AI Action Plan.
Хорошо это или плохо?
Если требования Калифорнии будут сосредоточены только вокруг AI Safety, то второе положение выглядит оправданно, так как это позволит избежать дублирования схожих процедур на федеральном уровне и уровне штатов. Тут скорее стоит говорить о координации действий разных органов власти.
Что касается первого пункта, то ситуация несколько более спорная: Кодекс шире, чем сфера AI Safety per se. Поэтому тут крайне проблематично поставить знак равенства между двумя разными процедурами. Таким образом, про “зачет автоматом” мы можем говорить только применительно к AI Safety. Остальные же сферы все равно потребуется законодательно регулировать.
Что еще хочется сказать? Если вы сами не хотите проактивно разрабатывать правовые нормы и регуляторные механизмы, то познакомьтесь с Брюссельским эффектом
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
OpenAI’s letter to Governor Newsom on harmonized regulation
We’ve just sent a letter to Gov. Gavin Newsom calling for California to lead the way in harmonizing state-based AI regulation with national—and, by virtue of US leadership, emerging global—standards.
❤3👍1 1