Планы Китая и США по ИИ: один - про безопасность, другой - про скорость
На днях США (America’s AI Action Plan) и Китай (Action Plan for Global Governance of AI) представили свои планы, задающие вектор глобального регулирования ИИ. Мы видим, что философия, приоритеты и амбиции у двух стран совершенно разные.
Сначала общие черты:
🔹 США и Китай признают ИИ ключевой технологией 21 века. Обе страны делают ставку на активное внедрение ИИ во все сферы — от промышленности до госуслуг.
🔹Обе стратегии подчеркивают важность масштабных инвестиций в дата-центры, вычислительные мощности, устойчивые энергосистемы и доступ к качественным данным.
🔹Обе страны делают ставку на развитие ИИ-компетенций у граждан и формирование нового поколения специалистов, способных создавать и использовать ИИ этично и эффективно.
👀 А теперь их контрастное виденье на регулирование ИИ.
Как неудивительно, Китай продвигает создание глобальной системы управления ИИ, основанной на участии всех сторон (государств, бизнеса, ученых) и системе глобальных стандартов совместно с ISO, IEC, ITU.
США же говорят о национальном лидерстве, защите демократии, экономике и ценностях, а международное сотрудничество в первую очередь с "единомышленниками".
Смотрим детальнее на план Китая:
🔹 Полноценная система управления рисками ИИ (уровни угроз, протоколы реагирования,механизмы экстренного реагирования), международные соглашения.Подход "сначала безопасность", т.е. риски должны выявляться заранее, а не по факту.
🔹 Делает акцент на прозрачность, интерпретируемость моделей, отслеживаемость ИИ-систем, защиту персональных данных. Баланс инноваций, этики и предотвращения дискриминации.
🔹 Идея глобальной платформы по безопасности ИИ под эгидой ООН, создание совместных центров компетенций.
🔹 Инфраструктура для всего мира: центры обработки данных, стандарты вычислений, дешёвые мощности (особенно для развивающихся стран), open-source модели, доступ к качественным данным.
План США:
🔹Устранение "бюрократических проволочек и обременительных правил" для ускорения инноваций и внедрения ИИ, возглавляемых частным сектором. Делают ставку на федеральные институты безопасности (например, AI Safety Institute). Акцент на оценке рисков высокоуровневых моделей, защите от злоупотреблений, национальной безопасности. Риски регулируются точечно, т.е. там, где есть реальная угроза для страны.
🔹Локальная производственная база (например, полупроводники). Поддержка open-source решений с оговорками в вопросах безопасности и конкурентоспособности. Экспорт решений союзникам и партнерам.
🔹Защита частной жизни, свободы слова, защита труда, в основе собственный "AI Bill of Rights"
🔹Правительство планирует демонстрировать "образцовое внедрение" ИИ в каждом ведомстве, госзакупки, открытые API.
🔹Внутреннее развитие кадров (переобучение, STEM-образование, поддержка пострадавших от автоматизации отраслей).
Что это значит?
Китай предлагает структурированный, государственно-ведомый путь, где всё чётко, шаг за шагом и под контролем.
США делают ставку на скорость, конкуренцию и технологическое лидерство, иногда в ущерб долгосрочной устойчивости.
Если вы создаете международный ИИ-продукт, то вам придётся лавировать между этими двумя экосистемами. А возможно, даже адаптироваться под обе.
#LawAndDisorder
————
@pattern_ai
На днях США (America’s AI Action Plan) и Китай (Action Plan for Global Governance of AI) представили свои планы, задающие вектор глобального регулирования ИИ. Мы видим, что философия, приоритеты и амбиции у двух стран совершенно разные.
Сначала общие черты:
🔹 США и Китай признают ИИ ключевой технологией 21 века. Обе страны делают ставку на активное внедрение ИИ во все сферы — от промышленности до госуслуг.
🔹Обе стратегии подчеркивают важность масштабных инвестиций в дата-центры, вычислительные мощности, устойчивые энергосистемы и доступ к качественным данным.
🔹Обе страны делают ставку на развитие ИИ-компетенций у граждан и формирование нового поколения специалистов, способных создавать и использовать ИИ этично и эффективно.
Как неудивительно, Китай продвигает создание глобальной системы управления ИИ, основанной на участии всех сторон (государств, бизнеса, ученых) и системе глобальных стандартов совместно с ISO, IEC, ITU.
США же говорят о национальном лидерстве, защите демократии, экономике и ценностях, а международное сотрудничество в первую очередь с "единомышленниками".
Смотрим детальнее на план Китая:
🔹 Полноценная система управления рисками ИИ (уровни угроз, протоколы реагирования,механизмы экстренного реагирования), международные соглашения.Подход "сначала безопасность", т.е. риски должны выявляться заранее, а не по факту.
🔹 Делает акцент на прозрачность, интерпретируемость моделей, отслеживаемость ИИ-систем, защиту персональных данных. Баланс инноваций, этики и предотвращения дискриминации.
🔹 Идея глобальной платформы по безопасности ИИ под эгидой ООН, создание совместных центров компетенций.
🔹 Инфраструктура для всего мира: центры обработки данных, стандарты вычислений, дешёвые мощности (особенно для развивающихся стран), open-source модели, доступ к качественным данным.
План США:
🔹Устранение "бюрократических проволочек и обременительных правил" для ускорения инноваций и внедрения ИИ, возглавляемых частным сектором. Делают ставку на федеральные институты безопасности (например, AI Safety Institute). Акцент на оценке рисков высокоуровневых моделей, защите от злоупотреблений, национальной безопасности. Риски регулируются точечно, т.е. там, где есть реальная угроза для страны.
🔹Локальная производственная база (например, полупроводники). Поддержка open-source решений с оговорками в вопросах безопасности и конкурентоспособности. Экспорт решений союзникам и партнерам.
🔹Защита частной жизни, свободы слова, защита труда, в основе собственный "AI Bill of Rights"
🔹Правительство планирует демонстрировать "образцовое внедрение" ИИ в каждом ведомстве, госзакупки, открытые API.
🔹Внутреннее развитие кадров (переобучение, STEM-образование, поддержка пострадавших от автоматизации отраслей).
Что это значит?
Китай предлагает структурированный, государственно-ведомый путь, где всё чётко, шаг за шагом и под контролем.
США делают ставку на скорость, конкуренцию и технологическое лидерство, иногда в ущерб долгосрочной устойчивости.
Если вы создаете международный ИИ-продукт, то вам придётся лавировать между этими двумя экосистемами. А возможно, даже адаптироваться под обе.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👏1
Таксономия рисков ИИ от MIT и как использовать их методологию в своей работе
Исследователи из MIT собрали 831 меру снижения рисков, связанных с ИИ из 13 фреймворков и разложили их по таксономии в гайде Mapping AI Risk Mitigations. Но это не вся польза от гайда, в нем подробно расписана методология создания, которую можно адаптировать для своих целей.
🔹 MIT использовали Claude 4 Sonnet, Opus и ChatGPT o3 для извлечения мер из документов, классификации по заранее заданной структуре, стандартизации описаний, проверки “edge cases”. При анализе выяснили, что некоторые важные меры почти не встречаются в документах (например, Model Alignment — <1%).
Такой же подход подойдёт, если вы строите внутреннюю базу знаний, документацию по управлению рисками или разрабатываете compliance-процессы. НО автоматизация = быстро, поэтому важна обязательная ручная проверка, т.к. LLM путаются, объединяют несколько мер в одну или "придумывают" несуществующее.
🔹У них получилось 4 категории + 23 подкласса:
- Governance (например, защита информаторов, конфликт интересов);
- Security (модельная безопасность, RLHF, watermarking);
- Operations (тестирование, staged deployment, monitoring);
- Transparency (логирование, раскрытие рисков, права пользователя).
Главный вывод, смотря на таблицу, что ИИ развивается быстрее, чем успевают адаптироваться фреймворки и таксономия, например, тестирование входит сразу в несколько направлений. Жёсткая таксономия малоэффективна.
Поэтому не бойтесь, если внутренняя классификация будет неидеальна, лучше “живой список мер” под необходимый стек, чем академическая схема.
Описания мер и примеры подойдут для составления своей базы мер, чек-листов, планов аудита и т.п.
Интерактивная версия базы и карта
🔹Собран список из 13 ключевых фреймворков (NIST AI RM, EU AI Act, FLI Index, Unified Control Framework и т.д.).
Можно использовать как справочник, чтобы определиться с необходимым фреймворком, составить свою политику управления рисками ИИ.
🔹Приведен пример короткого промпта:
Варианты адаптации:
taxonomy = структура (даже простая табличка);
mitigation = описание инцидентов, мер, требований или задач из Jira, Notion или CSV.
MIT проделали большую работу, используйте в своих процессах.
#TalkPrompty #BehindTheMachine
————
@pattern_ai
Исследователи из MIT собрали 831 меру снижения рисков, связанных с ИИ из 13 фреймворков и разложили их по таксономии в гайде Mapping AI Risk Mitigations. Но это не вся польза от гайда, в нем подробно расписана методология создания, которую можно адаптировать для своих целей.
🔹 MIT использовали Claude 4 Sonnet, Opus и ChatGPT o3 для извлечения мер из документов, классификации по заранее заданной структуре, стандартизации описаний, проверки “edge cases”. При анализе выяснили, что некоторые важные меры почти не встречаются в документах (например, Model Alignment — <1%).
Такой же подход подойдёт, если вы строите внутреннюю базу знаний, документацию по управлению рисками или разрабатываете compliance-процессы. НО автоматизация = быстро, поэтому важна обязательная ручная проверка, т.к. LLM путаются, объединяют несколько мер в одну или "придумывают" несуществующее.
🔹У них получилось 4 категории + 23 подкласса:
- Governance (например, защита информаторов, конфликт интересов);
- Security (модельная безопасность, RLHF, watermarking);
- Operations (тестирование, staged deployment, monitoring);
- Transparency (логирование, раскрытие рисков, права пользователя).
Главный вывод, смотря на таблицу, что ИИ развивается быстрее, чем успевают адаптироваться фреймворки и таксономия, например, тестирование входит сразу в несколько направлений. Жёсткая таксономия малоэффективна.
Поэтому не бойтесь, если внутренняя классификация будет неидеальна, лучше “живой список мер” под необходимый стек, чем академическая схема.
Описания мер и примеры подойдут для составления своей базы мер, чек-листов, планов аудита и т.п.
Интерактивная версия базы и карта
🔹Собран список из 13 ключевых фреймворков (NIST AI RM, EU AI Act, FLI Index, Unified Control Framework и т.д.).
Можно использовать как справочник, чтобы определиться с необходимым фреймворком, составить свою политику управления рисками ИИ.
🔹Приведен пример короткого промпта:
I am working with the following taxonomy of AI risk controls {draft taxonomy in XML format}. For each mitigation {mitigation name and description}, assign the best-fit category with a confidence score and
justification. If no category fits, say so. List secondary categories if applicable.
Варианты адаптации:
taxonomy = структура (даже простая табличка);
mitigation = описание инцидентов, мер, требований или задач из Jira, Notion или CSV.
MIT проделали большую работу, используйте в своих процессах.
#TalkPrompty #BehindTheMachine
————
@pattern_ai
Шаблоны AI-политик, которые можно забрать в работу
🔹 AI Usage Policy Template | TrustCloud, ориентирована на стартапы и SaaS, что можно / нельзя, как обеспечивается прозрачность;
🔹 AI Policy Template | NFPS.AI, цели, роли, процессы, оценка рисков, подходит для НКО и социальных проектов;
🔹 Artificial Intelligence Acceptable Use Standard | SANS, безопасное использование, недопустимые сценарии, контроль доступа, часто используется как основной стандарт;
🔹 Safeguard Validation Management Policy | SANS, процедуры проверки защитных механизмов, для compliance и security-команд;
🔹 AI tool usage policy | Workable, ориентирована на HR и рекрутмент, описывает использование AI-инструментов для найма;
🔹 AI Policy Template | RAI Institute, комплексный шаблон, согласованный с NIST AI RMF и ISO 42001, подходит для организаций, которые выстраивают полный цикл AI Governance.
🔹Generative AI Use Policy | Data.org, ориентирована на гуманитарные и образовательные проекты, с фокусом на GenAI.
📌 При разработке AI-политики важно не просто адаптировать шаблон, а встроить его в реальные процессы вашей команды. Вовлекайте специалистов при создании и обновлении политики (безопасников, юристов, dpo). Обязательно учтите следующие элементы:
▪️human-in-the-loop (определите, в каких задачах и когда участие человека обязательно);
▪️запрещённые сценарии (чётко зафиксируйте, что недопустимо (н-р, генерация контента без раскрытия, принятие решений без верификации и т.п.));
▪️реагирование на инциденты и аудит (пропишите, как фиксируются инциденты, кто проводит проверку и как принимаются корректирующие меры);
▪️актуализация (пересматривайте политику не реже чем раз в 6–12 месяцев, особенно при появлении новых инструментов или регуляторных требований);
▪️обучение команды ( не просто внедрите политику, а обучите сотрудников тому, как она работает и зачем она нужна).
Главное, чтобы AI-политика "работала" на вас, а не просто лежала очередным документом в папке.
#AIShelf
————
@pattern_ai
🔹 AI Usage Policy Template | TrustCloud, ориентирована на стартапы и SaaS, что можно / нельзя, как обеспечивается прозрачность;
🔹 AI Policy Template | NFPS.AI, цели, роли, процессы, оценка рисков, подходит для НКО и социальных проектов;
🔹 Artificial Intelligence Acceptable Use Standard | SANS, безопасное использование, недопустимые сценарии, контроль доступа, часто используется как основной стандарт;
🔹 Safeguard Validation Management Policy | SANS, процедуры проверки защитных механизмов, для compliance и security-команд;
🔹 AI tool usage policy | Workable, ориентирована на HR и рекрутмент, описывает использование AI-инструментов для найма;
🔹 AI Policy Template | RAI Institute, комплексный шаблон, согласованный с NIST AI RMF и ISO 42001, подходит для организаций, которые выстраивают полный цикл AI Governance.
🔹Generative AI Use Policy | Data.org, ориентирована на гуманитарные и образовательные проекты, с фокусом на GenAI.
▪️human-in-the-loop (определите, в каких задачах и когда участие человека обязательно);
▪️запрещённые сценарии (чётко зафиксируйте, что недопустимо (н-р, генерация контента без раскрытия, принятие решений без верификации и т.п.));
▪️реагирование на инциденты и аудит (пропишите, как фиксируются инциденты, кто проводит проверку и как принимаются корректирующие меры);
▪️актуализация (пересматривайте политику не реже чем раз в 6–12 месяцев, особенно при появлении новых инструментов или регуляторных требований);
▪️обучение команды ( не просто внедрите политику, а обучите сотрудников тому, как она работает и зачем она нужна).
Главное, чтобы AI-политика "работала" на вас, а не просто лежала очередным документом в папке.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
"Красота по алгоритму" или как кейс Vogue запустил новую волну дебатов в индустрии моды
В пятницу хочется поговорить о моде, тем более, что Vogue представил первую AI-модель в рекламе.
В свежем номере журнал показал «идеальную» модель, которая оказалась вовсе не человеком, а творением нейросети. Об этом упомянули мелким шрифтом, и читатели заметили. Потребители обвинили как Vogue, так и Guess в продвижении «недостижимых стандартов красоты» и выразили разочарование, называя подход «бездушным» и «дешёвым», что привело к массовым отменам подписок. Этот инцидент акцентирует внимание на необходимости прозрачности и ответственного использования AI в маркетинговых коммуникациях.
👀 Индустрия моды старается интегрировать ИИ и использует разные стратегии.
▪️H&M оцифровала 30 реальных моделей (например, Mathilda Gvarliani), создала их «digital twins» и использует их в маркетинге. Модели сохраняют права на свои копии и могут продавать использование другим брендам. H&M признаётся, что реакция будет разной, но это способ вовлечь модели и отнестись честно к индустрии.
▪️Соц.сети заполонены цифровыми моделями. Например, Shudu Gram (одна из первых цифровых моделей и виртуальных инфлюенсеров).Ее создателя критиковали за культурную апроприацию.
Анализ этих кейсов выявляет несколько ключевых выводов относительно пользовательского опыта и проектирования UX-дизайна:
🔹AI‑генерация быстрее, дешевле и масштабируемее, но часто теряется эмоциональная связь, индивидуальность и культурная значимость визуала;
🔹Цифровые модели требуют грамотной модели владения, монетизации, контроля;
🔹AI склонен к клише и узким стандартам, может усилить культурные стереотипы или исключения;
🔹Мелкая ссылка «AI‑generated» показала неуважение к пользователям, они чувствуют обман.
Перед индустрией моды встала стратегическая дилемма: с одной стороны, ИИ предлагает беспрецедентные возможности для масштабирования, скорости и персонализации контента и процессов. С другой стороны, его стремительное внедрение порождает серьёзные этические, правовые и социальные дилеммы, в том числе фундаментальный вопрос о подлинности визуального контента.
Теперь выбор стоит между приоритетом операционной эффективности за счёт ИИ и сохранением акцента на человечности, инклюзивности и уникальности, которые исторически были движущей силой моды.
#UXWatch
————
@pattern_ai
В пятницу хочется поговорить о моде, тем более, что Vogue представил первую AI-модель в рекламе.
В свежем номере журнал показал «идеальную» модель, которая оказалась вовсе не человеком, а творением нейросети. Об этом упомянули мелким шрифтом, и читатели заметили. Потребители обвинили как Vogue, так и Guess в продвижении «недостижимых стандартов красоты» и выразили разочарование, называя подход «бездушным» и «дешёвым», что привело к массовым отменам подписок. Этот инцидент акцентирует внимание на необходимости прозрачности и ответственного использования AI в маркетинговых коммуникациях.
▪️H&M оцифровала 30 реальных моделей (например, Mathilda Gvarliani), создала их «digital twins» и использует их в маркетинге. Модели сохраняют права на свои копии и могут продавать использование другим брендам. H&M признаётся, что реакция будет разной, но это способ вовлечь модели и отнестись честно к индустрии.
▪️Соц.сети заполонены цифровыми моделями. Например, Shudu Gram (одна из первых цифровых моделей и виртуальных инфлюенсеров).Ее создателя критиковали за культурную апроприацию.
Анализ этих кейсов выявляет несколько ключевых выводов относительно пользовательского опыта и проектирования UX-дизайна:
🔹AI‑генерация быстрее, дешевле и масштабируемее, но часто теряется эмоциональная связь, индивидуальность и культурная значимость визуала;
🔹Цифровые модели требуют грамотной модели владения, монетизации, контроля;
🔹AI склонен к клише и узким стандартам, может усилить культурные стереотипы или исключения;
🔹Мелкая ссылка «AI‑generated» показала неуважение к пользователям, они чувствуют обман.
Перед индустрией моды встала стратегическая дилемма: с одной стороны, ИИ предлагает беспрецедентные возможности для масштабирования, скорости и персонализации контента и процессов. С другой стороны, его стремительное внедрение порождает серьёзные этические, правовые и социальные дилеммы, в том числе фундаментальный вопрос о подлинности визуального контента.
Теперь выбор стоит между приоритетом операционной эффективности за счёт ИИ и сохранением акцента на человечности, инклюзивности и уникальности, которые исторически были движущей силой моды.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👏1