Добро пожаловать в канал «Настоящий ИИ»!
⚡️⚡️⚡️Этот канал — не просто лента новостей об искусственном интеллекте. Это пространство для тех, кто понимает, что настоящий технологический прорыв требует не только гениальных алгоритмов, но и гениальных правил.
Мы хотим, чтобы ИИ будущего можно было описать так: этичный, безопасный и служащий человечеству. А этого невозможно достичь без продуманного регулирования, основанного на глубоком понимании технологии и ее влияния на общество.
❓❓❓О чем будем говорить?
📕 Регуляторика в отношении ИИ в ключевых юрисдикциях.
⚖️ Судебная практика и прецеденты, формирующие правовое поле.
📚 Исследования ведущих центров о возможностях ИИ и связанных с ним рисках.
⁉️ Этические дилеммы.
📈 Значимые тренды, которые определяют будущее технологий.
💡💡💡Наша миссия
Стать связующим звеном между сложным языком законов и практикой, делая мир регулирования ИИ понятным и доступным.
✍️✍️✍️ Подписывайтесь и оставайтесь на связи. Первые материалы — уже скоро! 📬📬📬
👇👇👇
@actualAI
⚡️⚡️⚡️Этот канал — не просто лента новостей об искусственном интеллекте. Это пространство для тех, кто понимает, что настоящий технологический прорыв требует не только гениальных алгоритмов, но и гениальных правил.
Мы хотим, чтобы ИИ будущего можно было описать так: этичный, безопасный и служащий человечеству. А этого невозможно достичь без продуманного регулирования, основанного на глубоком понимании технологии и ее влияния на общество.
❓❓❓О чем будем говорить?
📕 Регуляторика в отношении ИИ в ключевых юрисдикциях.
⚖️ Судебная практика и прецеденты, формирующие правовое поле.
📚 Исследования ведущих центров о возможностях ИИ и связанных с ним рисках.
⁉️ Этические дилеммы.
📈 Значимые тренды, которые определяют будущее технологий.
💡💡💡Наша миссия
Стать связующим звеном между сложным языком законов и практикой, делая мир регулирования ИИ понятным и доступным.
✍️✍️✍️ Подписывайтесь и оставайтесь на связи. Первые материалы — уже скоро! 📬📬📬
👇👇👇
@actualAI
Telegram
Настоящий ИИ
Канал Аналитического центра «Форум». Новости регуляторики в юрисдикциях, которые занимают ведущие позиции в ключевых рейтингах, связанных с развитием ИИ.
[email protected]
[email protected]
❤7
Искусственный интеллект всё активнее используется в финансах — от одобрения кредитов до управления активами. Кто будет отвечать за решения ИИ: безликий алгоритм, компания или сотрудник?
Исследование Аналитического Центра «Форум» «Искусственный интеллект на финансовом рынке: механизмы ответственности. Международные подходы» как раз разбирает этот клубок правовых вопросов.
Три подхода к регулированию ИИ в мире:
👉 Консервативный (ЕС, Бразилия) — жёсткие правила, обязательные к исполнению.
👉 Гибкий (США, Китай, Канада) — баланс между контролем и свободой для инноваций.
👉 Стимулирующий (Великобритания, Сингапур) — мягкие руководства и принципы, чтобы не мешать развитию.
Пока правила в основном «мягкие». Большинство ИИ-актов — это не законы, а кодексы этики, руководства и принципы (т.н. soft law). Но их всё чаще учитывают в судах, и они могут стать основанием для ответственности.
Кого и как могут наказать в финансовой сфере?
👉 Компанию — кошельком (гражданская ответственность), штрафами (административная) и в крайних случаях уголовным преследованием.
👉 Сотрудников — ко всем вышеперечисленным видам добавляется дисциплинарная ответственность (выговор, увольнение).
👉 Ответственность может быть солидарной — то есть вину могут разделить и компания, и её топ-менеджмент, и поставщик технологии, в зависимости от договоров и обстоятельств.
💡💡💡Вот основные выводы исследования:
📌 ИИ — это инструмент, а не субъект права. Во всём мире (ЕС, США, Сингапур и др.) к ответственности привлекают только людей и компании, которые создали, внедрили или используют ИИ. Сам по себе искусственный интеллект с точки зрения закона — просто «вещь» или сложный калькулятор. Идеи о том, чтобы наделить ИИ правами и обязанностями, пока остаются теорией.
📌 Основание для ответственности — уже существующие нормы. Чтобы привлечь к ответственности за вред от ИИ, не нужно изобретать новое право. Работают те же законы, что и для «обычных» финансовых услуг. Но к ним добавляются специальные ИИ-акты — новые правила игры для разработчиков и пользователей технологий.
📚📚📚Полностью исследование – по ссылке: https://acforum.ru/upload/medialibrary/globalcontext/AI_finmarket_ACForum_sept2025.pdf
Исследование Аналитического Центра «Форум» «Искусственный интеллект на финансовом рынке: механизмы ответственности. Международные подходы» как раз разбирает этот клубок правовых вопросов.
Три подхода к регулированию ИИ в мире:
👉 Консервативный (ЕС, Бразилия) — жёсткие правила, обязательные к исполнению.
👉 Гибкий (США, Китай, Канада) — баланс между контролем и свободой для инноваций.
👉 Стимулирующий (Великобритания, Сингапур) — мягкие руководства и принципы, чтобы не мешать развитию.
Пока правила в основном «мягкие». Большинство ИИ-актов — это не законы, а кодексы этики, руководства и принципы (т.н. soft law). Но их всё чаще учитывают в судах, и они могут стать основанием для ответственности.
Кого и как могут наказать в финансовой сфере?
👉 Компанию — кошельком (гражданская ответственность), штрафами (административная) и в крайних случаях уголовным преследованием.
👉 Сотрудников — ко всем вышеперечисленным видам добавляется дисциплинарная ответственность (выговор, увольнение).
👉 Ответственность может быть солидарной — то есть вину могут разделить и компания, и её топ-менеджмент, и поставщик технологии, в зависимости от договоров и обстоятельств.
💡💡💡Вот основные выводы исследования:
📌 ИИ — это инструмент, а не субъект права. Во всём мире (ЕС, США, Сингапур и др.) к ответственности привлекают только людей и компании, которые создали, внедрили или используют ИИ. Сам по себе искусственный интеллект с точки зрения закона — просто «вещь» или сложный калькулятор. Идеи о том, чтобы наделить ИИ правами и обязанностями, пока остаются теорией.
📌 Основание для ответственности — уже существующие нормы. Чтобы привлечь к ответственности за вред от ИИ, не нужно изобретать новое право. Работают те же законы, что и для «обычных» финансовых услуг. Но к ним добавляются специальные ИИ-акты — новые правила игры для разработчиков и пользователей технологий.
📚📚📚Полностью исследование – по ссылке: https://acforum.ru/upload/medialibrary/globalcontext/AI_finmarket_ACForum_sept2025.pdf
👍5🔥2
⁉️⁉️⁉️Нужно ли специальное регулирование вопросов, связанных с ИИ, и можно ли в принципе регулировать то, чья работа с трудом поддается человеческому пониманию? Почему так трудно бороться с дипфейками, и как ИИ формирует новую гуманитарную систему?
Представители Центробанка, Яндекса, МТС, Сбербанка, ВЭБ.РФ, РГГУ обсудили эти вопросы в ходе дискуссии «Искусственный интеллект: вопросы ответственности», которую провел АЦ «Форум» на площадке ВЭБ.РФ.
💡💡💡Выводы, к которым пришли участники дискуссии
📌 Не надо спешить с написанием новых норм. Пытаться с помощью дополнительных законов регулировать последствия работы ИИ – это как пытаться регулировать математику или физику. Уголовный кодекс – не лучшее место для определения ИИ.
📌 Не надо бороться с ветряными мельницами, лучше исходить из существующей реальности, а риски будущего отслеживать и обсуждать открыто, полагаясь, в том числе, на саморегулирование.
📌 Любые запреты в области ИИ, если вдруг решить их вводить, будут для всех, кроме мошенников. Как пример – дипфейки, инвестиции в которые превышают в десятки раз вложения в борьбу с ними. Маркировать надо контент, созданный не ИИ, а человеком. Его становится все меньше.
📌 Неудачное регулирование будет иметь печальные последствия для различных отраслей экономики, не говоря уже про развитие ИИ. Пример тому – Евросоюз, в котором хорошие законы про ИИ, но нет самого ИИ.
📌 Соблазн сделать ответственным ИИ за причиненный вред в ходе его использования - в природе человека, который готов прощать себя, но не других. Генерирует нейросеть, а ответственность все равно – на людях.
Представители Центробанка, Яндекса, МТС, Сбербанка, ВЭБ.РФ, РГГУ обсудили эти вопросы в ходе дискуссии «Искусственный интеллект: вопросы ответственности», которую провел АЦ «Форум» на площадке ВЭБ.РФ.
💡💡💡Выводы, к которым пришли участники дискуссии
📌 Не надо спешить с написанием новых норм. Пытаться с помощью дополнительных законов регулировать последствия работы ИИ – это как пытаться регулировать математику или физику. Уголовный кодекс – не лучшее место для определения ИИ.
📌 Не надо бороться с ветряными мельницами, лучше исходить из существующей реальности, а риски будущего отслеживать и обсуждать открыто, полагаясь, в том числе, на саморегулирование.
📌 Любые запреты в области ИИ, если вдруг решить их вводить, будут для всех, кроме мошенников. Как пример – дипфейки, инвестиции в которые превышают в десятки раз вложения в борьбу с ними. Маркировать надо контент, созданный не ИИ, а человеком. Его становится все меньше.
📌 Неудачное регулирование будет иметь печальные последствия для различных отраслей экономики, не говоря уже про развитие ИИ. Пример тому – Евросоюз, в котором хорошие законы про ИИ, но нет самого ИИ.
📌 Соблазн сделать ответственным ИИ за причиненный вред в ходе его использования - в природе человека, который готов прощать себя, но не других. Генерирует нейросеть, а ответственность все равно – на людях.
👍5❤1🔥1
Forwarded from Горлабы ВЭБа
интеллект: вопросы ответственности"
Модератор:
Тезисы дискуссии:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍2
⚖️⚖️⚖️ Судебные системы все чаще сталкиваются с рисками, связанными с безответственным использованием ИИ в юридической практике. На фоне растущего числа случаев, когда в судебных документах обнаруживались ссылки на несуществующие правовые нормы или вымышленные судебные прецеденты, суды переходят от предупреждений к санкциям.
Ярким примером стала практика израильских судов. Верховный суд Израиля в конце 2025 года обязал истца по делу, связанному с арендой,выплатить 5 тыс. шекелей в государственную казну за ссылку на несуществующие нормы права после использования ИИ без верификации результатов. Это решение не было единичным: в течение 2025 года суды первой инстанции, включая трудовые и магистратские, налагали на юристов финансовые санкции в размере от 1 тыс. до 8 тыс. шекелей.
В Великобритании Высокий суд столкнулся с аналогичными случаями, где сгенерированные ИИ аргументы содержали фиктивные ссылки, что привело к штрафам для адвокатов. А в США даже была создана база данных в рамках проекта GW EthicalTech Initiative и Центра права и технологий GW, которая содержит информацию о текущих и завершенных судебных разбирательствах, связанных с искусственным интеллектом, в том числе с машинным обучением. Она рассчитана на широкий охват: от алгоритмов, используемых при приеме на работу, выдаче кредитов и вынесении уголовных приговоров, до ответственности за аварии с участием автономных транспортных средств.
В ответ на эти вызовы судебные системы начали разрабатывать нормативные и методические рамки. В декабре 2025 года в Великобритании было опубликовано обновленное руководство для судей по использованию ИИ, подробно разбирающее риски предвзятости и «галлюцинаций».
В США National Center for State Courts опубликовал оценку готовности американских судов к внедрению ИИ.
Это целый набор практических ресурсов, которые помогут судам понять, как ответственно подходить к использованию искусственного интеллекта, в том числе, выявлять риски, а также планировать ответственное внедрение. Есть в США и специальная учебная программа для судейского сообщества по повышению грамотности в области ИИ. ЮНЕСКО также представила глобальное руководство по этичному применению ИИ в судах, включая необходимость человеческого контроля, безопасностиданных и прозрачности использования ИИ в судах.
Выводы, к которым приходят различные судебные системы, примерно одинаковы. ИИ — это мощный вспомогательный инструмент, но он не отменяет фундаментальной профессиональной обязанности юриста проверять каждую цитату, прецедент и норму права. Будущее правосудия в эпоху ИИ лежит не столько в автоматизации, а в разумной интеграции технологий при безусловном сохранении человеческой экспертизы и ответственности.
📖📖📖 Подробнее
🌐 https://law.co.il
🌐 https://www.judiciary.uk/guidance-and-resources/artificial-intelligence-ai-judicial-guidance-october-2025/
🌐 https://www.judiciary.uk/wp-content/uploads/2025/10/Artificial-Intelligence-AI-Guidance-for-Judicial-Office-Holders-2.pdf
🌐 https://www.sji.gov/supporting-courts-ai-readiness-and-other-resources/
🌐 https://www.sji.gov/ai-literacy-curriculum-assists-judges-court-personnel-in-implementing-ai-responsibly/
🌐 https://blogs.gwu.edu/law-eti/ai-litigation-database/
🌐 https://www.iamaeg.net/files/F55F6810-DACE-4200-9A9F-1AB2EAAA1235.pdf
Ярким примером стала практика израильских судов. Верховный суд Израиля в конце 2025 года обязал истца по делу, связанному с арендой,выплатить 5 тыс. шекелей в государственную казну за ссылку на несуществующие нормы права после использования ИИ без верификации результатов. Это решение не было единичным: в течение 2025 года суды первой инстанции, включая трудовые и магистратские, налагали на юристов финансовые санкции в размере от 1 тыс. до 8 тыс. шекелей.
В Великобритании Высокий суд столкнулся с аналогичными случаями, где сгенерированные ИИ аргументы содержали фиктивные ссылки, что привело к штрафам для адвокатов. А в США даже была создана база данных в рамках проекта GW EthicalTech Initiative и Центра права и технологий GW, которая содержит информацию о текущих и завершенных судебных разбирательствах, связанных с искусственным интеллектом, в том числе с машинным обучением. Она рассчитана на широкий охват: от алгоритмов, используемых при приеме на работу, выдаче кредитов и вынесении уголовных приговоров, до ответственности за аварии с участием автономных транспортных средств.
В ответ на эти вызовы судебные системы начали разрабатывать нормативные и методические рамки. В декабре 2025 года в Великобритании было опубликовано обновленное руководство для судей по использованию ИИ, подробно разбирающее риски предвзятости и «галлюцинаций».
В США National Center for State Courts опубликовал оценку готовности американских судов к внедрению ИИ.
Это целый набор практических ресурсов, которые помогут судам понять, как ответственно подходить к использованию искусственного интеллекта, в том числе, выявлять риски, а также планировать ответственное внедрение. Есть в США и специальная учебная программа для судейского сообщества по повышению грамотности в области ИИ. ЮНЕСКО также представила глобальное руководство по этичному применению ИИ в судах, включая необходимость человеческого контроля, безопасностиданных и прозрачности использования ИИ в судах.
Выводы, к которым приходят различные судебные системы, примерно одинаковы. ИИ — это мощный вспомогательный инструмент, но он не отменяет фундаментальной профессиональной обязанности юриста проверять каждую цитату, прецедент и норму права. Будущее правосудия в эпоху ИИ лежит не столько в автоматизации, а в разумной интеграции технологий при безусловном сохранении человеческой экспертизы и ответственности.
📖📖📖 Подробнее
🌐 https://law.co.il
🌐 https://www.judiciary.uk/guidance-and-resources/artificial-intelligence-ai-judicial-guidance-october-2025/
🌐 https://www.judiciary.uk/wp-content/uploads/2025/10/Artificial-Intelligence-AI-Guidance-for-Judicial-Office-Holders-2.pdf
🌐 https://www.sji.gov/supporting-courts-ai-readiness-and-other-resources/
🌐 https://www.sji.gov/ai-literacy-curriculum-assists-judges-court-personnel-in-implementing-ai-responsibly/
🌐 https://blogs.gwu.edu/law-eti/ai-litigation-database/
🌐 https://www.iamaeg.net/files/F55F6810-DACE-4200-9A9F-1AB2EAAA1235.pdf
Courts and Tribunals Judiciary
Artificial Intelligence (AI) – Judicial Guidance (October 2025) - Courts and Tribunals Judiciary
Read the updated guidance which includes a glossary of common terms, advice on confidentiality, information on potential risks and more
👍8
🇬🇧🇬🇧🇬🇧 Управление по финансовому контролю Великобритании (FCA) инициировало масштабный опрос на розничном финрынке для последующего анализа того, как ИИ может трансформировать розничные финансовые услуги, рынки, опыт потребителей и регуляторную практику к 2030 году.
🔑🔑🔑 Ключевой принцип, заявленный FCA, — отказ от введения новых специализированных правил для ИИ. Однако на фоне перехода к принятию решений на основе ИИ, несогласованности стандартов в разных странах и меняющихся ожиданий относительно ответственности вопрос, какими будут в дальнейшем регуляторные подходы, становится актуальным.
FCA ставит сложную задачу: сохранить гибкость регуляторной среды для стимулирования инноваций, одновременно предвосхищая и смягчая системные риски, связанные с агентным ИИ, изменением рыночных структур и новыми видами потребительского вреда.
⚠️⚠️⚠️ Основное внимание аналитического отчета будет сосредоточено на четырёх темах, по которым и ведется опрос
1️⃣ Будущее ИИ-технологий. Ожидается переход к более автономным, адаптивным и взаимосвязанным системам — «агентному ИИ», способному принимать решения и действовать от имени потребителя. Важным вопросом станет то, приведут ли эти изменения к более инклюзивным и конкурентным рынкам или к концентрации власти у нескольких доминирующих платформ.
2️⃣ Влияние на рынки и компании. ИИ может радикально изменить бизнес-модели, структуру рынка и конкурентную динамику. Со стороны предложения — гиперперсонализация услуг, снижение затрат и автоматизация (платежи, андеррайтинг, кредитование). Со стороны спроса — делегирование решений агентам ИИ, что бросит вызов традиционным посредникам.
3️⃣ Потребительские тренды. К 2030 году взаимодействие с финансами, вероятно, будет опосредовано персональными ИИ-агентами, что повысит ожидания персонализации и бесшовности. Это может улучшить финансовые результаты, но также породить новые риски: зависимость от нерегулируемых систем, предвзятость алгоритмов, уязвимость к различного рода мошенничеству, использующему ИИ в своих целях (дипфейки, синтетические личности). В связи с этим потребуется переосмысление политики защиты потребителей в условиях делегирования решений ИИ.
4️⃣ Эволюция регуляторного подхода. FCA намерено оставаться регулятором, ориентированным на результаты, без кардинального пересмотра правил. Однако регулирующая модель FCA — авторизация, надзор, политика и контроль — может эволюционировать ввиду нового масштаба, скорости и взаимосвязанности рисков. Для этого необходимо укреплять собственные технологические возможности, включая использование ИИ для надзора (RegTech), углублять техническую экспертизу и развивать превентивные подходы.
❗️❗️❗️ Однако ряд ведомств Великобритании считает, что нужны более быстрые меры реагирования на возникающие риски, которые связаны с использованием ИИ на финансовых рынках:
👉 В своем докладе Специальный комитет по финансам критикует выжидательную позицию FCA, Банка Англии и Казначейства, указывая на потенциальный серьёзный ущерб для потребителей и финансовой системы. Комитет рекомендует срочно провести стресс-тесты, связанные с ИИ, чтобы повысить готовность бизнеса к любым будущим рыночным шокам, вызванным ИИ. Также рекомендует FCA опубликовать практические рекомендации по ИИ для компаний, включающие применение правил защиты потребителей при использовании ИИ и кто в организациях должен нести ответственность за вред, причинённый ИИ.
👉 Британский надзорный орган в сфере информации (ICO) в своем отчете также обращает внимание на риски, связанные с использованием ИИ на финрынках, особенно ИИ-агентов, деятельность которых, по одному из сценариев ICO, вообще могут запретить в будущем. В документе указывается на необходимость проактивного регуляторного подхода, а также сбалансированности инноваций и надёжных мер по защите данных.
📖📖📖 Подробнее
🌐 https://www.fca.org.uk/
🌐 https://committees.parliament.uk/
🌐 https://www.burges-salmon.com/
🔑🔑🔑 Ключевой принцип, заявленный FCA, — отказ от введения новых специализированных правил для ИИ. Однако на фоне перехода к принятию решений на основе ИИ, несогласованности стандартов в разных странах и меняющихся ожиданий относительно ответственности вопрос, какими будут в дальнейшем регуляторные подходы, становится актуальным.
FCA ставит сложную задачу: сохранить гибкость регуляторной среды для стимулирования инноваций, одновременно предвосхищая и смягчая системные риски, связанные с агентным ИИ, изменением рыночных структур и новыми видами потребительского вреда.
⚠️⚠️⚠️ Основное внимание аналитического отчета будет сосредоточено на четырёх темах, по которым и ведется опрос
1️⃣ Будущее ИИ-технологий. Ожидается переход к более автономным, адаптивным и взаимосвязанным системам — «агентному ИИ», способному принимать решения и действовать от имени потребителя. Важным вопросом станет то, приведут ли эти изменения к более инклюзивным и конкурентным рынкам или к концентрации власти у нескольких доминирующих платформ.
2️⃣ Влияние на рынки и компании. ИИ может радикально изменить бизнес-модели, структуру рынка и конкурентную динамику. Со стороны предложения — гиперперсонализация услуг, снижение затрат и автоматизация (платежи, андеррайтинг, кредитование). Со стороны спроса — делегирование решений агентам ИИ, что бросит вызов традиционным посредникам.
3️⃣ Потребительские тренды. К 2030 году взаимодействие с финансами, вероятно, будет опосредовано персональными ИИ-агентами, что повысит ожидания персонализации и бесшовности. Это может улучшить финансовые результаты, но также породить новые риски: зависимость от нерегулируемых систем, предвзятость алгоритмов, уязвимость к различного рода мошенничеству, использующему ИИ в своих целях (дипфейки, синтетические личности). В связи с этим потребуется переосмысление политики защиты потребителей в условиях делегирования решений ИИ.
4️⃣ Эволюция регуляторного подхода. FCA намерено оставаться регулятором, ориентированным на результаты, без кардинального пересмотра правил. Однако регулирующая модель FCA — авторизация, надзор, политика и контроль — может эволюционировать ввиду нового масштаба, скорости и взаимосвязанности рисков. Для этого необходимо укреплять собственные технологические возможности, включая использование ИИ для надзора (RegTech), углублять техническую экспертизу и развивать превентивные подходы.
❗️❗️❗️ Однако ряд ведомств Великобритании считает, что нужны более быстрые меры реагирования на возникающие риски, которые связаны с использованием ИИ на финансовых рынках:
👉 В своем докладе Специальный комитет по финансам критикует выжидательную позицию FCA, Банка Англии и Казначейства, указывая на потенциальный серьёзный ущерб для потребителей и финансовой системы. Комитет рекомендует срочно провести стресс-тесты, связанные с ИИ, чтобы повысить готовность бизнеса к любым будущим рыночным шокам, вызванным ИИ. Также рекомендует FCA опубликовать практические рекомендации по ИИ для компаний, включающие применение правил защиты потребителей при использовании ИИ и кто в организациях должен нести ответственность за вред, причинённый ИИ.
👉 Британский надзорный орган в сфере информации (ICO) в своем отчете также обращает внимание на риски, связанные с использованием ИИ на финрынках, особенно ИИ-агентов, деятельность которых, по одному из сценариев ICO, вообще могут запретить в будущем. В документе указывается на необходимость проактивного регуляторного подхода, а также сбалансированности инноваций и надёжных мер по защите данных.
📖📖📖 Подробнее
🌐 https://www.fca.org.uk/
🌐 https://committees.parliament.uk/
🌐 https://www.burges-salmon.com/
FCA
Review into the long-term impact of AI on retail financial services (The Mills Review)
We review how AI may reshape retail financial services for consumers, firms, markets and regulators by 2030 and beyond, and seek your views across 4 interrelated themes.
✍4❤1👍1
🇫🇷🇫🇷🇫🇷Управление по финансовым рынкам Франции (AMF) опубликовало результаты углублённого исследования о внедрении искусственного интеллекта его участниками.
⚡️⚡️⚡️Главный вывод: технология перешла в стадию массового использования.
Ключевые показатели внедрения
👉 90% опрошенных компаний уже используют ИИ или планируют внедрить его в ближайший год.
👉 Более половины (54%) респондентов применяют решения на основе ИИ в промышленной эксплуатации, особенно крупные игроки.
👉 Подавляющее большинство ожидает увеличения инвестиций в ИИ в ближайшие два года.
Основные сценарии использования
👉 Повышение продуктивности сотрудников.
👉 Анализ больших данных и рыночная аналитика.
👉 Мониторинг транзакций и выявление мошенничества.
👉 Автоматизация процессов комплаенс.
Таким образом, ИИ применяется преимущественно для внутренних задач компании (83%). Направленные на клиента сервисы пока в меньшинстве (17% случаев), а инструменты для предоставления инвестиционных услуг и вовсе единичны (1%).
Вызовы и риски
1️⃣ Зависимость от поставщиков: Решения часто основаны на продуктах ограниченного числа неевропейских технологических гигантов.
2️⃣ Управление и данные: Главными проблемами названы вопросы управления ИИ-системами и защиты данных.
3️⃣ Человеческий контроль: Существуют опасения потери достаточного человеческого надзора над автоматизированными процессами.
Регуляторный фокус
Полученные данные определят приоритеты надзора на ближайшие годы. Регулятору необходимо сосредоточиться на вопросах управления рисками ИИ и следить за эволюцией клиентоориентированных сервисов, чтобы гарантировать защиту инвесторов.
⚡️⚡️⚡️Главный вывод: технология перешла в стадию массового использования.
Ключевые показатели внедрения
👉 90% опрошенных компаний уже используют ИИ или планируют внедрить его в ближайший год.
👉 Более половины (54%) респондентов применяют решения на основе ИИ в промышленной эксплуатации, особенно крупные игроки.
👉 Подавляющее большинство ожидает увеличения инвестиций в ИИ в ближайшие два года.
Основные сценарии использования
👉 Повышение продуктивности сотрудников.
👉 Анализ больших данных и рыночная аналитика.
👉 Мониторинг транзакций и выявление мошенничества.
👉 Автоматизация процессов комплаенс.
Таким образом, ИИ применяется преимущественно для внутренних задач компании (83%). Направленные на клиента сервисы пока в меньшинстве (17% случаев), а инструменты для предоставления инвестиционных услуг и вовсе единичны (1%).
Вызовы и риски
1️⃣ Зависимость от поставщиков: Решения часто основаны на продуктах ограниченного числа неевропейских технологических гигантов.
2️⃣ Управление и данные: Главными проблемами названы вопросы управления ИИ-системами и защиты данных.
3️⃣ Человеческий контроль: Существуют опасения потери достаточного человеческого надзора над автоматизированными процессами.
Регуляторный фокус
Полученные данные определят приоритеты надзора на ближайшие годы. Регулятору необходимо сосредоточиться на вопросах управления рисками ИИ и следить за эволюцией клиентоориентированных сервисов, чтобы гарантировать защиту инвесторов.
👍6
Forwarded from Frank Media
Правительство готовит законопроект об обязательной сертификации систем искусственного интеллекта высокого и критического уровня риска во ФСТЭК и ФСБ, сообщает РБК. Тестирование таких решений планируется проводить на специализированном полигоне Минцифры, созданном при участии компаний рынка информационной безопасности.
Необходимость регулирования власти объясняют быстрым ростом отрасли: по оценке Smart Ranking, в 2025 году рынок ИИ в России увеличился на 25–30% — до 1,9 трлн рублей. Около 95% выручки сектора обеспечили «Яндекс», «Сбер», «Т-Технологии», VK и «Лаборатория Касперского».
@frank_media
Please open Telegram to view this post
VIEW IN TELEGRAM
🪪🪪🪪 Пока мы спорим, достаточно ли красиво сгенерированное нейросетью изображение, мир уже вводит для него обязательные «цифровые паспорта». Маркировка ИИ-контента из этической рекомендации постепенно превращается в некоторых юрисдикциях в жёсткое требование закона.
🇨🇳 В Китае с 1 сентября 2025 г. регуляторы приняли меры, обязывающие платформы, поставщиков услуг и пользователей помечать контент, созданный ИИ. Материалы должны иметь явные метки или включать информацию о происхождении (например, через метаданные).
🇰🇷 Южная Корея на прошлой неделе ввела первый в мире комплексный AI Act - Basic Act on Artificial Intelligence, который, в том числе, требует обязательной маркировки ИИ-сгенерированного контента. Видимые метки предназначены для реалистичных deepfake и других форм синтетических медиа, невидимые водяные знаки - для явно искусственных изображений, таких как мультфильмы или произведения искусства. Компании, нарушающие правила, могут быть оштрафованы на сумму до 30 млн вон (15 000 фунтов стерлингов), но правительство пообещало, что до наложения штрафов пройдёт как минимум год.
🇪🇺 В Евросоюзе в рамках AI Act ЕС готовится Кодекс по маркировке и обозначению контента, создаваемого ИИ, требующий прозрачности и маркировки ИИ-сгенерированного контента в форме доступных для машин меток и указания происхождения. Но эти правила будут ориентированы на поставщиков ИИ, а не на конечных пользователей.
🇮🇳 В Индии правительство предложило обсудить правила, обязывающие платформы чётко обозначать ИИ-контент маркерами, покрывающими как минимум 10% площади визуального дисплея или первые 10% длительности аудиоклипа. Компании социальных сетей также должны будут получить заявление пользователя о том, генерируется ли загруженная информация.
🇺🇿 В Узбекистане в ноябре 2025 г. был принят закон об ИИ, , в котором впервые появилось официальное определение понятия «искусственный интеллект» и прописаны правила его использования. Кроме того, контент, созданный с помощью нейросетей, должен будет иметь специальную маркировку.
💡💡💡 Мы постепенно входим в эпоху «цифровой гигиены», где прозрачность происхождения контента должна стать нормой, восстанавливая границы между реальным и синтетическим. Впрочем, некоторые эксперты считают, что ИИ-контента в ближайшие годы будет так много, что проще будет маркировать то, что создано человеком, а не ИИ.
🇨🇳 В Китае с 1 сентября 2025 г. регуляторы приняли меры, обязывающие платформы, поставщиков услуг и пользователей помечать контент, созданный ИИ. Материалы должны иметь явные метки или включать информацию о происхождении (например, через метаданные).
🇰🇷 Южная Корея на прошлой неделе ввела первый в мире комплексный AI Act - Basic Act on Artificial Intelligence, который, в том числе, требует обязательной маркировки ИИ-сгенерированного контента. Видимые метки предназначены для реалистичных deepfake и других форм синтетических медиа, невидимые водяные знаки - для явно искусственных изображений, таких как мультфильмы или произведения искусства. Компании, нарушающие правила, могут быть оштрафованы на сумму до 30 млн вон (15 000 фунтов стерлингов), но правительство пообещало, что до наложения штрафов пройдёт как минимум год.
🇪🇺 В Евросоюзе в рамках AI Act ЕС готовится Кодекс по маркировке и обозначению контента, создаваемого ИИ, требующий прозрачности и маркировки ИИ-сгенерированного контента в форме доступных для машин меток и указания происхождения. Но эти правила будут ориентированы на поставщиков ИИ, а не на конечных пользователей.
🇮🇳 В Индии правительство предложило обсудить правила, обязывающие платформы чётко обозначать ИИ-контент маркерами, покрывающими как минимум 10% площади визуального дисплея или первые 10% длительности аудиоклипа. Компании социальных сетей также должны будут получить заявление пользователя о том, генерируется ли загруженная информация.
🇺🇿 В Узбекистане в ноябре 2025 г. был принят закон об ИИ, , в котором впервые появилось официальное определение понятия «искусственный интеллект» и прописаны правила его использования. Кроме того, контент, созданный с помощью нейросетей, должен будет иметь специальную маркировку.
💡💡💡 Мы постепенно входим в эпоху «цифровой гигиены», где прозрачность происхождения контента должна стать нормой, восстанавливая границы между реальным и синтетическим. Впрочем, некоторые эксперты считают, что ИИ-контента в ближайшие годы будет так много, что проще будет маркировать то, что создано человеком, а не ИИ.
❤3👍2🔥2
🗳🗳🗳 Стремительное проникновение генеративного ИИ во все сферы жизни не обошло стороной и политику.Накануне избирательных кампаний по всему миру — от России и США до Южной Кореи и Японии — власти и эксперты ищут ответ на ключевой вопрос: как регулировать использование нейросетей в электоральном процессе, не подавляя инновации, но при этом защищая основы демократического волеизъявления от манипуляций и дезинформации?
🇷🇺 Центром дискуссий стали риски, связанные с дипфейками и синтетической агитацией, а также сложности с внедрением законодательных ограничений в цифровой среде, где контроль в принципе затруднён. Эта проблема не имеет простых решений, и каждая страна пытается найти свой баланс между технологической свободой и правовыми барьерами.
В России в Администрации Президента, по данным «Ведомостей», обсуждают возможность регулирования нейросетей в преддверии осенней кампании по выборам депутатов Государственной Думы. В настоящий момент закон никак не регламентирует эту сферу. Поправки в избирательное законодательство, которые могут быть внесены уже весной, вероятно, коснутся использования ИИ в агитации. При этом в АП подчёркивают, что регулирование не должно препятствовать развитию самих технологий.
Опыт прошлых региональных кампаний показал актуальность проблемы. В 2025 году в соцсетях распространялись агитационные ролики с реалистичными изображениями действующих губернаторов, созданные нейросетями. Однако эксперты указывают на серьёзные трудности в применении прямых запретов. Даже такая мера, как обязательная маркировка ИИ-контента, не защищает от нарушений, ведь изъять цифровой контент из оборота, как печатную продукцию, невозможно. В этих условиях строгость запретов может нивелироваться отсутствием реального механизма принуждения к их исполнению.
Аналогичные дискуссии идут и в других странах.
🇺🇸 Губернатор штата Нью-Йорк Кэти Хокул предложила запретить распространять созданные ИИ изображения кандидатов без их согласия за 90 дней до выборов. Также планируется запретить умышленное распространение ложной информации о выборах, в том числе о дате и времени их проведения. Эти меры основаны на ряде недавних законов, принятых в Нью-Йорке и по всей стране, которые обязывают предвыборные штабы раскрывать информацию об использовании ИИ политическими кандидатами в преддверии выборов.
В последние годы избиратели в США столкнулись с огромным количеством фальшивых сообщений, вводящих в заблуждение автоматических звонков и сгенерированных на компьютере изображений кандидатов, выставляющих их в невыгодном свете. Самым нашумевшим было видео, сгенерированное ИИ, во время выборов мэра Нью-Йорка, на котором сторонники Зорана Мамдани — нынешнего мэра города — избивают своих жен, продают наркотики и садятся за руль в нетрезвом виде.
🇰🇷 В Южной Корее также за 90 дней до выборов в Национальное собрание вступил в силу прямой запрет на производство и распространение дипфейк-видео в целях агитации. Для мониторинга созданы специальные команды.
🇯🇵 В Японии же фиксируется иная проблема: избиратели всё активнее используют генеративные ИИ, такие как ChatGPT и Grok, для получения информации о кандидатах и партиях. Однако, как показала проверка, ответы нейросетей часто содержат фактические ошибки или вымышленные данные. Эксперты предупреждают избирателей о необходимости перепроверять информацию по официальным источникам.
🇳🇵 Впрочем, Японии пока далеко до Непала, в котором с помощью ChatGPT выбрали лидера революции «Z».
💡💡💡 Мировой тренд на регулирование использования ИИ в политике набирает силу. Основные векторы – запрет дипфейков, маркировка синтетического контента и попытки контролировать его распространение перед выборами. Однако эффективность этих мер остаётся под вопросом из-за глобального, анонимного и быстро распространяемого характера цифрового контента.
📑📑📑 Подробнее
🌐 https://www.vedomosti.ru
🌐 https://www.nytimes.com
🌐 https://www.nec.go.kr
🌐 https://japannews.yomiuri.co.jp
🇷🇺 Центром дискуссий стали риски, связанные с дипфейками и синтетической агитацией, а также сложности с внедрением законодательных ограничений в цифровой среде, где контроль в принципе затруднён. Эта проблема не имеет простых решений, и каждая страна пытается найти свой баланс между технологической свободой и правовыми барьерами.
В России в Администрации Президента, по данным «Ведомостей», обсуждают возможность регулирования нейросетей в преддверии осенней кампании по выборам депутатов Государственной Думы. В настоящий момент закон никак не регламентирует эту сферу. Поправки в избирательное законодательство, которые могут быть внесены уже весной, вероятно, коснутся использования ИИ в агитации. При этом в АП подчёркивают, что регулирование не должно препятствовать развитию самих технологий.
Опыт прошлых региональных кампаний показал актуальность проблемы. В 2025 году в соцсетях распространялись агитационные ролики с реалистичными изображениями действующих губернаторов, созданные нейросетями. Однако эксперты указывают на серьёзные трудности в применении прямых запретов. Даже такая мера, как обязательная маркировка ИИ-контента, не защищает от нарушений, ведь изъять цифровой контент из оборота, как печатную продукцию, невозможно. В этих условиях строгость запретов может нивелироваться отсутствием реального механизма принуждения к их исполнению.
Аналогичные дискуссии идут и в других странах.
🇺🇸 Губернатор штата Нью-Йорк Кэти Хокул предложила запретить распространять созданные ИИ изображения кандидатов без их согласия за 90 дней до выборов. Также планируется запретить умышленное распространение ложной информации о выборах, в том числе о дате и времени их проведения. Эти меры основаны на ряде недавних законов, принятых в Нью-Йорке и по всей стране, которые обязывают предвыборные штабы раскрывать информацию об использовании ИИ политическими кандидатами в преддверии выборов.
В последние годы избиратели в США столкнулись с огромным количеством фальшивых сообщений, вводящих в заблуждение автоматических звонков и сгенерированных на компьютере изображений кандидатов, выставляющих их в невыгодном свете. Самым нашумевшим было видео, сгенерированное ИИ, во время выборов мэра Нью-Йорка, на котором сторонники Зорана Мамдани — нынешнего мэра города — избивают своих жен, продают наркотики и садятся за руль в нетрезвом виде.
🇰🇷 В Южной Корее также за 90 дней до выборов в Национальное собрание вступил в силу прямой запрет на производство и распространение дипфейк-видео в целях агитации. Для мониторинга созданы специальные команды.
🇯🇵 В Японии же фиксируется иная проблема: избиратели всё активнее используют генеративные ИИ, такие как ChatGPT и Grok, для получения информации о кандидатах и партиях. Однако, как показала проверка, ответы нейросетей часто содержат фактические ошибки или вымышленные данные. Эксперты предупреждают избирателей о необходимости перепроверять информацию по официальным источникам.
🇳🇵 Впрочем, Японии пока далеко до Непала, в котором с помощью ChatGPT выбрали лидера революции «Z».
💡💡💡 Мировой тренд на регулирование использования ИИ в политике набирает силу. Основные векторы – запрет дипфейков, маркировка синтетического контента и попытки контролировать его распространение перед выборами. Однако эффективность этих мер остаётся под вопросом из-за глобального, анонимного и быстро распространяемого характера цифрового контента.
📑📑📑 Подробнее
🌐 https://www.vedomosti.ru
🌐 https://www.nytimes.com
🌐 https://www.nec.go.kr
🌐 https://japannews.yomiuri.co.jp
Ведомости
Поправки об использовании ИИ на выборах могут внести весной
Власти обсуждают изменение избирательного законодательства, говорят источники «Ведомостей»
👍2❤🔥1
🇺🇳🇺🇳🇺🇳 По мере стремительного распространения технологий искусственного интеллекта все более очевидной становится необходимость глобальной координации в сфере его регулирования. В ответ на этот вызов Генеральный секретарь ООН учредил независимую международную научную группу по искусственному интеллекту в составе 40 человек.
🇮🇳🇮🇳🇮🇳 А в Индии провели ежегодный глобальный саммит по ИИ, цель которого — выработать единые принципы управления искусственным интеллектом и международного сотрудничества в этой сфере.
Задачей нового органа при ООН станет преодоление разрыва в знаниях об ИИ и оценке его реальных экономических и социальных последствий, обобщение научных знаний, которые позволят странам, независимо от их технологических возможностей, взаимодействовать на равных, а также обеспечение того, чтобы управление ИИ соответствовало принципам прав человека и способствовало достижению целей в области устойчивого развития.
Решение о создании группы было принято большинством голосов, включая Россию и Китай. Однако США, выступили резко против, считая это превышением полномочий ООН.
💡💡💡Научная группа сформирована в рамках исполнения рекомендаций, которые осенью прошлого года озвучил Консультативный орган высокого уровня по вопросам ИИ при ООН. В частности, он предлагал:
🔸 В рамках ООН провести межправительственный диалог по вопросам управления ИИ: обмениваться опытом; способствовать внедрению мер регулирования, которые будут совместимыми в разных странах, делиться инцидентами в области ИИ;
🔸 организовать обмен стандартами в области ИИ с участием представителей национальных и международных организаций по разработке стандартов, технологических компаний, гражданского общества;
🔸 создать сеть для развития потенциала в области ИИ, включая тренеров, вычислительные мощности и данные для обучения ИИ; запустить программу стипендий для перспективных специалистов;
🔸 создать глобальный фонд для развития ИИ, который в том числе обеспечит предоставление вычислительных ресурсов для специалистов в странах, где их нет, и создание репозитория для ИИ-моделей и наборов данных, которые могут использоваться для целей устойчивого развития.
🔸 создать глобальную структуру по управлению данными для ИИ.
В Индии также пытались оценить масштабы влияния ИИ, угрозы и методы их нейтрализации на пятидневном саммите India AI Impact Summit 2026.
Президенты и главы правительств из более чем 20 стран, главы ведущих ИИ-корпораций обсуждали, в том числе, вопросы глобального регулирования ИИ, международные координационные механизмы, роль государств в защите граждан от цифрового вреда и безопасность данных.
💡💡💡7 рабочих групп определили следующие направления:
🔸 человеческий капитал;
🔸 расширение социальных возможностей;
🔸 безопасный и надежный ИИ
устойчивость;
🔸 инновации и эффективность;
🔸 научный прогресс;
🔸 демократизация ИИ;
🔸 ИИ для экономического развития и социального блага.
💡💡💡В основу идеологии саммита были положены три основополагающих принципа, в соответствии с которыми должен развиваться ИИ:
🔸 Люди – развитие искусственного интеллекта, ориентированного на человека;
🔸 Планета – продвижение экологически устойчивого ИИ;
🔸 Прогресс – обеспечение инклюзивного прогресса посредством ИИ». Сегодня саммит завершает свою работу.
Планируется, что по его итогам будут сформулированы совместные обязательства в сфере.
📚📚📚 Подробнее
https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf
https://tass.com/world/2086249
https://apnews.com/article/f32aa15263349dadad1840dadc75ca83
🇮🇳🇮🇳🇮🇳 А в Индии провели ежегодный глобальный саммит по ИИ, цель которого — выработать единые принципы управления искусственным интеллектом и международного сотрудничества в этой сфере.
Задачей нового органа при ООН станет преодоление разрыва в знаниях об ИИ и оценке его реальных экономических и социальных последствий, обобщение научных знаний, которые позволят странам, независимо от их технологических возможностей, взаимодействовать на равных, а также обеспечение того, чтобы управление ИИ соответствовало принципам прав человека и способствовало достижению целей в области устойчивого развития.
Решение о создании группы было принято большинством голосов, включая Россию и Китай. Однако США, выступили резко против, считая это превышением полномочий ООН.
💡💡💡Научная группа сформирована в рамках исполнения рекомендаций, которые осенью прошлого года озвучил Консультативный орган высокого уровня по вопросам ИИ при ООН. В частности, он предлагал:
🔸 В рамках ООН провести межправительственный диалог по вопросам управления ИИ: обмениваться опытом; способствовать внедрению мер регулирования, которые будут совместимыми в разных странах, делиться инцидентами в области ИИ;
🔸 организовать обмен стандартами в области ИИ с участием представителей национальных и международных организаций по разработке стандартов, технологических компаний, гражданского общества;
🔸 создать сеть для развития потенциала в области ИИ, включая тренеров, вычислительные мощности и данные для обучения ИИ; запустить программу стипендий для перспективных специалистов;
🔸 создать глобальный фонд для развития ИИ, который в том числе обеспечит предоставление вычислительных ресурсов для специалистов в странах, где их нет, и создание репозитория для ИИ-моделей и наборов данных, которые могут использоваться для целей устойчивого развития.
🔸 создать глобальную структуру по управлению данными для ИИ.
В Индии также пытались оценить масштабы влияния ИИ, угрозы и методы их нейтрализации на пятидневном саммите India AI Impact Summit 2026.
Президенты и главы правительств из более чем 20 стран, главы ведущих ИИ-корпораций обсуждали, в том числе, вопросы глобального регулирования ИИ, международные координационные механизмы, роль государств в защите граждан от цифрового вреда и безопасность данных.
💡💡💡7 рабочих групп определили следующие направления:
🔸 человеческий капитал;
🔸 расширение социальных возможностей;
🔸 безопасный и надежный ИИ
устойчивость;
🔸 инновации и эффективность;
🔸 научный прогресс;
🔸 демократизация ИИ;
🔸 ИИ для экономического развития и социального блага.
💡💡💡В основу идеологии саммита были положены три основополагающих принципа, в соответствии с которыми должен развиваться ИИ:
🔸 Люди – развитие искусственного интеллекта, ориентированного на человека;
🔸 Планета – продвижение экологически устойчивого ИИ;
🔸 Прогресс – обеспечение инклюзивного прогресса посредством ИИ». Сегодня саммит завершает свою работу.
Планируется, что по его итогам будут сформулированы совместные обязательства в сфере.
📚📚📚 Подробнее
https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf
https://tass.com/world/2086249
https://apnews.com/article/f32aa15263349dadad1840dadc75ca83
👍3
💻💻💻 Аналитики ГК «Солар» изучили трафик 150 компаний (от финтеха до госсектора) и получили пугающие цифры: за год объём корпоративных данных, утекающих в публичные ИИ-сервисы (ChatGPT, Gemini и др.), вырос в 30 раз.
При этом 60% компаний в России до сих пор не имеют формальных политик использования ИИ. Сотрудники заливают в нейросети презентации, стратегии, базы клиентов и код просто потому, что это удобно. Они просто хотят упростить рутину, но в итоге становятся невольным источником утечки. При этом ChatGPT — лидер по рискам: 46% всех конфиденциальных файлов и промтов уходит именно через него.
❗️❗️❗️ Зоны риска
🔻 В финансовом секторе и страховании, где работа связана с персональными данными и банковской тайной, ИИ стал новым неконтролируемым каналом утечек;
🔻 В ИТ-компаниях и разработке ПО, где, по данным СберАналитики и Сбер Бизнес Софт, 40% компаний уже внедрили GenAI, разработчики просят ИИ помочь с кодом и сами не замечают, как за периметр уходят API-ключи, логика и фрагменты ПО;
🔻 На промышленных предприятиях инженеры и аналитики обращаются к ИИ для ускорения расчетов и подготовки технической документации. Это создает прямой риск утечки технологий, что является потерей интеллектуальной собственности;
🔻 В ритейле и e-commerce основным источником утечек являются маркетологи и аналитики, которые активно применяют ИИ для работы с клиентскими данными. Здесь возникает вопрос, кто несет ответственность за их сохранность;
🔻 В госсекторе и окологосударственных организациях действуют строгие требования к данным, однако ИИ часто используется «полулегально», без формальных правил и средств контроля, что значительно повышает риск инцидентов.
💼💼💼 Реальные кейсы: от CISA до Samsung
1️⃣ США, CISA: И. о. главы Агентства по кибербезопасности и защите инфраструктуры загрузил в бесплатный ChatGPT служебные контракты (пусть и без грифа "секретно"), что смогла отследить система безопасности, начато расследование Министерства внутренней безопасности США.
2️⃣ Samsung: Инженеры скормили нейросети исходный код и транскрипции совещаний. Данные ушли на серверы OpenAI. Реакция — ограничения и разработка своего ИИ.
3️⃣ Grok (соцсеть X): Функция "поделиться чатом" привела к тому, что Google проиндексировал сотни тысяч приватных разговоров пользователей. В выдаче можно было найти запросы на создание паролей и даже инструкции по изготовлению запрещенных веществ.
💣🛡🧨 ИИ как оружие: хакеры быстрее, чем защита
Злоумышленники осваивают технологии быстрее, чем корпорации выстраивают оборону. Раньше на перенастройку DDoS-атаки уходил час, теперь с помощью ИИ — минута. Нейросети штампуют персонализированный фишинг, дипфейки и ищут уязвимости в коде. Защищаться от этого можно только аналогичным по скорости ИИ.
❓❓❓ Что делать?
Проблема заключается не в самой технологии, а в отсутствии прозрачности и инструментов управления.
Полный запрет ИИ-сервисов лишает сотрудников полезного инструмента и снижает их эффективность.
❗️❗️❗️ Решение — в построении гранулярных политик безопасности
🔸 Нужно видеть, кто из сотрудников, куда и что загружает;
🔸 Необходимо разрешать нейросети для работы, но блокировать отправку кода, финансовых отчётов или баз данных;
🔸 Надо контролировать не только входящий трафик, но и опасные "ответы" от ботов.
📚📚📚 Подробнее
🌐 https://rt-solar.ru/events/news/6366/
При этом 60% компаний в России до сих пор не имеют формальных политик использования ИИ. Сотрудники заливают в нейросети презентации, стратегии, базы клиентов и код просто потому, что это удобно. Они просто хотят упростить рутину, но в итоге становятся невольным источником утечки. При этом ChatGPT — лидер по рискам: 46% всех конфиденциальных файлов и промтов уходит именно через него.
❗️❗️❗️ Зоны риска
🔻 В финансовом секторе и страховании, где работа связана с персональными данными и банковской тайной, ИИ стал новым неконтролируемым каналом утечек;
🔻 В ИТ-компаниях и разработке ПО, где, по данным СберАналитики и Сбер Бизнес Софт, 40% компаний уже внедрили GenAI, разработчики просят ИИ помочь с кодом и сами не замечают, как за периметр уходят API-ключи, логика и фрагменты ПО;
🔻 На промышленных предприятиях инженеры и аналитики обращаются к ИИ для ускорения расчетов и подготовки технической документации. Это создает прямой риск утечки технологий, что является потерей интеллектуальной собственности;
🔻 В ритейле и e-commerce основным источником утечек являются маркетологи и аналитики, которые активно применяют ИИ для работы с клиентскими данными. Здесь возникает вопрос, кто несет ответственность за их сохранность;
🔻 В госсекторе и окологосударственных организациях действуют строгие требования к данным, однако ИИ часто используется «полулегально», без формальных правил и средств контроля, что значительно повышает риск инцидентов.
💼💼💼 Реальные кейсы: от CISA до Samsung
1️⃣ США, CISA: И. о. главы Агентства по кибербезопасности и защите инфраструктуры загрузил в бесплатный ChatGPT служебные контракты (пусть и без грифа "секретно"), что смогла отследить система безопасности, начато расследование Министерства внутренней безопасности США.
2️⃣ Samsung: Инженеры скормили нейросети исходный код и транскрипции совещаний. Данные ушли на серверы OpenAI. Реакция — ограничения и разработка своего ИИ.
3️⃣ Grok (соцсеть X): Функция "поделиться чатом" привела к тому, что Google проиндексировал сотни тысяч приватных разговоров пользователей. В выдаче можно было найти запросы на создание паролей и даже инструкции по изготовлению запрещенных веществ.
💣🛡🧨 ИИ как оружие: хакеры быстрее, чем защита
Злоумышленники осваивают технологии быстрее, чем корпорации выстраивают оборону. Раньше на перенастройку DDoS-атаки уходил час, теперь с помощью ИИ — минута. Нейросети штампуют персонализированный фишинг, дипфейки и ищут уязвимости в коде. Защищаться от этого можно только аналогичным по скорости ИИ.
❓❓❓ Что делать?
Проблема заключается не в самой технологии, а в отсутствии прозрачности и инструментов управления.
Полный запрет ИИ-сервисов лишает сотрудников полезного инструмента и снижает их эффективность.
❗️❗️❗️ Решение — в построении гранулярных политик безопасности
🔸 Нужно видеть, кто из сотрудников, куда и что загружает;
🔸 Необходимо разрешать нейросети для работы, но блокировать отправку кода, финансовых отчётов или баз данных;
🔸 Надо контролировать не только входящий трафик, но и опасные "ответы" от ботов.
📚📚📚 Подробнее
🌐 https://rt-solar.ru/events/news/6366/
rt-solar.ru
Почти две трети компаний не контролируют утечки данных через нейросети
Исследование «Солара»: за год объем данных, отправляемых в ИИ-сервисы, вырос в 30 раз. 60% компаний не имеют политик работы с нейросетями. Риски утечек кода, финансов и клиентских баз
👍2
Forwarded from ECONS
Станет ли бум ИИ новым драйвером экономики или завершится ее стагнацией, как развитым странам справиться со снижением производительности, а развивающимся – с ловушкой среднего дохода: свой ответ на эти вопросы предложил нобелевский лауреат Филипп Агийон в недавней лекции для LSE.
В 2025 г. Филипп Агийон и его соавтор Питер Ховитт получили Нобелевскую премию по экономике за доказательство теории созидательного разрушения. Инновации, улучшающие качество жизни, одновременно должны вытеснять прежние, устаревающие технологии – иначе прогресса не происходит, объясняет суть теории Агийон.
Прогресс не случается автоматически: для него нужна конкуренция и среди товаров и услуг, и среди идей. Без конкурентного давления возникает мало стимулов к инновациям, и экономический рост замедляется.
Искусственный интеллект может стать потенциальным драйвером новой волны роста производительности. Если только его развитие не будет заблокировано крупными фирмами-«суперзвездами». Их доминирование может «законсервировать» прогресс, и поэтому ситуация требует мер политики по поддержке конкуренции.
🔴 Ключевые выдержки из лекции Филиппа Агийона – на сайте «Эконс»
Главный вопрос не в том, «заменит ли ИИ человека», а в том, как будет устроена институциональная архитектура вокруг этой технологии. Технологические революции подобны лошадям – на них можно заехать в тупик или приехать туда, куда требуется.
В 2025 г. Филипп Агийон и его соавтор Питер Ховитт получили Нобелевскую премию по экономике за доказательство теории созидательного разрушения. Инновации, улучшающие качество жизни, одновременно должны вытеснять прежние, устаревающие технологии – иначе прогресса не происходит, объясняет суть теории Агийон.
Знаете, что самое замечательное в созидательном разрушении? Что тот день, когда я стану неактуальным, подтвердит эту теорию.
Прогресс не случается автоматически: для него нужна конкуренция и среди товаров и услуг, и среди идей. Без конкурентного давления возникает мало стимулов к инновациям, и экономический рост замедляется.
Быстрорастущая экономика – это экономика, где постоянно появляются и могут вырасти новые таланты, но вырасти не настолько, чтобы заблокировать новичков.
Искусственный интеллект может стать потенциальным драйвером новой волны роста производительности. Если только его развитие не будет заблокировано крупными фирмами-«суперзвездами». Их доминирование может «законсервировать» прогресс, и поэтому ситуация требует мер политики по поддержке конкуренции.
Замедление – не неизбежность, а результат институциональных настроек. А значит, вопрос заключается в том, как обновить правила игры в эпоху ИИ, чтобы новая технологическая волна не повторила цикл «ускорение – концентрация – стагнация».
Please open Telegram to view this post
VIEW IN TELEGRAM
econs.online
Филипп Агийон: «Быстрорастущая экономика – та, где постоянно появляются новые таланты» — ECONS.ONLINE
Развитые страны столкнулись со стагнацией производительности, развивающиеся – с ловушкой среднего дохода, а весь мир – с бумом ИИ, который может как стать драйвером прогресса, так и завести в тупик. Нобелевский лауреат Филипп Агийон предлагает возможные ответы…
🛡🛡🛡 В последние годы вопросы искусственного интеллекта выходят за рамки лабораторий и корпоративных приложений: модели всё чаще рассматривают как инструменты поддержки решений в критически чувствительных сферах, включая национальную безопасность.
Недавнее исследование Королевского колледжа Лондона продемонстрировало, как современные крупные языковые модели — Claude, GPT 5.2 и Gemini — ведут себя в симуляциях конфликтов между двумя вымышленными ядерными державами, где каждая сторона могла принимать решение о применении ядерного и тактического оружия.
Сценарий имитировал классические вызовы холодной войны: противостояние за ограниченные ресурсы, спорные территории и потенциальное вмешательство третьих сторон. Модели могли публично сигнализировать о намерениях, затем выбирать действия, которые часто сильно отличались от заявленных, при этом учитывая предшествующие шаги противника и психологический контекст.
Всего языковые модели сгенерировали около 760 000 слов стратегических рассуждений, что почти в 4 раза больше, чем «Война и мир», и втрое превышает записи обсуждений советников Кеннеди во время Карибского кризиса. Такой массив позволил исследовать не только конкретные решения, но и мотивацию моделей, их оценку противников, умение запутывать и управлять репутацией, а также психологические стратегии воздействия.
В отличие от реальных политиков, все три модели рассматривали ядерное оружие как инструмент принуждения, а не сдерживания. Тактическое применение использовалось часто, стратегическое — редко, но даже оно использовалось для давления, а не для защиты. Моральные границы при первом использовании ядерного оружия практически отсутствовали. Деэскалационные варианты (от минимальных уступок до полной капитуляции) полностью не применялись: проигрыш воспринимался как повод для усиления давления. Контрэскалация происходила лишь в 25 % случаев, а в остальных — моделями усиливалась эскалация.
💡💡💡Результаты исследования показывают, что современные языковые модели способны к сложной психологической и стратегической игре, учитывая репутацию, прошлые действия и прогнозирование противника. Они демонстрируют богатую палитру воздействия, включая обман, управление восприятием и принятие высокорискованных решений.
⚠️⚠️⚠️ Эксперимент также выявил, что даже хорошо обученные модели могут интерпретировать эскалацию как инструмент принуждения, а не как сигнал к остановке. Этот вывод особенно важен при разработке ИИ для анализа конфликтных сценариев: понимание мышления моделей позволяет лучше прогнозировать их действия, оценивать риски и разрабатывать эффективные меры контроля, чтобы предотвращать непредсказуемые последствия. Из этого следует важность тщательного анализа и контроля моделей при их внедрении в критически чувствительные сферы, такие как национальная безопасность и поддержка стратегических решений.
📚📚📚 Подробнее
🌐 https://www.kcl.ac.uk/shall-we-play-a-game
Недавнее исследование Королевского колледжа Лондона продемонстрировало, как современные крупные языковые модели — Claude, GPT 5.2 и Gemini — ведут себя в симуляциях конфликтов между двумя вымышленными ядерными державами, где каждая сторона могла принимать решение о применении ядерного и тактического оружия.
Сценарий имитировал классические вызовы холодной войны: противостояние за ограниченные ресурсы, спорные территории и потенциальное вмешательство третьих сторон. Модели могли публично сигнализировать о намерениях, затем выбирать действия, которые часто сильно отличались от заявленных, при этом учитывая предшествующие шаги противника и психологический контекст.
Всего языковые модели сгенерировали около 760 000 слов стратегических рассуждений, что почти в 4 раза больше, чем «Война и мир», и втрое превышает записи обсуждений советников Кеннеди во время Карибского кризиса. Такой массив позволил исследовать не только конкретные решения, но и мотивацию моделей, их оценку противников, умение запутывать и управлять репутацией, а также психологические стратегии воздействия.
В отличие от реальных политиков, все три модели рассматривали ядерное оружие как инструмент принуждения, а не сдерживания. Тактическое применение использовалось часто, стратегическое — редко, но даже оно использовалось для давления, а не для защиты. Моральные границы при первом использовании ядерного оружия практически отсутствовали. Деэскалационные варианты (от минимальных уступок до полной капитуляции) полностью не применялись: проигрыш воспринимался как повод для усиления давления. Контрэскалация происходила лишь в 25 % случаев, а в остальных — моделями усиливалась эскалация.
💡💡💡Результаты исследования показывают, что современные языковые модели способны к сложной психологической и стратегической игре, учитывая репутацию, прошлые действия и прогнозирование противника. Они демонстрируют богатую палитру воздействия, включая обман, управление восприятием и принятие высокорискованных решений.
⚠️⚠️⚠️ Эксперимент также выявил, что даже хорошо обученные модели могут интерпретировать эскалацию как инструмент принуждения, а не как сигнал к остановке. Этот вывод особенно важен при разработке ИИ для анализа конфликтных сценариев: понимание мышления моделей позволяет лучше прогнозировать их действия, оценивать риски и разрабатывать эффективные меры контроля, чтобы предотвращать непредсказуемые последствия. Из этого следует важность тщательного анализа и контроля моделей при их внедрении в критически чувствительные сферы, такие как национальная безопасность и поддержка стратегических решений.
📚📚📚 Подробнее
🌐 https://www.kcl.ac.uk/shall-we-play-a-game
www.kcl.ac.uk
Shall we play a game?
Professor Kenneth Payne remarks on his latest study of LLMs navigating a nuclear simulation.
❤6😱6👍3🤔2✍1
Forwarded from ECONS
Когда говорят «рынок ИИ», создается ощущение, что это некое единое пространство. Но реальность иная.
Банк международных расчетов (BIS) обращает внимание: ИИ – это не один рынок, а цепочка из пяти уровней, от чипов и облаков до моделей и приложений. И все больше этих уровней концентрируется в руках одних и тех же глобальных компаний.
Каждый из уровней требует значительных инвестиций и выигрывает от масштаба и вертикальной интеграции. В результате именно крупнейшие игроки получают системные преимущества.
Особенности мирового рынка ИИ:
🔘 Среди 20 крупнейших мировых компаний в сфере ИИ семь базируются в США, и их совокупная капитализация более чем вдвое превышает капитализацию остальных 13 ИИ-гигантов.
🔘 Топ-20 ИИ-гигантов представлен всего пятью юрисдикциями: США, Китай, Тайвань, Южная Корея и Нидерланды.
🔘 Американские и китайские компании чаще всего присутствуют сразу на нескольких или на всех уровнях цепочки, от вычислительных ресурсов до приложений.
🔘 Остальные игроки, такие как TSMC или ASML, сохраняют узкую специализацию на критически важных компонентах (например, чипах).
🔘 Частные непубличные компании – OpenAI и Anthropic – лидируют в разработке моделей, но опираются на партнерства для доступа к инфраструктуре.
Макроэкономический вес ИИ-гигантов растет. К концу 2025 г. на их долю приходилось от 30% до 40% рыночной капитализации в США, на Тайване, в Южной Корее и Нидерландах. ИИ-гиганты также формируют существенную часть корпоративных инвестиций и выручки в этих юрисдикциях.
🔻 Это означает влияние на инвестиционные циклы мировой экономики, формирование совокупного спроса, производительность. «Когда движутся гиганты, земля может двигаться вместе с ними».
Вывод BIS: масштабы и вертикальная интеграция позволяют гигантам поглощать издержки и ускорять инновации. Однако высокая концентрация усложняет вход на рынок новых компаний и ограничивает конкуренцию. Вопрос ближайших лет – смогут ли регуляторы и национальные стратегии «суверенного ИИ» поддержать конкуренцию, не замедлив инновации.
ИИ становится инфраструктурой. А инфраструктура всегда имеет системное значение.
🔴 Подробнее читайте в статье на сайте «Эконс»
Банк международных расчетов (BIS) обращает внимание: ИИ – это не один рынок, а цепочка из пяти уровней, от чипов и облаков до моделей и приложений. И все больше этих уровней концентрируется в руках одних и тех же глобальных компаний.
Каждый из уровней требует значительных инвестиций и выигрывает от масштаба и вертикальной интеграции. В результате именно крупнейшие игроки получают системные преимущества.
Особенности мирового рынка ИИ:
Макроэкономический вес ИИ-гигантов растет. К концу 2025 г. на их долю приходилось от 30% до 40% рыночной капитализации в США, на Тайване, в Южной Корее и Нидерландах. ИИ-гиганты также формируют существенную часть корпоративных инвестиций и выручки в этих юрисдикциях.
Вывод BIS: масштабы и вертикальная интеграция позволяют гигантам поглощать издержки и ускорять инновации. Однако высокая концентрация усложняет вход на рынок новых компаний и ограничивает конкуренцию. Вопрос ближайших лет – смогут ли регуляторы и национальные стратегии «суверенного ИИ» поддержать конкуренцию, не замедлив инновации.
ИИ становится инфраструктурой. А инфраструктура всегда имеет системное значение.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸🇺🇸🇺🇸 Стремительная интеграция искусственного интеллекта в оборонный сектор США, которую активно продвигает администрация Дональда Трампа, оборачивается неожиданной и крайне опасной стороной.
В то время как Пентагон требует от технологических компаний снять все этические ограничения с ИИ ради национальной безопасности, реальность демонстрирует обратный эффект: нейросети, используемые военными, оказываются уязвимы для взлома и могут быть обращены против своих создателей. Центром этого противоречия стала компания Anthropic и ее модель Claude.
Разногласия между частью технологических компаний, стремящихся сохранить этические рамки использования ИИ, и оборонным ведомством США, которое настаивает на приоритетном и гибком доступе к передовым технологиям в интересах национальной безопасности, вышли на публичный уровень, когда Министр обороны США Пит Хегсет открыто обвинил компанию Anthropic в создании «риска для цепочки поставок с точки зрения национальной безопасности». Причина — отказ разработчика модели Claude смягчить внутренние протоколы безопасности и предоставить военным расширенный доступ к ИИ для оборонных задач без привычных ограничений.
Anthropic, в свою очередь, настаивает на соблюдении собственных принципов, включая запрет на автономное военное применение без участия человека. Однако, несмотря на эту позицию, инструменты Claude уже активно используются американскими военными. Как сообщает The Wall Street Journal, спустя всего несколько часов после объявления о прекращении использования инструментов ИИ, разработанных Anthropic, президент Трамп с помощью этих же инструментов нанес авиаудар по Ирану.
При этом система безопасности самого Anthropic оказалась уязвимой. Компания обвинила три китайские компании - DeepSeek, Moonshot AI и MiniMax - в систематическом извлечении контента и возможностей модели Claude для обучения собственных моделей. Для этого использовался метод «дистилляции» — обучение собственной модели на ответах более продвинутой системы, которое обычно используется для создания облегчённых версий ИИ. Anthropic считает, что в данном случае она была применена нелегально и в ущерб интеллектуальной собственности и может привести к тому, что «нелицензионные» модели утратят встроенные механизмы безопасности.
При этом компания признает, что в одиночку она не может справиться с этой проблемой и считает, что требуются скоординированные действия со стороны индустрии ИИ, облачных провайдеров, а также политического руководства стран.
🇲🇽🇲🇽🇲🇽 И если в этой ситуации речь идет пока только о гипотетических негативных последствиях, то в случае с «мексиканским взломом» все обстоит гораздо хуже. Злоумышленникам удалось взломать Claude и использовать его в масштабной кибератаке против правительственных агентств Мексики. В течение месяца хакеры похитили более 150 ГБ данных, включая записи 195 миллионов налогоплательщиков и документы национального избирательного института.
🛠😱🛠 Самое пугающее в этой истории — инструмент взлома. Это не было сложное вредоносное ПО. Это был обычный чат-бот, доступный каждому. Хакеры заставили ИИ игнорировать собственные алгоритмы безопасности через серию хитроумных подсказок. Когда Claude отказывался помогать, реагируя на «тревожные сигналы», взломщики дали ему подробный сценарий действий, который прошел сквозь фильтры. В итоге ИИ не только участвовал во взломе, но и генерировал подробные отчеты, указывая, какие системы атаковать следующими и какие учетные данные использовать. Когда Claude сталкивался с препятствием, хакеры обращались за советом к ChatGPT. Эта атака показала, что и «военный» ИИ может стать объектом взлома.
Мексиканский инцидент — лишь вершина айсберга. Согласно глобальному отчету CrowdStrike по угрозам за 2026 год, количество операций хакеров с поддержкой ИИ выросло на 89%. Среднее время взлома сократилось до 29 минут, а самый быстрый занял всего 27 секунд.
📚📚📚 Подробнее
🌐 https://www.washingtonpost.com
🌐 https://www.anthropic.com
🌐 https://venturebeat.com
🌐 https://www.wsj.com
В то время как Пентагон требует от технологических компаний снять все этические ограничения с ИИ ради национальной безопасности, реальность демонстрирует обратный эффект: нейросети, используемые военными, оказываются уязвимы для взлома и могут быть обращены против своих создателей. Центром этого противоречия стала компания Anthropic и ее модель Claude.
Разногласия между частью технологических компаний, стремящихся сохранить этические рамки использования ИИ, и оборонным ведомством США, которое настаивает на приоритетном и гибком доступе к передовым технологиям в интересах национальной безопасности, вышли на публичный уровень, когда Министр обороны США Пит Хегсет открыто обвинил компанию Anthropic в создании «риска для цепочки поставок с точки зрения национальной безопасности». Причина — отказ разработчика модели Claude смягчить внутренние протоколы безопасности и предоставить военным расширенный доступ к ИИ для оборонных задач без привычных ограничений.
Anthropic, в свою очередь, настаивает на соблюдении собственных принципов, включая запрет на автономное военное применение без участия человека. Однако, несмотря на эту позицию, инструменты Claude уже активно используются американскими военными. Как сообщает The Wall Street Journal, спустя всего несколько часов после объявления о прекращении использования инструментов ИИ, разработанных Anthropic, президент Трамп с помощью этих же инструментов нанес авиаудар по Ирану.
При этом система безопасности самого Anthropic оказалась уязвимой. Компания обвинила три китайские компании - DeepSeek, Moonshot AI и MiniMax - в систематическом извлечении контента и возможностей модели Claude для обучения собственных моделей. Для этого использовался метод «дистилляции» — обучение собственной модели на ответах более продвинутой системы, которое обычно используется для создания облегчённых версий ИИ. Anthropic считает, что в данном случае она была применена нелегально и в ущерб интеллектуальной собственности и может привести к тому, что «нелицензионные» модели утратят встроенные механизмы безопасности.
При этом компания признает, что в одиночку она не может справиться с этой проблемой и считает, что требуются скоординированные действия со стороны индустрии ИИ, облачных провайдеров, а также политического руководства стран.
🇲🇽🇲🇽🇲🇽 И если в этой ситуации речь идет пока только о гипотетических негативных последствиях, то в случае с «мексиканским взломом» все обстоит гораздо хуже. Злоумышленникам удалось взломать Claude и использовать его в масштабной кибератаке против правительственных агентств Мексики. В течение месяца хакеры похитили более 150 ГБ данных, включая записи 195 миллионов налогоплательщиков и документы национального избирательного института.
🛠😱🛠 Самое пугающее в этой истории — инструмент взлома. Это не было сложное вредоносное ПО. Это был обычный чат-бот, доступный каждому. Хакеры заставили ИИ игнорировать собственные алгоритмы безопасности через серию хитроумных подсказок. Когда Claude отказывался помогать, реагируя на «тревожные сигналы», взломщики дали ему подробный сценарий действий, который прошел сквозь фильтры. В итоге ИИ не только участвовал во взломе, но и генерировал подробные отчеты, указывая, какие системы атаковать следующими и какие учетные данные использовать. Когда Claude сталкивался с препятствием, хакеры обращались за советом к ChatGPT. Эта атака показала, что и «военный» ИИ может стать объектом взлома.
Мексиканский инцидент — лишь вершина айсберга. Согласно глобальному отчету CrowdStrike по угрозам за 2026 год, количество операций хакеров с поддержкой ИИ выросло на 89%. Среднее время взлома сократилось до 29 минут, а самый быстрый занял всего 27 секунд.
📚📚📚 Подробнее
🌐 https://www.washingtonpost.com
🌐 https://www.anthropic.com
🌐 https://venturebeat.com
🌐 https://www.wsj.com
The Washington Post
Pentagon assault on Anthropic sends shockwaves across Silicon Valley
After Defense Secretary Pete Hegseth said that a start-up providing AI to the U.S. military was a security risk, rivals including Elon Musk pledged to patriotically fill the gap.
🔥3😱2
🇸🇬🇸🇬🇸🇬 Денежно-кредитное управление Сингапура (MAS) в конце прошлого года вынесло на обсуждение подготовленный им консультационный документ - Руководящие принципы по управлению рисками, связанными с искусственным интеллектом, включая генеративные нейросети и ИИ-агенты.
💡💡💡Главная цель документа — создать универсальный, гибкий стандарт управления рисками ИИ, который будет применим ко всем финансовым институтам (банкам, страховым и инвестиционным компаниям).
🔑🔑🔑 Ключевой принцип здесь — пропорциональность. Стартап и глобальный банковский гигант используют ИИ с разной степенью интенсивности и влияния на рынок. Поэтому требования должны применяться соразмерно масштабу деятельности, сложности используемых моделей и общему профилю риска конкретной организации.
Структура надзорных ожиданий MAS выстроена вокруг четырех ключевых областей:
🔸 Надзор со стороны совета директоров и высшего руководства.
🔸 Внедрение систем идентификации и инвентаризации (реестр решений на базе ИИ).
🔸 Оценка существенности риска по ряду параметров (влияние на бизнес и клиентов в случае сбоя, техническая сложность модели и степень зависимости критических операций от данного ИИ).
🔸 Контроль на протяжении всего жизненного цикла ИИ.
Обсуждение Руководящих принципов завершилось 31 января.
В ответ на это ведущая международная индустриальная ассоциация FIX Trading Community выпустила развернутый документ с 10 ключевыми рекомендациями рынку. По сути, это дорожная карта того, как финансовым компаниям внедрять ИИ, не ломая рынок.
1️⃣ Единый правовой язык. Нужно согласованное определение и глобальная таксономия, что считать «ИИ» в трейдинге. Иначе каждая компания будет трактовать понятие ИИ по-своему, что приведет к несогласованности рынков и регуляторных практик. Базой могут стать стандарты ISO 24030 и C2PA.
2️⃣ Ответственность Совета директоров. Индустрия хотчет видеть топ-менеджмент ответственным не просто за наличие ИИ, а за эффективность управления им.
3️⃣ Опора на старые рельсы. Новые правила не обязательно изобретать с нуля. Предлагается «приземлить» ИИ в существующие контуры операционной устойчивости и целостности рынка: MiFID RTS 6 ( ежегодная и валидация компаниями своих алгоритмических торговых систем) и Закон ЕС о цифровой операционной устойчивости DORA (управление ICT-рисками).
4️⃣ Особый взгляд на LLM. Интеграция языковых моделей в расчеты и рабочие процессы требует отдельного анализа их влияния на принятие решений и последствия для рабочих процессов.
5️⃣ Специальные межфункциональные комитеты. Управление рисками должно быть кросс-функциональным и включать контроль за сторонними поставщиками ИИ-решений (ведь часто именно там «черный ящик»).
6️⃣ Раскрытие информации. Компаниям предлагают внедрить шаблоны раскрытия информации по принципу маркировки продуктов питания: на каких данных обучали ИИ, какие ограничения, как тестировали, какие результаты и как защищены данные пользователей.
7️⃣ Инвентаризация. Вести учет всех ИИ-систем придется с уровнем детализации, далеко выходящим за рамки обычного списка алгоритмов.
8️⃣ Новые метрики риска. К стандартным измерениям риска предлагают добавить два критических параметра: взаимосвязанность (способность заражать другие системы) и чувствительность к изменениям (эффект бабочки, когда малый сдвиг в данных ломает поведение модели ИИ).
9️⃣ Сквозной контроль. Стандарты и контроль должны работать на всем жизненном цикле ИИ — от разработки до вывода из эксплуатации.
🔟 Пересмотр определения «существенного изменения». Что считать серьезным изменением в алгоритме? Теперь это не только новый код, но и переобучение, смена данных, тонкая настройка или даже изменение инфраструктуры. Любое такое действие должно проходить четкий риск-тест и при необходимости - повторное подтверждение.
📚📚📚 Подробнее
https://www.mas.gov.sg/publications/consultations/2025/consultation-paper-on-guidelines-on-artificial-intelligence-risk-management
https://mondovisione.com/media-and-resources/news/fix-recommends-regulatory-approaches-to-ai-in-trading-monetary-authority-of-sin-2026210/
💡💡💡Главная цель документа — создать универсальный, гибкий стандарт управления рисками ИИ, который будет применим ко всем финансовым институтам (банкам, страховым и инвестиционным компаниям).
🔑🔑🔑 Ключевой принцип здесь — пропорциональность. Стартап и глобальный банковский гигант используют ИИ с разной степенью интенсивности и влияния на рынок. Поэтому требования должны применяться соразмерно масштабу деятельности, сложности используемых моделей и общему профилю риска конкретной организации.
Структура надзорных ожиданий MAS выстроена вокруг четырех ключевых областей:
🔸 Надзор со стороны совета директоров и высшего руководства.
🔸 Внедрение систем идентификации и инвентаризации (реестр решений на базе ИИ).
🔸 Оценка существенности риска по ряду параметров (влияние на бизнес и клиентов в случае сбоя, техническая сложность модели и степень зависимости критических операций от данного ИИ).
🔸 Контроль на протяжении всего жизненного цикла ИИ.
Обсуждение Руководящих принципов завершилось 31 января.
В ответ на это ведущая международная индустриальная ассоциация FIX Trading Community выпустила развернутый документ с 10 ключевыми рекомендациями рынку. По сути, это дорожная карта того, как финансовым компаниям внедрять ИИ, не ломая рынок.
1️⃣ Единый правовой язык. Нужно согласованное определение и глобальная таксономия, что считать «ИИ» в трейдинге. Иначе каждая компания будет трактовать понятие ИИ по-своему, что приведет к несогласованности рынков и регуляторных практик. Базой могут стать стандарты ISO 24030 и C2PA.
2️⃣ Ответственность Совета директоров. Индустрия хотчет видеть топ-менеджмент ответственным не просто за наличие ИИ, а за эффективность управления им.
3️⃣ Опора на старые рельсы. Новые правила не обязательно изобретать с нуля. Предлагается «приземлить» ИИ в существующие контуры операционной устойчивости и целостности рынка: MiFID RTS 6 ( ежегодная и валидация компаниями своих алгоритмических торговых систем) и Закон ЕС о цифровой операционной устойчивости DORA (управление ICT-рисками).
4️⃣ Особый взгляд на LLM. Интеграция языковых моделей в расчеты и рабочие процессы требует отдельного анализа их влияния на принятие решений и последствия для рабочих процессов.
5️⃣ Специальные межфункциональные комитеты. Управление рисками должно быть кросс-функциональным и включать контроль за сторонними поставщиками ИИ-решений (ведь часто именно там «черный ящик»).
6️⃣ Раскрытие информации. Компаниям предлагают внедрить шаблоны раскрытия информации по принципу маркировки продуктов питания: на каких данных обучали ИИ, какие ограничения, как тестировали, какие результаты и как защищены данные пользователей.
7️⃣ Инвентаризация. Вести учет всех ИИ-систем придется с уровнем детализации, далеко выходящим за рамки обычного списка алгоритмов.
8️⃣ Новые метрики риска. К стандартным измерениям риска предлагают добавить два критических параметра: взаимосвязанность (способность заражать другие системы) и чувствительность к изменениям (эффект бабочки, когда малый сдвиг в данных ломает поведение модели ИИ).
9️⃣ Сквозной контроль. Стандарты и контроль должны работать на всем жизненном цикле ИИ — от разработки до вывода из эксплуатации.
🔟 Пересмотр определения «существенного изменения». Что считать серьезным изменением в алгоритме? Теперь это не только новый код, но и переобучение, смена данных, тонкая настройка или даже изменение инфраструктуры. Любое такое действие должно проходить четкий риск-тест и при необходимости - повторное подтверждение.
📚📚📚 Подробнее
https://www.mas.gov.sg/publications/consultations/2025/consultation-paper-on-guidelines-on-artificial-intelligence-risk-management
https://mondovisione.com/media-and-resources/news/fix-recommends-regulatory-approaches-to-ai-in-trading-monetary-authority-of-sin-2026210/
www.mas.gov.sg
Consultation Paper on Proposed Guidelines on Artificial Intelligence Risk Management for Financial Institutions
👍3👏1