ИИ-инициативы: разные цели - разные риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.
Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.
Основной определяющий фактор - цель использования: зачем и где его применяют.
Примеры зависимости рисков от цели:
⚙️ Оптимизация процессов и затрат за счет ИИ: может повлечь риски ухудшения качества, скрытые ошибки, зависимость от "чёрного ящика".
👨💻 Разработка новых продуктов или написание кода с ИИ может привести к уязвимостям/ инцидентам/ репутационным/правовым последствиям.
❤️ Внедрение ИИ в маркетинг, HR и другие функции, ориентированные на людей, могут влиять на этические риски, нарушения прав/законодательства о персональных данных.
Кроме цели на профиль рисков влияют и другие параметры:
• контекст использования (внешний или внутренний, публичный/скрытый);
• уровень зрелости.
❓Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.
📝 Что стоит учесть/ зафиксировать компаниям:
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.
*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).
Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?
Чуть позже добавлю ещё одну мысль, если тема интересна.
#ИИ #управлениерисками
#ИИ_риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.
Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.
Основной определяющий фактор - цель использования: зачем и где его применяют.
Примеры зависимости рисков от цели:
Кроме цели на профиль рисков влияют и другие параметры:
• контекст использования (внешний или внутренний, публичный/скрытый);
• уровень зрелости.
❓Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.
*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).
Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?
Чуть позже добавлю ещё одну мысль, если тема интересна.
#ИИ #управлениерисками
#ИИ_риски
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏3🔥2
ИИ инициативы: риски невнедрения
В продолжение темы рисков, связанных с использованием ИИ, хочу подкинуть ещё одну - о рисках неиспользования ИИ в своих процессах и продуктах...
Штурм с ChatGPT подсветил следующие риски:
🔥 Стратегические:
• потеря конкурентоспособности (компания будет отставать от конкурентов в темпе изменений);
• замедление темпов роста (ИИ способен находить новые источники выручки, предлагать продуктовые гипотезы, т.д.);
• утрата актуальности бизнес- модели.
🔥 Операционные:
• неэффективность процессов;
• рост издержек, перегрузка/нерациональное использование персонала.
🔥 Технологические и инфраструктурные:
• устаревание ИТ-ландшафта;
• накопление тех.долга (далее внедрение будет сложнее и дороже).
🔥 Человеческий капитал:
• влияние на HR бренд (эксперты не хотят работать в аналоговых компаниях без перспектив внедрения ИИ/молодежь ожидает цифровые инструменты и ИИ-ассистентов);
• зависимость от узких специалистов.
🔥 Репутационные и рыночные риски:
• образ технологически "отсталой" компании в глазах клиентов, партнеров, инвесторов.
В общем, в дополнение к оценке эффективности управления рисками, связанными с использованием ИИ, похоже аудиторам пора подумать - как будем оценивать работу с рисками от невнедрения и отсутствия ИИ-Стратегии))
Как считаете, какой набор рисков для вашей сферы/компании кажется более реалистичным?
#ИИ #ИИ_риски
В продолжение темы рисков, связанных с использованием ИИ, хочу подкинуть ещё одну - о рисках неиспользования ИИ в своих процессах и продуктах...
Штурм с ChatGPT подсветил следующие риски:
• потеря конкурентоспособности (компания будет отставать от конкурентов в темпе изменений);
• замедление темпов роста (ИИ способен находить новые источники выручки, предлагать продуктовые гипотезы, т.д.);
• утрата актуальности бизнес- модели.
• неэффективность процессов;
• рост издержек, перегрузка/нерациональное использование персонала.
• устаревание ИТ-ландшафта;
• накопление тех.долга (далее внедрение будет сложнее и дороже).
• влияние на HR бренд (эксперты не хотят работать в аналоговых компаниях без перспектив внедрения ИИ/молодежь ожидает цифровые инструменты и ИИ-ассистентов);
• зависимость от узких специалистов.
• образ технологически "отсталой" компании в глазах клиентов, партнеров, инвесторов.
В общем, в дополнение к оценке эффективности управления рисками, связанными с использованием ИИ, похоже аудиторам пора подумать - как будем оценивать работу с рисками от невнедрения и отсутствия ИИ-Стратегии))
Как считаете, какой набор рисков для вашей сферы/компании кажется более реалистичным?
#ИИ #ИИ_риски
Please open Telegram to view this post
VIEW IN TELEGRAM
👏10🔥8❤1