Дизайнер интерфейсов как субъект AI-комплаенса: вы не только проектируете интерфейсы — вы формируете риски
Когда говорят об «AI-комплаенсе», обычно думают об юристах, разработчиках или CTO, но legal знания дизайнеров интерфейса вашего продукта помогут уменьшить риски штрафов и сэкономить на изменениях при разработке проекта. Сделать со старта всегда проще….
По AI Act Deployer — это физическое или юридическое лицо, государственный орган, агентство или другая структура, использующая ИИ систему под своим контролем, за исключением личного непрофессионального использования (Статья 3(4), Recital 13 EU AI Act).
Cмотрим на примерах, как UX/UI-решения влияют на соблюдение закона:
- скрытие AI-функций нарушает прозрачность (статья 50 EU AI Act): пользователь должен понимать, что взаимодействует с ИИ.
- системы ИИ, которые применяют преднамеренно манипулятивные или обманные методы (CTA или UX-паттерны) могут быть отнесены к запрещённым практикам (статья 5 EU AI Act).
- High-risk ИИ без контроля человека нарушает закон (гл. 2, ст. 26–29)
Пример: если организация развёртывает чат-бот на чувствительные темы и не говорит, что это ИИ — это нарушение даже, если вы не писали код.
Разберем некоторые требования закона:
1️⃣ Прозрачность (ст. 50 EU AI Act)
Пользователь должен ясно понимать, что он взаимодействует с ИИ, каковы его возможности и ограничения.
UI-формулировки:
🔹На старте общения с ИИ:
"Этот чат управляется искусственным интеллектом."
"Вы разговариваете с автоматизированной системой, а не с человеком."
🔹 В кнопках и действиях:
"Спросить ИИ" вместо "Получить помощь"
"Сгенерировать с помощью AI" вместо просто "Создать"
🔹В описании функций:
"Эта функция использует AI для подбора рекомендаций. Алгоритмы могут ошибаться."
2️⃣ Предотвращение манипулятивного UX (ст. 5 EU AI Act)
Проверить, что:
- пользователь информируется о возможных рисках/ошибках/ограничениях
Пример: "Продолжить без чтения" — не ок.
- есть ли отдельный шаг согласия на использование AI или обработки данных.
- варианты выбора оформлены равнозначно, н
- нет "pre-checked" чекбоксов без объяснений
- подтверждение согласия — явно, а не по умолчанию
Примеры: всплывающее окно согласия "ОК" (без объяснения, к чему согласие) заменить на "Согласен на использование ИИ-советника".
Автогенерация контента "Создать" (неясно, человек или AI) заменить на "Сгенерировать с помощью ИИ".
Рекомендации при выборе продукта "Лучший выбор" (на основе AI) заменить на "Рекомендовано алгоритмом — подробнее".
3️⃣ Контроль и надзор (ст. 13, 14, EU AI Act)
В системах высокого риска должен быть понятный способ обратиться к человеку, отказаться от ИИ или подать жалобу.
Примеры формулировок:
- "Не помогло? Поговорить с оператором"
- "Вы можете отключить автоматическое принятие решений в настройках."
- "Жалоба на работу AI — нажмите здесь"
-"Этот ответ был сгенерирован автоматически. Проверьте достоверность."
Помните, что формулировка, стиль и оформление "каких-то" кнопок - юридически значимы.
#UXWatch
@pattern_ai
Когда говорят об «AI-комплаенсе», обычно думают об юристах, разработчиках или CTO, но legal знания дизайнеров интерфейса вашего продукта помогут уменьшить риски штрафов и сэкономить на изменениях при разработке проекта. Сделать со старта всегда проще….
По AI Act Deployer — это физическое или юридическое лицо, государственный орган, агентство или другая структура, использующая ИИ систему под своим контролем, за исключением личного непрофессионального использования (Статья 3(4), Recital 13 EU AI Act).
Cмотрим на примерах, как UX/UI-решения влияют на соблюдение закона:
- скрытие AI-функций нарушает прозрачность (статья 50 EU AI Act): пользователь должен понимать, что взаимодействует с ИИ.
- системы ИИ, которые применяют преднамеренно манипулятивные или обманные методы (CTA или UX-паттерны) могут быть отнесены к запрещённым практикам (статья 5 EU AI Act).
- High-risk ИИ без контроля человека нарушает закон (гл. 2, ст. 26–29)
Пример: если организация развёртывает чат-бот на чувствительные темы и не говорит, что это ИИ — это нарушение даже, если вы не писали код.
Разберем некоторые требования закона:
1️⃣ Прозрачность (ст. 50 EU AI Act)
Пользователь должен ясно понимать, что он взаимодействует с ИИ, каковы его возможности и ограничения.
UI-формулировки:
🔹На старте общения с ИИ:
"Этот чат управляется искусственным интеллектом."
"Вы разговариваете с автоматизированной системой, а не с человеком."
🔹 В кнопках и действиях:
"Спросить ИИ" вместо "Получить помощь"
"Сгенерировать с помощью AI" вместо просто "Создать"
🔹В описании функций:
"Эта функция использует AI для подбора рекомендаций. Алгоритмы могут ошибаться."
2️⃣ Предотвращение манипулятивного UX (ст. 5 EU AI Act)
Проверить, что:
- пользователь информируется о возможных рисках/ошибках/ограничениях
Пример: "Продолжить без чтения" — не ок.
- есть ли отдельный шаг согласия на использование AI или обработки данных.
- варианты выбора оформлены равнозначно, н
- нет "pre-checked" чекбоксов без объяснений
- подтверждение согласия — явно, а не по умолчанию
Примеры: всплывающее окно согласия "ОК" (без объяснения, к чему согласие) заменить на "Согласен на использование ИИ-советника".
Автогенерация контента "Создать" (неясно, человек или AI) заменить на "Сгенерировать с помощью ИИ".
Рекомендации при выборе продукта "Лучший выбор" (на основе AI) заменить на "Рекомендовано алгоритмом — подробнее".
3️⃣ Контроль и надзор (ст. 13, 14, EU AI Act)
В системах высокого риска должен быть понятный способ обратиться к человеку, отказаться от ИИ или подать жалобу.
Примеры формулировок:
- "Не помогло? Поговорить с оператором"
- "Вы можете отключить автоматическое принятие решений в настройках."
- "Жалоба на работу AI — нажмите здесь"
-"Этот ответ был сгенерирован автоматически. Проверьте достоверность."
Помните, что формулировка, стиль и оформление "каких-то" кнопок - юридически значимы.
#UXWatch
@pattern_ai
🔥3
Примерный чек-лист для проверки дизайна интерфейса.
В комментариях можно добавить свои предложения.
#UXWatch
@pattern_ai
В комментариях можно добавить свои предложения.
#UXWatch
@pattern_ai
🔥2
Обучающие курсы EDPB по ИИ и защите данных
Европейский совет по защите данных (EDPB) выпустил два мощных учебных пособия для разработчиков, специалистов по безопасности и защите данных. Идеальный материал, чтобы усилить команду:
1. Law & Compliance in AI Security & Data Protection
Основные темы:
▪️Основы ИИ и их влияние на защиту персональных данных;
▪️Правовые риски на протяжении всего жизненного цикла ИИ: проектирование -> развертывание -> вывод из эксплуатации;
▪️Практические примеры, иллюстрирующие проблемы соответствия GDPR и Закону об ИИ;
2. Fundamentals of Secure AI Systems with Personal Data
Основные темы:
▪️Жизненный цикл ИИ: от сбора данных до вывода из эксплуатации;
▪️Разработка системы ИИ с учетом надлежащих практик кодирования, использование безопасных песочниц, тестирования безопасности разрабатываемых систем ИИ;
▪️Методы разработки и развертывания;
▪️Как проводить аудит: техническая, юридическая, этическая оценка;
В следующем посте разберём, как эти знания применяются на практике:
- Как проверять уязвимости в ML-библиотеках
- Как защититься от опасных моделей и supply chain-атак
- И какие инструменты использовать прямо сейчас
#BehindTheMachine
@pattern_ai
Европейский совет по защите данных (EDPB) выпустил два мощных учебных пособия для разработчиков, специалистов по безопасности и защите данных. Идеальный материал, чтобы усилить команду:
1. Law & Compliance in AI Security & Data Protection
Основные темы:
▪️Основы ИИ и их влияние на защиту персональных данных;
▪️Правовые риски на протяжении всего жизненного цикла ИИ: проектирование -> развертывание -> вывод из эксплуатации;
▪️Практические примеры, иллюстрирующие проблемы соответствия GDPR и Закону об ИИ;
2. Fundamentals of Secure AI Systems with Personal Data
Основные темы:
▪️Жизненный цикл ИИ: от сбора данных до вывода из эксплуатации;
▪️Разработка системы ИИ с учетом надлежащих практик кодирования, использование безопасных песочниц, тестирования безопасности разрабатываемых систем ИИ;
▪️Методы разработки и развертывания;
▪️Как проводить аудит: техническая, юридическая, этическая оценка;
В следующем посте разберём, как эти знания применяются на практике:
- Как проверять уязвимости в ML-библиотеках
- Как защититься от опасных моделей и supply chain-атак
- И какие инструменты использовать прямо сейчас
#BehindTheMachine
@pattern_ai
❤1
Часть 2: Анализ уязвимостей в ИИ и практики безопасной разработки - cмотрим, как проверить уязвимости при использованиие библиотек с открытым исходным кодом
Ни одна библиотека не застрахована от уязвимостей, особенно в сложных экосистемах с десятками транзитивных зависимостей и частыми обновлениями.
Анализ и рекомендации ниже основаны на разделе 6.4 обучающего курса “Fundamentals of Secure AI Systems with Personal Data” из программы Support Pool of Experts, подготовленного по заказу (EDPB).
1. Используйте надежные источники:
Всегда устанавливайте библиотеки из официальных репозиториев (PyPI, Conda, GitHub orgs).
Проверяйте целостность с помощью контрольных сумм или цифровых подписей, если они доступны.
2. Отслеживайте CVE (распространенные уязвимости и риски) через:
Snyk, OSV.dev, pip-audit
3. Проводите анализ зависимостей:
Конвейеры машинного обучения часто включают десятки косвенных зависимостей.
Используйте такие инструменты, как pipdeptree (для сопоставления и анализа деревьев пакетов)
pip-audit (для проверки на известные уязвимости), Dependency-Check
5. Мониторинг сетевого трафика:
Некоторые библиотеки машинного обучения могут автоматически загружать наборы данных или данные телеметрии.
Используйте
6. Обучение модели:
- Предварительная обработка данных вывода
- Изолируйте среду машинного обучения
- Используйте контейнеризацию или виртуальные среды Docker, Singularity или через настройку виртуальных окружений с
Преимущества: ограничение ущерба в случае компрометации, лучшая зависимость и контроль версий, более простой аудит и воспроизводимость.
Помним, что ни одна модель не безопасна по умолчанию. Из распространенных угроз:
▪️Бэкдоры - в модель встроена вредоносная логика. Активируется только при определенных входных данных (например, определенных шаблонах изображений).
▪️Отравление чистой меткой. Данные кажутся правильно помеченными, но вызывают вредоносное поведение после обучения.
▪️ Эксплойты переноса обучения. Отравленные шаблоны выдерживают тонкую настройку и распространяются на последующие задачи.
▪️ Неизвестное происхождение. Если данные или процесс обучения непрозрачны, они могут вносить предвзятости, уязвимости, необнаруживаемые манипуляции, поддельные файлы
Загруженные модели могут быть напрямую изменены вредоносными полезными нагрузками.
#BehindTheMachine
@pattern_ai
Ни одна библиотека не застрахована от уязвимостей, особенно в сложных экосистемах с десятками транзитивных зависимостей и частыми обновлениями.
Анализ и рекомендации ниже основаны на разделе 6.4 обучающего курса “Fundamentals of Secure AI Systems with Personal Data” из программы Support Pool of Experts, подготовленного по заказу (EDPB).
1. Используйте надежные источники:
Всегда устанавливайте библиотеки из официальных репозиториев (PyPI, Conda, GitHub orgs).
Проверяйте целостность с помощью контрольных сумм или цифровых подписей, если они доступны.
2. Отслеживайте CVE (распространенные уязвимости и риски) через:
Snyk, OSV.dev, pip-audit
3. Проводите анализ зависимостей:
Конвейеры машинного обучения часто включают десятки косвенных зависимостей.
Используйте такие инструменты, как pipdeptree (для сопоставления и анализа деревьев пакетов)
pip-audit (для проверки на известные уязвимости), Dependency-Check
5. Мониторинг сетевого трафика:
Некоторые библиотеки машинного обучения могут автоматически загружать наборы данных или данные телеметрии.
Используйте
netstat
, tcpdump
или брандмауэры для мониторинга исходящего трафика во время:6. Обучение модели:
- Предварительная обработка данных вывода
- Изолируйте среду машинного обучения
- Используйте контейнеризацию или виртуальные среды Docker, Singularity или через настройку виртуальных окружений с
venv
Преимущества: ограничение ущерба в случае компрометации, лучшая зависимость и контроль версий, более простой аудит и воспроизводимость.
Помним, что ни одна модель не безопасна по умолчанию. Из распространенных угроз:
▪️Бэкдоры - в модель встроена вредоносная логика. Активируется только при определенных входных данных (например, определенных шаблонах изображений).
▪️Отравление чистой меткой. Данные кажутся правильно помеченными, но вызывают вредоносное поведение после обучения.
▪️ Эксплойты переноса обучения. Отравленные шаблоны выдерживают тонкую настройку и распространяются на последующие задачи.
▪️ Неизвестное происхождение. Если данные или процесс обучения непрозрачны, они могут вносить предвзятости, уязвимости, необнаруживаемые манипуляции, поддельные файлы
Загруженные модели могут быть напрямую изменены вредоносными полезными нагрузками.
#BehindTheMachine
@pattern_ai
Список бесплатных курсов по AI
1. Introduction to Generative AI Learning Path | Google
2. AI for Beginners| Microsoft
3. CS50's Introduction to Artificial Intelligence with Python|Harvard
4. AI For Everyone|DeepLearning.ai
5. AI in Education: Leveraging ChatGPT for Teaching
6. Prompt Engineering for ChatGPT|Vanderbilt University
7. ChatGPT Prompt Engineering for Developer |OpenAI
8. Agentic AI and AI Agents for Leaders Specialization|Vanderbilt University
9. LLMOps | Google Cloud
10. Big Data, Artificial Intelligence, and Ethics |University of California
11. AI Applications and Prompt Engineering|edX
12. Introduction to Artificial Intelligence (AI) |IBM
13. Generative AI: Introduction and Applications|IBM
14. Generative AI for Executives and Business Leaders Specialization|IBM
15. Generative AI and LLMs: Architecture and Data Preparation|IBM
16. Gen AI Foundational Models for NLP & Language Understanding|IBM
17. Fundamentals of AI Agents Using RAG and LangChain|IBM
18. Advanced Large Language Model Agents - есть записи и подборка статей
19. AI Agentic Design Patterns with AutoGen | Microsoft
20. AI Agents in LangGraph|LangChain
21. Serverless Agentic Workflows with Amazon Bedrock|AWS
22. AI Fluency: The AI Fluency Framework|Anthropic
Напомню, что на Coursera кроме опции free trial можно проходить курсы без получения сертификата бесплатно, кликнув "Enroll for free", потом найти мелкую надпись "Audit this course", также можно запросить финансовую помощь, если сертификат очень нужен.
#AIShelf
@pattern_ai
1. Introduction to Generative AI Learning Path | Google
2. AI for Beginners| Microsoft
3. CS50's Introduction to Artificial Intelligence with Python|Harvard
4. AI For Everyone|DeepLearning.ai
5. AI in Education: Leveraging ChatGPT for Teaching
6. Prompt Engineering for ChatGPT|Vanderbilt University
7. ChatGPT Prompt Engineering for Developer |OpenAI
8. Agentic AI and AI Agents for Leaders Specialization|Vanderbilt University
9. LLMOps | Google Cloud
10. Big Data, Artificial Intelligence, and Ethics |University of California
11. AI Applications and Prompt Engineering|edX
12. Introduction to Artificial Intelligence (AI) |IBM
13. Generative AI: Introduction and Applications|IBM
14. Generative AI for Executives and Business Leaders Specialization|IBM
15. Generative AI and LLMs: Architecture and Data Preparation|IBM
16. Gen AI Foundational Models for NLP & Language Understanding|IBM
17. Fundamentals of AI Agents Using RAG and LangChain|IBM
18. Advanced Large Language Model Agents - есть записи и подборка статей
19. AI Agentic Design Patterns with AutoGen | Microsoft
20. AI Agents in LangGraph|LangChain
21. Serverless Agentic Workflows with Amazon Bedrock|AWS
22. AI Fluency: The AI Fluency Framework|Anthropic
Напомню, что на Coursera кроме опции free trial можно проходить курсы без получения сертификата бесплатно, кликнув "Enroll for free", потом найти мелкую надпись "Audit this course", также можно запросить финансовую помощь, если сертификат очень нужен.
#AIShelf
@pattern_ai
🔥2
ИИ помогает людям формировать свои привычки
Ч.1.
Каждую неделю миллионы людей по всему миру говорят себе: «С понедельника начну новую жизнь». Но, по данным исследований, лишь 8% действительно достигают поставленных целей.
Тем временем средняя ставка лайф-коуча по миру - $175 в час, число коучей только растёт. На этом фоне возникает резонный вопрос: может ли ИИ стать тем самым помощником, который действительно поможет вам изменить себя и свою жизнь?
Например, согласно исследованиям, 71% людей стали заниматься спортом регулярнее, используя ИИ-чат-ботов для сопровождения тренировок.
Эксперты стараются внедрять ИИ в свои продукты:
▪️AI-генерация визуалов (Reelmind.ai) - создание инфографики и обучающих изображений, улучшает понимание клиентами рационов и макронутриентов;
▪️AI-транскрипция консультаций ускоряет документацию, позволяет уделить больше внимания клиентам (PatientNotes) и тп.
В коучинге:
▪️AIIR Consulting (2023) -закрепление нового поведения между коуч-сессиями;
▪️ Ovida (2022) - анализ эффективности коуча на основе ИИ-наблюдения;
▪️Coach Vici (2021) - сопровождение клиентов по целям.
▪️VITA (2023) - анализ речи и мимики в видеоформате, адаптация коучинга под эмоциональное состояние, улучшает благополучие;
▪️Coaching Copilot — гибрид чат‑бота + живого коуча, помогает в рефлексии лидерских тем.
Посмотрим, что доступно каждому пользователю прямо сейчас.
Ч.1.
Каждую неделю миллионы людей по всему миру говорят себе: «С понедельника начну новую жизнь». Но, по данным исследований, лишь 8% действительно достигают поставленных целей.
Тем временем средняя ставка лайф-коуча по миру - $175 в час, число коучей только растёт. На этом фоне возникает резонный вопрос: может ли ИИ стать тем самым помощником, который действительно поможет вам изменить себя и свою жизнь?
Например, согласно исследованиям, 71% людей стали заниматься спортом регулярнее, используя ИИ-чат-ботов для сопровождения тренировок.
Эксперты стараются внедрять ИИ в свои продукты:
▪️AI-генерация визуалов (Reelmind.ai) - создание инфографики и обучающих изображений, улучшает понимание клиентами рационов и макронутриентов;
▪️AI-транскрипция консультаций ускоряет документацию, позволяет уделить больше внимания клиентам (PatientNotes) и тп.
В коучинге:
▪️AIIR Consulting (2023) -закрепление нового поведения между коуч-сессиями;
▪️ Ovida (2022) - анализ эффективности коуча на основе ИИ-наблюдения;
▪️Coach Vici (2021) - сопровождение клиентов по целям.
▪️VITA (2023) - анализ речи и мимики в видеоформате, адаптация коучинга под эмоциональное состояние, улучшает благополучие;
▪️Coaching Copilot — гибрид чат‑бота + живого коуча, помогает в рефлексии лидерских тем.
Посмотрим, что доступно каждому пользователю прямо сейчас.
❤2
Сервисы и промты: от повседневных привычек до изменения мышления
Ч.2.
📌 Многочисленные ИИ-платформы и приложения:
1. Ash – персональный ИИ-консультант, помогает ставить цели, вести рефлексию, внедрять новые привычки.
2. Habitcoach - персональный коуч, в режиме диалога с другом помогает разобраться с постановкой целей и их достижением.
3. FitGPT – создаёт персональный план тренировок и питания.
4.Earkick - автоматическое определение вашего психического состояния и дальнейшие шаги.
5. Neurofit - приложение, объединившее нейронауку и AI для борьбы с хроническим стрессом, анализирует физиологию и дает ежедневные рекомендации.
📌 Различные GPT-ассистенты:
▪️ GPT-ассистент по атомным привычкам (по Джеймсу Клиру) - разбивает большую цель на систему и шаги, подбирает визуальные якоря и обучающее видео.
▪️Специалист по масштабированию - помогает преодолеть застой в карьере, бизнесе или личной жизни, найти путь развития.
📌 Просто промты (например,от Дамира Халилова):
▪️Промт-интервью для новой жизни
‼️ Помните, что ИИ может быть полезен, но он не всегда безопасен, будьте осознанны.
- Расследование 404 Media показало, что ИИ-боты могут выдавать себя за лицензированных терапевтов, придумывать фальшивые номера дипломов и обещать полную конфиденциальность — что не является правдой.
- Вы делитесь персональными данными с системами, не всегда ясно, как они хранятся, используются, защищаются.
- Качество ИИ, как инструмента ( галлюцинации, качество данных и т.п.).
- ИИ не заменяет живого специалиста, особенно в вопросах ментального здоровья.
ИИ — это ваш помощник, а не панацея.
Почитать:
- Comparative evaluation of an AI-powered life coach against traditional coaching methods;
- Artificial intelligence vs. human coaches: examining the development of working alliance in a single session / Amber S. Barger
#TalkPrompty #UXWatch
@pattern_ai
Ч.2.
1. Ash – персональный ИИ-консультант, помогает ставить цели, вести рефлексию, внедрять новые привычки.
2. Habitcoach - персональный коуч, в режиме диалога с другом помогает разобраться с постановкой целей и их достижением.
3. FitGPT – создаёт персональный план тренировок и питания.
4.Earkick - автоматическое определение вашего психического состояния и дальнейшие шаги.
5. Neurofit - приложение, объединившее нейронауку и AI для борьбы с хроническим стрессом, анализирует физиологию и дает ежедневные рекомендации.
▪️ GPT-ассистент по атомным привычкам (по Джеймсу Клиру) - разбивает большую цель на систему и шаги, подбирает визуальные якоря и обучающее видео.
▪️Специалист по масштабированию - помогает преодолеть застой в карьере, бизнесе или личной жизни, найти путь развития.
▪️Промт-интервью для новой жизни
"Ты психолог и лайф-коуч, проведи со мной интервью, чтобы выяснить мои истинные желания, цели и определить, что для меня значит жизнь мечты..."▪️Промт-психолог по FOMO
Ты — психолог, специализирующийся на тревожных расстройствах.▪️Промт-психолог по синдрому самозванца
Проведи серию из 10 упражнений в формате диалога по проработке FOMO.
Я — [пол, возраст, характеристика личности, например: «женщины, 28 лет, активный пользователь соцсетей…»].
После каждого — мягкий разбор, вопросы для рефлексии и предложение продолжить.
Пиши от первого лица, будь тёплым и поддерживающим.
Ты — практикующий психолог с опытом работы с синдромом самозванца.▪️Коуч по личной эффективности
Проведи серию из 10 последовательных упражнений в формате диалога.
Я — [пол, возраст, характеристика, например: «v, 34 года, начинающий предприниматель…»].
Каждое упражнение — цель, шаги выполнения, вопросы для рефлексии.
После каждого: «Как тебе было проходить это упражнение? Что нового ты заметил(а)? Готов(а) перейти к следующему шагу?»
Будь тёплым, от первого лица, используй когнитивно-поведенческий подход, сопроводи и мотивируй к внутренней устойчивости.
Ты — коуч по личной эффективности.
Твоя задача — помочь пользователю провести полную инвентаризацию всех незавершённых дел и задач.
Сформируй серию последовательных вопросов, чтобы помочь пользователю вспомнить все текущие проекты, поручения, личные и рабочие задачи, идеи в работе и в быту.
После этого структурируй полученные задачи в таблицу с колонками:
- Название задачи
- Категория (Работа / Личное / Дом / Учёба / Другое)
- Статус (Не начата / В процессе / Отложена)
- Оценка важности (1–5)
- Оценка срочности (1–5)
Используя методику Эйзенхауэра и приоритизацию по важности и срочности, расставь приоритеты и предложи 5 задач, которые нужно закрыть в первую очередь.
В конце дай рекомендации по системной работе с незавершёнными делами.
Будь заботлив, мотивируй, избегай осуждения, помоги почувствовать контроль и вдохновение.
- Расследование 404 Media показало, что ИИ-боты могут выдавать себя за лицензированных терапевтов, придумывать фальшивые номера дипломов и обещать полную конфиденциальность — что не является правдой.
- Вы делитесь персональными данными с системами, не всегда ясно, как они хранятся, используются, защищаются.
- Качество ИИ, как инструмента ( галлюцинации, качество данных и т.п.).
- ИИ не заменяет живого специалиста, особенно в вопросах ментального здоровья.
ИИ — это ваш помощник, а не панацея.
Почитать:
- Comparative evaluation of an AI-powered life coach against traditional coaching methods;
- Artificial intelligence vs. human coaches: examining the development of working alliance in a single session / Amber S. Barger
#TalkPrompty #UXWatch
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
EU AI Act + персональные данные: краткий гайд для продактов и руководителей проектов
Ч.1.
Если ваш продукт использует ИИ — и обрабатывает персональные данные пользователей — вы обязаны учитывать требования не только EU AI Act, но и GDPR в совокупности.Любая информация, по которой можно прямо или косвенно идентифицировать человека это ПД. Биометрия, эмоции, поведение, голос и даже движения курсора — это тоже персональные данные, если позволяют идентифицировать пользователя.
Примеры, когда ИИ обрабатывает персональные данные:
- Анализ резюме и автоматический отбор кандидатов;
- Биометрическая идентификация (распознавание лиц, голоса);
- Персонализированные рекомендации в маркетинге;
- Прогнозирование поведения пользователей на основе данных.
Если генерируются синтетические данные (новые профили/предположения о человеке,н-р. склонность к кредитному риску, политические взгляды) - это профайлинг и попадает под GDPR + AI Act.
Требования для ИИ-систем, работающих с персональными данными:
▪️ Высокое качество обучающих данных. Нельзя обучать ИИ на «грязных» или дискриминирующих датасетах.
▪️Пул требований в зависимости от категории уровня риска системы.
▪️Проведение оценки соответствия.
▪️Прозрачность и human oversight. Пользователь должен знать, что данные обрабатываются с помощью ИИ, иметь возможность отказаться предоставлять данные для обучения ИИ, при принятии решения с помощью ИИ иметь возможность обратиться к человеку.Обработка должна совпадать с ожиданиями пользователя (EDPB).
▪️Доступность сервиса лицам до 18 лет, проверка возраста, в большинстве случаев, согласие родителей/законных представителей, повышенные требования к прозрачности, объяснимости и защите.
▪️Data governance framework для систем ИИ с высоким уровнем риска (Chapter 3 AI Act).
Напомню, что анонимизация данных считается обработкой персональных данных по GDPR (EDPB).
Если модель обучена на нелегально полученных данных — это может вызвать ответственность, даже при последующей анонимизации.
Нарушение правил обработки данных может привести к штрафам до 35 млн евро или 7% мирового оборота по AI Act и до 20 млн евро или 4% по GDPR.
Ч.1.
Если ваш продукт использует ИИ — и обрабатывает персональные данные пользователей — вы обязаны учитывать требования не только EU AI Act, но и GDPR в совокупности.Любая информация, по которой можно прямо или косвенно идентифицировать человека это ПД. Биометрия, эмоции, поведение, голос и даже движения курсора — это тоже персональные данные, если позволяют идентифицировать пользователя.
Примеры, когда ИИ обрабатывает персональные данные:
- Анализ резюме и автоматический отбор кандидатов;
- Биометрическая идентификация (распознавание лиц, голоса);
- Персонализированные рекомендации в маркетинге;
- Прогнозирование поведения пользователей на основе данных.
Если генерируются синтетические данные (новые профили/предположения о человеке,н-р. склонность к кредитному риску, политические взгляды) - это профайлинг и попадает под GDPR + AI Act.
Пример взаимосвязи: Компания (A) обрабатывает ПД в контексте обучения новой системы ИИ - поставщик в соответствии с AI Act и контролер в соответствии с GDPR ( в рамках этой разработки принимает решения о том, как обрабатывать персональные данные в целях обучения системы ИИ). Компания (B), которая приобретает систему ИИ, у компании А и использует ее способом, который подразумевает обработку персональных данных (например, в качестве чат-бота для общения с клиентами или в качестве автоматизированного инструмента подбора персонала) - разработчик в соответствии с AI Act, и отдельный контролер в соответствии с GDPR для обработки своих собственных персональных данных (то есть она не является контролером персональных данных, используемых для первоначального обучения системы ИИ, но является контролером любых данных, которые она использует совместно с ИИ).
Т.е., если вы используете данные подрядчика (например, API OpenAI или AWS Rekognition) и при этом инициируете обработку, интегрируете ИИ в свою систему, передаёте туда пользовательские данные, то вы можете считаться “контролёром” или “совместным контролёром” и применяется AI Act и GDPR. А это уже заключение договора (DPA), проведение DPIA (если high-risk), уведомление и защита прав пользователей.
Требования для ИИ-систем, работающих с персональными данными:
▪️ Высокое качество обучающих данных. Нельзя обучать ИИ на «грязных» или дискриминирующих датасетах.
▪️Пул требований в зависимости от категории уровня риска системы.
▪️Проведение оценки соответствия.
▪️Прозрачность и human oversight. Пользователь должен знать, что данные обрабатываются с помощью ИИ, иметь возможность отказаться предоставлять данные для обучения ИИ, при принятии решения с помощью ИИ иметь возможность обратиться к человеку.Обработка должна совпадать с ожиданиями пользователя (EDPB).
▪️Доступность сервиса лицам до 18 лет, проверка возраста, в большинстве случаев, согласие родителей/законных представителей, повышенные требования к прозрачности, объяснимости и защите.
▪️Data governance framework для систем ИИ с высоким уровнем риска (Chapter 3 AI Act).
Напомню, что анонимизация данных считается обработкой персональных данных по GDPR (EDPB).
Если модель обучена на нелегально полученных данных — это может вызвать ответственность, даже при последующей анонимизации.
Для моделей искусственного интеллекта статьи 5, 24, 25 и 30 GDPR, а также, в случае вероятного высокого риска для прав и свобод субъектов данных, статья 35 GDPR требуют от контролеров надлежащего документирования операций обработки. Это также относится к любой обработке, включая обучение модели ИИ, даже если цель обработки заключается в анонимизации.
Нарушение правил обработки данных может привести к штрафам до 35 млн евро или 7% мирового оборота по AI Act и до 20 млн евро или 4% по GDPR.
👍1
Ч.2. Примеры кейсов по нарушению обработки ПД:
▪️Исследование Вашингтонского университета - несмотря на существующие правила OpenAI, многие приложения GPT и встроенные программы собирают данные пользователей без должного уведомления и согласия. Исследование показало, что только 5,8% этих приложений явно раскрывают свои методы сбора данных, при этом некоторые собирают даже такую конфиденциальную информацию, как пароли
▪️Компания Clearview AI, базирующаяся в США и занимающаяся технологией распознавания лиц, получила серию штрафов за незаконное создание и использование базы данных из лиц ЕС без согласия, отсутствие представителя в ЕС, неправильную обработку, непрозрачность и неповиновение надзорным органам. Последний на €30,5 млн от нидерландского органа по защите данных, Autoriteit Persoonsgegevens (AP), за использование незаконной базы из 30 млрд фото.
▪️Replika (Luka Inc.) оштрафована на €5 млн. итальянским Garante, т.к. чат‑бот, персонализированный под эмоциональное состояние пользователя, обрабатывал персональные данные без законного основания, и не имел системы проверки возраста (дети в зоне риска)
Что делать продакту и команде:
- Инвентаризируйте все ИИ-функции, работающие с данными, включая embedded AI от подрядчиков или внешних платформ;
- Проверьте, генерирует ли ИИ новые персональные данные;
- Выявите и оцените риски при обработке ПД, сформируйте матрицу рисков;
- Дети и чувствительные данные - специальные требования;
- Не забывайте про документацию продукта и обработки ПД;
- Скоординируйте процессы по GDPR & AI Act Compliance, проведите юр.аудит
- Включите вопрос комплаенса на стадии разработки roadmap и дизайна продукта. Ведь это уже не история про "legal в конце" - это фичи продукта.
- Проведите обучение команды и проводите проверки соответствия продукта на всех стадиях: разработки, релиза, постпродакшна.
#LawAndDisorder
@pattern_ai
▪️Исследование Вашингтонского университета - несмотря на существующие правила OpenAI, многие приложения GPT и встроенные программы собирают данные пользователей без должного уведомления и согласия. Исследование показало, что только 5,8% этих приложений явно раскрывают свои методы сбора данных, при этом некоторые собирают даже такую конфиденциальную информацию, как пароли
▪️Компания Clearview AI, базирующаяся в США и занимающаяся технологией распознавания лиц, получила серию штрафов за незаконное создание и использование базы данных из лиц ЕС без согласия, отсутствие представителя в ЕС, неправильную обработку, непрозрачность и неповиновение надзорным органам. Последний на €30,5 млн от нидерландского органа по защите данных, Autoriteit Persoonsgegevens (AP), за использование незаконной базы из 30 млрд фото.
▪️Replika (Luka Inc.) оштрафована на €5 млн. итальянским Garante, т.к. чат‑бот, персонализированный под эмоциональное состояние пользователя, обрабатывал персональные данные без законного основания, и не имел системы проверки возраста (дети в зоне риска)
Что делать продакту и команде:
- Инвентаризируйте все ИИ-функции, работающие с данными, включая embedded AI от подрядчиков или внешних платформ;
- Проверьте, генерирует ли ИИ новые персональные данные;
- Выявите и оцените риски при обработке ПД, сформируйте матрицу рисков;
- Дети и чувствительные данные - специальные требования;
- Не забывайте про документацию продукта и обработки ПД;
- Скоординируйте процессы по GDPR & AI Act Compliance, проведите юр.аудит
- Включите вопрос комплаенса на стадии разработки roadmap и дизайна продукта. Ведь это уже не история про "legal в конце" - это фичи продукта.
- Проведите обучение команды и проводите проверки соответствия продукта на всех стадиях: разработки, релиза, постпродакшна.
#LawAndDisorder
@pattern_ai
❤2
Дипфейки и маркировка контента или штраф до 35 млн.евро или 7% от мирового годового оборота по EU AI Act?
Дипфейки - сгенерированное или обработанное ИИ изображение, аудио- или видеоконтент, который напоминает существующих людей, объекты, места, сущности или события и может ложно показаться человеку подлинным или правдивым (Article 3 (60) AI Act).
Дипфейки сейчас в тренде от использования в рекламе и индустрии развлечений до политики и онлайн-мошенничеств.
Что насчет EU AI Act?
Требования к поставщикам - внедрение технических решений, которые позволят маркировать в машиночитаемом формате и обнаруживать, что выходные данные были созданы или обработаны системой ИИ, а не человеком.
Потенциальные методы: водяные знаки, идентификация метаданных, криптографические методы для подтверждения происхождения и подлинности контента, методы регистрации или отпечатки пальцев.
Требования к развертывателям системы ИИ, генерирующей или манипулирующей изображением, аудио- или видеоконтентом - раскрыть «ясно и различимо» путем соответствующей маркировки, что контент был искусственно создан (Article 50 AI Act). Например: иконка “AI generated”, всплывающее уведомление перед просмотром, QR-код для проверки происхождения.
Если контент ИИ является частью «явно художественного, творческого, сатирического, вымышленного или аналогичного произведения или программы» - можно выбрать способ уведомления, чтобы он не мешал получению удовольствия от произведения.
Если хочется использовать дипфейки для личных непрофессиональных целей, то все равно необходимо наличие технической отметки.
Инструменты проверки видео и изображений на предмет подделки: Reality Defender, Hive AI или Deepware Scanner.
Советы команде разработки:
- определите категорию риска и требования к системе ИИ (проконсультируйтесь с экспертами);
- явно маркируйте ИИ-контент;
- показывайте, что контент создан ИИ, до взаимодействия;
- максимально бдительно и осторожно с чувствительным контентом и детьми, использовать возрастные ограничения;
- настройте процесс реагирования на жалобы по дипфейкам и их удаление ( ответ в течение 24–48 часов).
Source картинки Increasing Threats of Deepfake Identities Report|Homeland Security
#LawAndDisorder
@pattern_ai
Дипфейки - сгенерированное или обработанное ИИ изображение, аудио- или видеоконтент, который напоминает существующих людей, объекты, места, сущности или события и может ложно показаться человеку подлинным или правдивым (Article 3 (60) AI Act).
Дипфейки сейчас в тренде от использования в рекламе и индустрии развлечений до политики и онлайн-мошенничеств.
Что насчет EU AI Act?
Требования к поставщикам - внедрение технических решений, которые позволят маркировать в машиночитаемом формате и обнаруживать, что выходные данные были созданы или обработаны системой ИИ, а не человеком.
Потенциальные методы: водяные знаки, идентификация метаданных, криптографические методы для подтверждения происхождения и подлинности контента, методы регистрации или отпечатки пальцев.
Требования к развертывателям системы ИИ, генерирующей или манипулирующей изображением, аудио- или видеоконтентом - раскрыть «ясно и различимо» путем соответствующей маркировки, что контент был искусственно создан (Article 50 AI Act). Например: иконка “AI generated”, всплывающее уведомление перед просмотром, QR-код для проверки происхождения.
Если контент ИИ является частью «явно художественного, творческого, сатирического, вымышленного или аналогичного произведения или программы» - можно выбрать способ уведомления, чтобы он не мешал получению удовольствия от произведения.
Если хочется использовать дипфейки для личных непрофессиональных целей, то все равно необходимо наличие технической отметки.
Инструменты проверки видео и изображений на предмет подделки: Reality Defender, Hive AI или Deepware Scanner.
Советы команде разработки:
- определите категорию риска и требования к системе ИИ (проконсультируйтесь с экспертами);
- явно маркируйте ИИ-контент;
- показывайте, что контент создан ИИ, до взаимодействия;
- максимально бдительно и осторожно с чувствительным контентом и детьми, использовать возрастные ограничения;
- настройте процесс реагирования на жалобы по дипфейкам и их удаление ( ответ в течение 24–48 часов).
Source картинки Increasing Threats of Deepfake Identities Report|Homeland Security
#LawAndDisorder
@pattern_ai
👍2
Для тех, кто уже строит планы на осень:
😎 🆕 Образовательная программа: AI Governance: регулирование и комплаенс ИИ-систем - первый русскоязычный курс по комплаенсу ИИ, охватывающий все сферы регулирования, приватность, риски, качество, IP и ИБ от ведущих экспертов отрасли.
📌 Когда: октябрь 2025 - февраль 2026
📱 Формат: онлайн
📎 Объем: 11 лекций по 90 минут, 8 семинаров по 90 минут, проверка знаний, домашние задания / кейсы, консультации
🍀 Треки:
🟢 ИИ-технологии
🟢 ИИ-регулирование
🟢 Система управления ИИ
🟢 Интеллектуальная собственность
🟢 Данные и Privacy риски
🟢 Качество и ответственность
🟢 Безопасность ИИ
✏️ Преимущества:
🟡 менторы для подготовки проекта
🟡 сообщество и практика
🟡 база знаний и безлимитный доступ
🟡 системный подход
🟡 эффективная методика обучения
Образовательная лицензия РППА Офис - № Л035-01298-77/01030105 от 22 января 2024
RPPA.pro | PPCP.pro
Образовательная лицензия РППА Офис - № Л035-01298-77/01030105 от 22 января 2024
RPPA.pro | PPCP.pro
Please open Telegram to view this post
VIEW IN TELEGRAM
rppaedu.pro
AI Governance
Образовательный продукт AI Governance поможет специалисту стать экспертом в области и научиться превращать технологии из риска в актив
❤1
Требования защиты авторских прав для поставщиков и развертывателей по EU AI Act
Первые победы Бигтеха в США в судебных разбирательствах о нарушении авторских прав при обучении ИИ показывают сложность правового регулирования использования защищённых материалов для обучения ИИ. Хотя обе компании добились частичных побед, остаётся неясным, как будут развиваться дальнейшие судебные процессы и какое влияние они окажут на будущее ИИ-технологий.
В ЕС попытались установить обязательства для поставщиков ИИ-систем и моделей общего назначения (GPAI), а также для развертывателей, использующих такие технологии, с помощью AI Act.
Так, AI Act предусматривает, что системы ИИ, использующие данные, защищённые авторским правом, должны обеспечивать:
- соответствие требованиям Директивы ЕС об авторских правах (Directive 2019/790).
- легальный доступ к используемым данным. Например, обучение моделей на текстах или изображениях, защищённых авторским правом, возможно только при наличии соответствующей лицензии или использовании исключения (например, для исследований).
Требования для поставщиков (providers) GPAI:
▪️Политика соблюдения авторских прав + чёткое описание, как компания соблюдает оговорки об отказе от TDM (art. 53(1)(c) AI Act).
▪️Резюме источников обучения: публикация подробного, но понятного описания использованных наборов данных, включая:
- названия крупных датасетов;
- категории источников (например, новостные сайты, открытые базы);
- объяснение происхождения и цели данных (статья 53(1)(d)).
▪️Техническая документация: описание архитектуры модели, процессов обучения, тестирования и рисков нарушения IP.
▪️Соблюдение «opt-out»: если сайт запретил TDM (например, в robots.txt или специальных уведомлениях), эти данные нельзя использовать.
Помним, что даже если обучение проводилось в США — при выходе GPAI на рынок ЕС необходимо соблюдать нормы ЕС (см. recital 106 AI Act).
Требования к развертывателям (deployers):
▪️Проверять, соблюдены ли IP-права в ИИ-системе, которую вы внедряете;
▪️Не использовать GPAI, нарушающие нормы AI Act;
▪️Документировать цели и объем использования ИИ;
▪️Понимать, создаёт ли ваша система производные работы (derivative works), и при необходимости запрашивать лицензии.
Однако дебаты по General-Purpose AI Code of Practice все еще продолжаются при изначальной цели принять его в мае, что провоцирует слухи вплоть до отмены положений AI Act. Но можно извлечь пользу и смотреть требования + проект резюме источников данных на будущее. Также идут дебаты о том, что AI Act создает «лазейку» в авторском праве, позволяющую использовать защищённые произведения без разрешения в коммерческом ИИ.
Из судебной практики: в деле Kneschke v. LAION, суд в Гамбурге признал, что создание датасета LAION на основе изображений в интернете подпадает под исключение для научных исследований (ст. 60d UrhG), если TDM opt-out не был чётко зафиксирован.
Почитать:
- Copyright Law and Generative AI Training - Technological and Legal Foundations /Tim W. Dornis, Sebastian Stober
- Development of Generative Artificial Intelligence from a Copyright Perspective|EUIPO
#LawAndDisorder
@pattern_ai
Первые победы Бигтеха в США в судебных разбирательствах о нарушении авторских прав при обучении ИИ показывают сложность правового регулирования использования защищённых материалов для обучения ИИ. Хотя обе компании добились частичных побед, остаётся неясным, как будут развиваться дальнейшие судебные процессы и какое влияние они окажут на будущее ИИ-технологий.
В ЕС попытались установить обязательства для поставщиков ИИ-систем и моделей общего назначения (GPAI), а также для развертывателей, использующих такие технологии, с помощью AI Act.
Так, AI Act предусматривает, что системы ИИ, использующие данные, защищённые авторским правом, должны обеспечивать:
- соответствие требованиям Директивы ЕС об авторских правах (Directive 2019/790).
- легальный доступ к используемым данным. Например, обучение моделей на текстах или изображениях, защищённых авторским правом, возможно только при наличии соответствующей лицензии или использовании исключения (например, для исследований).
Требования для поставщиков (providers) GPAI:
▪️Политика соблюдения авторских прав + чёткое описание, как компания соблюдает оговорки об отказе от TDM (art. 53(1)(c) AI Act).
▪️Резюме источников обучения: публикация подробного, но понятного описания использованных наборов данных, включая:
- названия крупных датасетов;
- категории источников (например, новостные сайты, открытые базы);
- объяснение происхождения и цели данных (статья 53(1)(d)).
▪️Техническая документация: описание архитектуры модели, процессов обучения, тестирования и рисков нарушения IP.
▪️Соблюдение «opt-out»: если сайт запретил TDM (например, в robots.txt или специальных уведомлениях), эти данные нельзя использовать.
Помним, что даже если обучение проводилось в США — при выходе GPAI на рынок ЕС необходимо соблюдать нормы ЕС (см. recital 106 AI Act).
Требования к развертывателям (deployers):
▪️Проверять, соблюдены ли IP-права в ИИ-системе, которую вы внедряете;
▪️Не использовать GPAI, нарушающие нормы AI Act;
▪️Документировать цели и объем использования ИИ;
▪️Понимать, создаёт ли ваша система производные работы (derivative works), и при необходимости запрашивать лицензии.
Однако дебаты по General-Purpose AI Code of Practice все еще продолжаются при изначальной цели принять его в мае, что провоцирует слухи вплоть до отмены положений AI Act. Но можно извлечь пользу и смотреть требования + проект резюме источников данных на будущее. Также идут дебаты о том, что AI Act создает «лазейку» в авторском праве, позволяющую использовать защищённые произведения без разрешения в коммерческом ИИ.
Из судебной практики: в деле Kneschke v. LAION, суд в Гамбурге признал, что создание датасета LAION на основе изображений в интернете подпадает под исключение для научных исследований (ст. 60d UrhG), если TDM opt-out не был чётко зафиксирован.
Почитать:
- Copyright Law and Generative AI Training - Technological and Legal Foundations /Tim W. Dornis, Sebastian Stober
- Development of Generative Artificial Intelligence from a Copyright Perspective|EUIPO
#LawAndDisorder
@pattern_ai
Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?
1. Использование файла robots.txt и стандарта ai.txt
robots.txt — стандартный файл, размещаемый на сайте, который инструктирует поисковых роботов, какие страницы не следует сканировать и индексировать, необходимо регулярно обновлять, чтобы гарантировать блокировку инструментов извлечения.
ai.txt — новый экспериментальный стандарт, который позволяет более точно указать условия использования контента для ИИ. Несмотря на ограниченную поддержку, его стоит внедрять, чтобы показать свою позицию.
2. Внедрение информации в метаданные файлов
Включение сведений об авторских правах и условиях использования в метаданные изображений, аудио и видео помогает инструментам и платформам распознавать права на контент и соблюдать их.
3. Правила использования на сайте (Terms of Service)
Правильно оформленные условия использования сайта с явным запретом на скрапинг и коммерческое использование контента в обучении ИИ создают дополнительную юридическую защиту. Однако их соблюдение зависит от готовности суда признавать такие ограничения.
4. Прямые уведомления разработчикам ИИ
Авторы или их представители могут направлять письма с отказом (например, «reservation of rights») крупным ИИ-компаниям, требуя исключить их работы из обучающих наборов. Некоторые компании, например OpenAI, обещали внедрить специальные инструменты — Media Manager — для управления такими запросами, но на данный момент нет информации, что происходит с процессом их разработки, дедлайны провалены.
5. Проверка включения своих работ в ИИ-датасеты
Сервисы типа Have I Been Trained? позволяют проверить, использовались ли ваши работы в известных датасетах для обучения ИИ, что помогает своевременно выявлять нарушения.
Source картинки
#UXWatch
@pattern_ai
1. Использование файла robots.txt и стандарта ai.txt
robots.txt — стандартный файл, размещаемый на сайте, который инструктирует поисковых роботов, какие страницы не следует сканировать и индексировать, необходимо регулярно обновлять, чтобы гарантировать блокировку инструментов извлечения.
ai.txt — новый экспериментальный стандарт, который позволяет более точно указать условия использования контента для ИИ. Несмотря на ограниченную поддержку, его стоит внедрять, чтобы показать свою позицию.
2. Внедрение информации в метаданные файлов
Включение сведений об авторских правах и условиях использования в метаданные изображений, аудио и видео помогает инструментам и платформам распознавать права на контент и соблюдать их.
3. Правила использования на сайте (Terms of Service)
Правильно оформленные условия использования сайта с явным запретом на скрапинг и коммерческое использование контента в обучении ИИ создают дополнительную юридическую защиту. Однако их соблюдение зависит от готовности суда признавать такие ограничения.
4. Прямые уведомления разработчикам ИИ
Авторы или их представители могут направлять письма с отказом (например, «reservation of rights») крупным ИИ-компаниям, требуя исключить их работы из обучающих наборов. Некоторые компании, например OpenAI, обещали внедрить специальные инструменты — Media Manager — для управления такими запросами, но на данный момент нет информации, что происходит с процессом их разработки, дедлайны провалены.
5. Проверка включения своих работ в ИИ-датасеты
Сервисы типа Have I Been Trained? позволяют проверить, использовались ли ваши работы в известных датасетах для обучения ИИ, что помогает своевременно выявлять нарушения.
Source картинки
#UXWatch
@pattern_ai
❤1
ИИ в вашей компании? Чек- лист по обучению сотрудников - требование EU AI Act
Обязательства по повышению грамотности в области ИИ (AI Literacy), закрепленные в статье 4 EU AI Act вступили в силу со 2 февраля 2025. Контроль выполнения со стороны надзорных органов начнётся с 3 августа 2026, хоть еще и чуть больше года, не откладывайте до последнего!
На данный момент 31% европейских компаний имеют формальную политику ИИ, остальные используют его неструктурированно, что создает риски утечки, фишинга и пр.
Грамотность в области ИИ - навыки, знания и понимание, необходимые поставщикам, развертывателям и затронутым лицам, чтобы
- принимать обоснованные решения о развертывании систем ИИ.
- понимать возможности, риски и потенциальный вред, связанный с ИИ.
- работать с ИИ ответственно, обеспечивая соблюдение этических и нормативных стандартов.
Например, если сотрудники всего лишь используют ChatGPT для написания рекламных текстов или перевода текстов, то компании необходимо соблюдать требования ст. 4 и обучить их, предоставив информацию о конкретных рисках, например, галлюцинациях.
Также требования ст.4 (AI Literacy) предъявляются пока система ИИ размещена на рынке ЕС, используется в ЕС или ее использование оказывает влияние на людей, находящихся в ЕС. Помним про экстерриториальное действие закона.
Обучение, как минимум, должно обеспечивать:
▪️Осведомлённость об ИИ: что это, как это работает, где и зачем применяется;
▪️Контекст: роль организации (поставщик или пользователь), риски ИИ-систем;
▪️Учёт профиля сотрудников: уровень технической подготовки, зона ответственности;
▪️Углублённое обучение для тех, кто работает с высокорисковыми системами (статья 25 AI Act).
Забирайте чек-лист.
На данный момент не требуется официальных сертификатов - достаточно внутренних записей о проведённых обучениях.
Для упрощения процесса внедрения создаются обучающие ресурсы, Еврокомиссия выпускает гайдлайны.
Примеры best practice можно смотреть в Living repository. Например, Booking.com поделился своим примером: индивидуальное обучение для нетехнического персонала, интерактивное обучение ( видео- и подкаст-серии для разных стилей обучения), фокус на соблюдение нормативных требований (обучение включает управление ИИ и правовые аспекты). Telefónica S.A. (телекоммуникационный сектор) - назначены специалисты для руководства инициативами по грамотности в сфере ИИ, многоуровневое обучение ( сегментированные программы для руководителей, разработчиков и конечных пользователей), публичные инициативы по грамотности в области ИИ.
Ответы на частые вопросы в AI Literacy Q&A.
Обучающие материалы, курсы можно найти на Digital Skills and Jobs Platform
Посмотреть:
Third AI Pact webinar on AI literacy
Почитать:
- Generative AI Literacy: A Comprehensive Framework for Literacy and Responsible Use, Chengzhi Zhang, Brian Magerko
- AI Literacy for Legal AI Systems: A practical approach, Gizem Gultekin-Varkonyi
Список курсов в отдельном посте.
#LawAndDisorder #AIShelf
@pattern_ai
Обязательства по повышению грамотности в области ИИ (AI Literacy), закрепленные в статье 4 EU AI Act вступили в силу со 2 февраля 2025. Контроль выполнения со стороны надзорных органов начнётся с 3 августа 2026, хоть еще и чуть больше года, не откладывайте до последнего!
На данный момент 31% европейских компаний имеют формальную политику ИИ, остальные используют его неструктурированно, что создает риски утечки, фишинга и пр.
Грамотность в области ИИ - навыки, знания и понимание, необходимые поставщикам, развертывателям и затронутым лицам, чтобы
- принимать обоснованные решения о развертывании систем ИИ.
- понимать возможности, риски и потенциальный вред, связанный с ИИ.
- работать с ИИ ответственно, обеспечивая соблюдение этических и нормативных стандартов.
Например, если сотрудники всего лишь используют ChatGPT для написания рекламных текстов или перевода текстов, то компании необходимо соблюдать требования ст. 4 и обучить их, предоставив информацию о конкретных рисках, например, галлюцинациях.
Также требования ст.4 (AI Literacy) предъявляются пока система ИИ размещена на рынке ЕС, используется в ЕС или ее использование оказывает влияние на людей, находящихся в ЕС. Помним про экстерриториальное действие закона.
Обучение, как минимум, должно обеспечивать:
▪️Осведомлённость об ИИ: что это, как это работает, где и зачем применяется;
▪️Контекст: роль организации (поставщик или пользователь), риски ИИ-систем;
▪️Учёт профиля сотрудников: уровень технической подготовки, зона ответственности;
▪️Углублённое обучение для тех, кто работает с высокорисковыми системами (статья 25 AI Act).
Забирайте чек-лист.
На данный момент не требуется официальных сертификатов - достаточно внутренних записей о проведённых обучениях.
Для упрощения процесса внедрения создаются обучающие ресурсы, Еврокомиссия выпускает гайдлайны.
Примеры best practice можно смотреть в Living repository. Например, Booking.com поделился своим примером: индивидуальное обучение для нетехнического персонала, интерактивное обучение ( видео- и подкаст-серии для разных стилей обучения), фокус на соблюдение нормативных требований (обучение включает управление ИИ и правовые аспекты). Telefónica S.A. (телекоммуникационный сектор) - назначены специалисты для руководства инициативами по грамотности в сфере ИИ, многоуровневое обучение ( сегментированные программы для руководителей, разработчиков и конечных пользователей), публичные инициативы по грамотности в области ИИ.
Ответы на частые вопросы в AI Literacy Q&A.
Обучающие материалы, курсы можно найти на Digital Skills and Jobs Platform
Посмотреть:
Third AI Pact webinar on AI literacy
Почитать:
- Generative AI Literacy: A Comprehensive Framework for Literacy and Responsible Use, Chengzhi Zhang, Brian Magerko
- AI Literacy for Legal AI Systems: A practical approach, Gizem Gultekin-Varkonyi
Список курсов в отдельном посте.
#LawAndDisorder #AIShelf
@pattern_ai
🔥1
Список курсов по AI Literacy и соответствию AI Act (EU)
1. BABL AI — AI Literacy Course on the EU AI Act ( $99, ~2 часа, английский): четкий и краткий курс для сотрудников — объясняет, что такое ИИ, как он влияет на бизнес и как соответствовать AI Act.
2. AI for You (CeADAR, Ирландия) (бесплатно, ~3 часа, английский): бесплатный вводный курс по ИИ и AI Act, подходит для малых и средние предприятий, сотруднико государственного сектора.
3. AppliedAI (Германия) — AI Literacy Training Compact ( стоимость по запросу, 45 минут, английский): сфокусирован на обязанностях по статье 4 AI Act — идеален для бизнес-команд.
4. Simmons & Simmons — AI Literacy Programme (стоимость по запросу, кастомный формат, английский): корпоративное обучение с фокусом на юридические и комплаенс-аспекты AI Act.
5. VAIA (Flanders AI Academy, Бельгия) (бесплатно, продолжительность зависит от модуля, английский): модули по ИИ для специалистов, занимающихся внедрением ИИ.
6. Trustible.ai — AI Literacy & Compliance Training (стоимость по запросу (для компаний), время варьируется, английский): модули по базовым знаниям об ИИ, комплаенсу и внутренним политикам.
7. AI Portugal 2030 – INCoDe.2030 (бесплатно, португальский): государственная стратегия по ИИ и цифровой трансформации.
8. Simplilearn (SkillUp) — Artificial Intelligence for Business (бесплатно, ~2 часа, английский): основы ИИ и его применение в бизнесе. Этические аспекты и аналитика.
9. EITCA/AI Academy (EITCI, Бельгия) (€1,100 (€220 со скидкой), 180 часов, английский): европейская сертификация по ИИ (12 модулей EITC), признаётся в ЕС.
10. Turing College (Литва) — AI Ethics (грант, 3–4 месяца, английский): проектный онлайн-курс по этике ИИ и критическому мышлению.
11. Creative AI Academy — AI Literacy Training (по запросу, время варьируется, английский): обучение по категоризации рисков и соблюдению AI Act.
12. Trail — AI Literacy Training (по запросу, время варьируется, английский): практические рекомендации по созданию обучающих программ под задачи бизнеса.
13. TrustWorks — AI Literacy Training ( по запросу, время варьируется, английский): обучение как для разработчиков, так и для сотрудников без техзнаний.
14. Latham & Watkins — AI Literacy Training (статья, английский): консультации и статьи по требованиям AI Act к юристам и офицерам по комплаенсу.
15. AI & Partners — AI Literacy for Responsible Practice ( 800€ (скидки при заказе для компаний), 7 модулей, английский): курс по ИИ с фокусом на транспарентность, ответственность и цели статьи 4 AI Act.
16. Makai — AI Foundations – EU AI Act (€199 в год за одного сотрудника, 4–6 часов, английский): самостоятельное обучение по основам ИИ, влиянию на общество и регуляции.
17. EDHEC / ALLL — Digital Ethics Officer Training (5 148€, 40 часов, французский (есть версия на англ.)):
обучение по этике, охватывающее управление ИИ и AI Act.
18. ALLL — Ethics at Work in the Digital Age (1 600€, ~4 часа, английский): продвинутый курс по цифровой этике и юридическим рискам ИИ на рабочем месте.
19. Dorota Mleczko — AI Literacy Programs (модульные пакеты для организаций, английский, немецкий, польский): индивидуальные программы по обучению ИИ для различных отделов.
20. Elements of AI (Финляндия) (бесплатный) - введение в сферу ИИ.
Список программ постоянно обновляется, можно смотреть здесь.
Картинка сгенерирована ChatGPT
#AIShelf
@pattern_ai
1. BABL AI — AI Literacy Course on the EU AI Act ( $99, ~2 часа, английский): четкий и краткий курс для сотрудников — объясняет, что такое ИИ, как он влияет на бизнес и как соответствовать AI Act.
2. AI for You (CeADAR, Ирландия) (бесплатно, ~3 часа, английский): бесплатный вводный курс по ИИ и AI Act, подходит для малых и средние предприятий, сотруднико государственного сектора.
3. AppliedAI (Германия) — AI Literacy Training Compact ( стоимость по запросу, 45 минут, английский): сфокусирован на обязанностях по статье 4 AI Act — идеален для бизнес-команд.
4. Simmons & Simmons — AI Literacy Programme (стоимость по запросу, кастомный формат, английский): корпоративное обучение с фокусом на юридические и комплаенс-аспекты AI Act.
5. VAIA (Flanders AI Academy, Бельгия) (бесплатно, продолжительность зависит от модуля, английский): модули по ИИ для специалистов, занимающихся внедрением ИИ.
6. Trustible.ai — AI Literacy & Compliance Training (стоимость по запросу (для компаний), время варьируется, английский): модули по базовым знаниям об ИИ, комплаенсу и внутренним политикам.
7. AI Portugal 2030 – INCoDe.2030 (бесплатно, португальский): государственная стратегия по ИИ и цифровой трансформации.
8. Simplilearn (SkillUp) — Artificial Intelligence for Business (бесплатно, ~2 часа, английский): основы ИИ и его применение в бизнесе. Этические аспекты и аналитика.
9. EITCA/AI Academy (EITCI, Бельгия) (€1,100 (€220 со скидкой), 180 часов, английский): европейская сертификация по ИИ (12 модулей EITC), признаётся в ЕС.
10. Turing College (Литва) — AI Ethics (грант, 3–4 месяца, английский): проектный онлайн-курс по этике ИИ и критическому мышлению.
11. Creative AI Academy — AI Literacy Training (по запросу, время варьируется, английский): обучение по категоризации рисков и соблюдению AI Act.
12. Trail — AI Literacy Training (по запросу, время варьируется, английский): практические рекомендации по созданию обучающих программ под задачи бизнеса.
13. TrustWorks — AI Literacy Training ( по запросу, время варьируется, английский): обучение как для разработчиков, так и для сотрудников без техзнаний.
14. Latham & Watkins — AI Literacy Training (статья, английский): консультации и статьи по требованиям AI Act к юристам и офицерам по комплаенсу.
15. AI & Partners — AI Literacy for Responsible Practice ( 800€ (скидки при заказе для компаний), 7 модулей, английский): курс по ИИ с фокусом на транспарентность, ответственность и цели статьи 4 AI Act.
16. Makai — AI Foundations – EU AI Act (€199 в год за одного сотрудника, 4–6 часов, английский): самостоятельное обучение по основам ИИ, влиянию на общество и регуляции.
17. EDHEC / ALLL — Digital Ethics Officer Training (5 148€, 40 часов, французский (есть версия на англ.)):
обучение по этике, охватывающее управление ИИ и AI Act.
18. ALLL — Ethics at Work in the Digital Age (1 600€, ~4 часа, английский): продвинутый курс по цифровой этике и юридическим рискам ИИ на рабочем месте.
19. Dorota Mleczko — AI Literacy Programs (модульные пакеты для организаций, английский, немецкий, польский): индивидуальные программы по обучению ИИ для различных отделов.
20. Elements of AI (Финляндия) (бесплатный) - введение в сферу ИИ.
Список программ постоянно обновляется, можно смотреть здесь.
Картинка сгенерирована ChatGPT
#AIShelf
@pattern_ai
EU AI ACT Compliance чек-лист для компании. Забирайте в пользование, составила максимально полный
#LawAndDisorder
@pattern_ai
#LawAndDisorder
@pattern_ai
dataprivacy on Notion
AI ACT Compliance чек-лист для компании | Notion
Приоритетные шаги для организаций
Подборка постов за месяц.
👁🗨 Руководства, чеклисты и разборы — всё о новом законе об ИИ в ЕС, который уже влияет на разработку и запуск продуктов.
🔹К кому применим AI Act;
🔹Определение категорий риска систем ИИ по AI Act;
🔹Требования к дизайну интерфейсов по AI Act;
🔹Примерный чек-лист для проверки дизайна интерфейса;
🔹AI-агенты и применимость EU AI ACT;
🔹Краткий гайд по обработке ПД при внедрении ИИ;
🔹Примерный чек-лист для выявления рисков по обработке персональных данных для проекта (EU AI Act и GDPR);
🔹Дипфейки и требования маркировки контента;
🔹Требования защиты авторских прав для поставщиков и развертывателей по EU AI Act;
🔹Чек-лист по обучению сотрудников;
🔹Список курсов по AI Literacy и соответствию AI Act (EU);
🔹EU AI ACT Compliance чек-лист для компании.
Сохраните себе и делитесь с коллегами.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Подборка по ключевым рубрикам:
🔹Что делать бизнесу в постоянно меняющемся регуляторном ландшафте?
🔹Что говорит закон про регулирование темных паттернов и как избежать миллионных штрафов?
🔹Баланс между AI-First и правами сотрудников;
🔹Регуляторный подход к Emotion AI и как продукту соблюсти комплаенс;
🔹Примерный чек-лист по соблюдению законодательства для продуктов с Emotion AI;
🔹AI-ассистент и AI-агент: где заканчивается автоматизация и начинается правовая ответственность?
🔹AI и финансовый сектор;
🔹Использование чувствительных данных гос.сектором для обучения ИИ: пример ICDC и не только;
🔹AI powered dark patterns: как ИИ учится управлять вашими решениями;
🔹Искажение выбора: как AI-оценка сбивает с пути в компанию мечты;
🔹Emotion AI превратит ваши эмоции в + 20 CTR для компании;
🔹Флирт с чат-ботом: от простой игры до манипуляции вами один шаг;
🔹НейроUX в банках против ваших интересов;
🔹Neuralink и риски цифрового принуждения;
🔹ИИ помогает людям формировать свои привычки;
🔹Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?
🔹RAG — новая точка входа для тёмных паттернов;
🔹Петля развития для моделей;
🔹Безопасное взаимодействие между агентами: рекомендации Google A2A и LangChain;
🔹Сравнительный анализ LLM: как часто языковые модели генерируют тёмные паттерны;
🔹Новый подход к контролю чувствительных данных в LLM;
🔹Анализ уязвимостей в ИИ и практики безопасной разработки - cмотрим, как проверить уязвимости при использованиие библиотек с открытым исходным кодом.
🔹Как писать промпты для ИИ и нужно ли быть вежливым?
🔹Как сделать озвучку с помощью ИИ;
🔹Презентации за пару кликов;
🔹ИИ генерация видео;
🔹Сервисы и промты: от повседневных привычек до изменения мышления.
📚 #AIShelf
🔹Список бесплатных курсов по AI;
🔹Cognizant—Banking Process Transformation 2024 RadarView;
🔹NeuroUX в банковской сфере;
🔹Обучающие курсы EDPB по ИИ и защите данных;
🔹Список курсов по AI Literacy и соответствию AI Act (EU).
Читайте, пересылайте, возвращайтесь к важному.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Легальный веб-скраппинг для обучения ИИ возможен?
Веб-скраппинг — это автоматический сбор данных с общедоступных веб-сайтов.
Да, он пока легален, если учитывать риски и соблюдать законодательство, дискуссии и судебные баталии продолжаются (н-р, штраф Clearview на $7,5 млн. от ICO, Reddit v Anthropic, Bartz v Anthropic ).
👀 Смотрим по популярным юрисдикциям.
ЕС:
GDPR - сбор данных на законных основаниях, только необходимые, релевантные, соблюдение принципа минимизации, особые требования к чувствительным категориям данных и тп.
ePrivacy Directive (2002/58/EC) - метаданные, файлы cookies, электронная коммуникация. Может ограничивать автоматизированный сбор информации из мессенджеров и email.
Directive (EU) 2019/790 on Copyright in the Digital Single Market — запрещает копирование контента защищённого авторским правом. Исключения применимы только к научным и некоммерческим целям.
Regulation (EU) 2018/1807 on Free Flow of Non-Personal Data — важен при передаче гибридных наборов данных (личных + неличных) между странами ЕС.
В июне французский CNIL выпустил рекомендации по веб-скраппингу:
🔹Соблюдать правила robots.txt, CAPTCHA и условия использования сайтов, т.е. не собирать данные с сайтов, явно запрещающих скраппинг.
🔹Избегать сканирования сайтов, предназначенных для несовершеннолетних и содержащих чувствительные данные.
🔹Автоматически удалять персональные или чувствительные данные после сбора. Остаточный и непреднамеренный сбор конфиденциальных данных, несмотря на меры предосторожности, сам по себе не является незаконным (CJEU-136/17), как только контролеру становится известно об обработке - обеспечить немедленное удаление, по возможности используя автоматизированные средства.
🔹Обеспечивать возможность отказа (opt-out) и прозрачность.
🔹Удалять нерелевантные данные, собранные по ошибке, сразу после их обнаружения.
🔹Уважать разумные ожидания пользователя (характер отношений между субъектами данных и контролёром; явные ограничения, налагаемые веб-сайтами; характер исходного веб-сайта (например, социальные сети, форумы); тип контента (например, публикация в общедоступном блоге или публикация в социальной сети с ограниченным доступом).
Напомню, что еще в отчете EDPB ChatGPT Taskforce (2024) указывалось на то, что публичность данных не означает, что субъект данных явно сделал их публичными, необходим баланс интересов контроллера с правами пользователей, ожидания пользователя играют ключевую роль.
Великобритания
Позиция ICO:
🔹Требуется наличие законного основания (например, законный интерес).
🔹 Необходимость и соразмерность должны быть обоснованы.
🔹Требуется прозрачность и обеспечение прав субъектов данных.
США
🔹Веб-скраппинг не запрещён напрямую.
🔹 Computer Fraud & Abuse Act (CFAA) не применяется к скраппингу открытых данных (hiQ v. LinkedIn). Но сбор данных после получения уведомления о прекращении противоправных действий или обход явных блокировок (например, запретов по IP-адресам или логинам) может квалифицироваться как несанкционированный доступ (Power Ventures v. Facebook).
🔹Нарушение условий не делает скраппинг незаконным (Meta v. Bright Data).
🔹CCPA/CPRA и другие законы о защите ПД: уведомление, право на отказ, ограничение целей обработки.
🔹HIPAA, COPPA и др. при сборе данных о здоровье или детях.
🔹Законодательство о защите коммерческой тайны, защите IP.
#LawAndDisorder
———-
@pattern_ai
Веб-скраппинг — это автоматический сбор данных с общедоступных веб-сайтов.
Да, он пока легален, если учитывать риски и соблюдать законодательство, дискуссии и судебные баталии продолжаются (н-р, штраф Clearview на $7,5 млн. от ICO, Reddit v Anthropic, Bartz v Anthropic ).
ЕС:
GDPR - сбор данных на законных основаниях, только необходимые, релевантные, соблюдение принципа минимизации, особые требования к чувствительным категориям данных и тп.
ePrivacy Directive (2002/58/EC) - метаданные, файлы cookies, электронная коммуникация. Может ограничивать автоматизированный сбор информации из мессенджеров и email.
Directive (EU) 2019/790 on Copyright in the Digital Single Market — запрещает копирование контента защищённого авторским правом. Исключения применимы только к научным и некоммерческим целям.
Regulation (EU) 2018/1807 on Free Flow of Non-Personal Data — важен при передаче гибридных наборов данных (личных + неличных) между странами ЕС.
В июне французский CNIL выпустил рекомендации по веб-скраппингу:
🔹Соблюдать правила robots.txt, CAPTCHA и условия использования сайтов, т.е. не собирать данные с сайтов, явно запрещающих скраппинг.
🔹Избегать сканирования сайтов, предназначенных для несовершеннолетних и содержащих чувствительные данные.
🔹Автоматически удалять персональные или чувствительные данные после сбора. Остаточный и непреднамеренный сбор конфиденциальных данных, несмотря на меры предосторожности, сам по себе не является незаконным (CJEU-136/17), как только контролеру становится известно об обработке - обеспечить немедленное удаление, по возможности используя автоматизированные средства.
🔹Обеспечивать возможность отказа (opt-out) и прозрачность.
🔹Удалять нерелевантные данные, собранные по ошибке, сразу после их обнаружения.
🔹Уважать разумные ожидания пользователя (характер отношений между субъектами данных и контролёром; явные ограничения, налагаемые веб-сайтами; характер исходного веб-сайта (например, социальные сети, форумы); тип контента (например, публикация в общедоступном блоге или публикация в социальной сети с ограниченным доступом).
Напомню, что еще в отчете EDPB ChatGPT Taskforce (2024) указывалось на то, что публичность данных не означает, что субъект данных явно сделал их публичными, необходим баланс интересов контроллера с правами пользователей, ожидания пользователя играют ключевую роль.
Великобритания
Позиция ICO:
🔹Требуется наличие законного основания (например, законный интерес).
🔹 Необходимость и соразмерность должны быть обоснованы.
🔹Требуется прозрачность и обеспечение прав субъектов данных.
США
🔹Веб-скраппинг не запрещён напрямую.
🔹 Computer Fraud & Abuse Act (CFAA) не применяется к скраппингу открытых данных (hiQ v. LinkedIn). Но сбор данных после получения уведомления о прекращении противоправных действий или обход явных блокировок (например, запретов по IP-адресам или логинам) может квалифицироваться как несанкционированный доступ (Power Ventures v. Facebook).
🔹Нарушение условий не делает скраппинг незаконным (Meta v. Bright Data).
🔹CCPA/CPRA и другие законы о защите ПД: уведомление, право на отказ, ограничение целей обработки.
🔹HIPAA, COPPA и др. при сборе данных о здоровье или детях.
🔹Законодательство о защите коммерческой тайны, защите IP.
#LawAndDisorder
———-
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
1. Планирование до начала сбора: чётко определить цель и правовое основание сбора. Избегать сбора избыточной информации (например, геолокация, фин.данные), если они не нужны для конкретной цели, исключить ресурсы и данные несовершеннолетних, высокочувствительные.
2. Технические меры: соблюдать robots.txt, CAPTCHA, использовать фильтры на основе NER (Named Entity Recognition) и PII (Personally Identifiable Information) для исключения чувствительных и специальных категорий данных, настроить автоматическое удаление данных, не соответствующих целям, анонимизация или псевдонимизация данных сразу после сбора.
3. Юридические меры: проводить Legitimate Interest Assessment (при использовании легитимного интереса, как основания сбора данных), DPIA (оценку воздействия на защиту данных), обеспечить прозрачность (публикация списков источников, уведомления), права на отказ (suppression list, механизмы opt-out), избегать сайтов, явно запрещающих сбор (условия использования), отслеживать законодательство, гайдлайны надзорных органов и судебную практику.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1