Pattern AI
166 subscribers
40 photos
5 files
73 links
Искусственный интеллект изучает нас. Мы изучаем ИИ.
Отслеживаем, как меняется регулирование ИИ.
Разбираем манипуляции, UX-паттерны и алгоритмические ловушки.
Учимся применять ИИ: осознанно, этично и с пользой.
Download Telegram
Презентации за пару кликов

Точно интереснее, чем PowerPoint.
Ловите подборку ИИ-конструкторов для презентаций:
1. Prezi.ai. Закидываете текст или PDF-файл, выбираете шаблон, редактируете под свои нужды. Есть free trial.
2. Decktopus. Можно ввести только название презентации, и ваша презентация готова. Есть free тариф.
3. Gamma. Создание презентаций, документов и целевых страниц. Есть free тариф, 20 000 токенов.
4. Plus AI . PDF-файлы, Word и др. форматы, можно конвертировать в PowerPoint или Google Slides. Есть free trial.
5. SlidesAI. Можно создавать презентации прямо в Google Slides. Бесплатный тариф:12 презентаций, 2500 символов, 120 кредитов.
6. Beautiful AI. Платный. Адаптирует ваши слайды.
7. AiPPT. Позволяет создавать в один клик простые презентации, много шаблонов, можно загружать документы. Есть free trial.
8. Sendsteps AI. 2 презентации бесплатно, поддержка английского языка.
9. Presentations AI. Есть бесплатный тариф, может галюцинировать.
#TalkPrompty
@pattern_ai
🔥2
AI и финансовый сектор

Посмотрим, как ИИ трансформирует финансовую отрасль. Рост рынка прогнозируется, как обычно, огромный (35,7% в год).
На что же способны ИИ-системы? Реагировать на изменения на рынках за доли секунды, формировать инсайты на основе больших массивов данных, выявлять аномалии в транзакциях, оценивать поведенческие паттерны клиентов, повышать точность оценки платежеспособности, предоставлять рекомендации с учетом профиля риска клиента, персонализировать обслуживание клиентов, автоматизировать нормативную отчетность и вести мониторинг соблюдения требований.

Если смотрим на законодательные фреймворки регулирования, то большинство юрисдикций уже внедрили политику в отношении применения ИИ в финансовой сфере, пользуясь несколькими подходами (отчет OECD):
▪️ Межотраслевое законодательство, затрагивающее отдельные элементы финансовой деятельности;
Тот же AI Act содержит четкие требования к высокорисковым ИИ-применениям в финансовой сфере (н-р, ИИ-модели оценки кредитоспособности клиентов банков, страховании жизни и здоровья).
▪️ Обязательные нормы или проекты правил, издаваемые финансовыми регуляторами;
Европейский орган по ценным бумагам и рынкам (ESMA отчет) в контексте MiFID II подчеркивает необходимость справедливой и устойчивой работы алгоритмов, особенно в алгоритмической торговле. Финансовые учреждения обязаны документировать и тестировать алгоритмы, управлять операционными рисками и обеспечивать защиту инвесторов.
▪️ Нерегуляторные документы — руководства, принципы, белые книги или разъяснения от надзорных органов.

Банк международных расчетов (BIS) представил отчет о применении ИИ центральными банками. Отмечается, что большинство центробанков все еще находятся на начальных стадиях внедрения ИИ. Основные выводы:
▪️ Важно обеспечить адекватное управление и координацию ИИ-проектов, поскольку текущая децентрализованная реализация затрудняет контроль и управление рисками.
▪️Ключевые вызовы включают проблемы конфиденциальности, кибербезопасности, нехватку навыков и этические перекосы, требуется системный подход.
▪️Использование ИИ сопровождается компромиссами в ИТ-инфраструктуре, включая выбор между облачными решениями и внутренними мощностями, а также между открытыми и закрытыми ИИ-моделями.
▪️ Принцип "мусор на входе — мусор на выходе" подчеркивает критическую важность качества данных и метаданных. Необходимо совершенствовать процессы сбора, валидации, хранения и распространения данных.
▪️ Отмечается рост интереса к генеративному ИИ и LLM, включая чат-боты, ассистентов по коду и аналитике, необходимо обучение сотрудников и адаптации ИТ-систем.
▪️ AI Governance должно включать: необходимость чёткой структуры данных и метаданных, междисциплинарный подход к управлению ИИ (вовлечение ИТ, юридических, аналитических и профильных команд), следование принципам responsible AI (ответственный ИИ), использование трёх линий защиты как основы управления рисками ИИ (1 — операционные подразделения, 2 — функции контроля, 3 — внутренний аудит).

Еще парочка отчетов:
Artificial intelligence in the financial system/Bank of England говорит про риски, связанные с ошибками моделей, системными зависимостями от общих моделей ИИ и ограничениями в устойчивости ИИ-решений, подчеркивает важность международного сотрудничества.
Financial Services in the Era of Generative AI /Hong Kong: 75% организаций уже внедрили или пилотируют ИИ-решения. Основные вызовы — точность моделей, защита данных и нехватка квалифицированных кадров.

Дальнейшие перспективы:
- Продолжающаяся оценка пригодности существующих нормативных рамок, введение новых правил регуляторами;
- Необходимость дополнительных разъяснений или рекомендаций для уполномоченных организаций в связи со специфическими проблемами, возникающими при внедрении ИИ;
- Усиление нормативной гармонизации между странами;
- Развитие внедрения AI и на уровне центральных банков;
- Рост числа инициатив, направленных на устойчивость, прозрачность и безопасность ИИ;
- Рост инвестиций в облачные решения и защиту данных.
#LawAndDisorder
1
НейроUX в банках против ваших интересов

Крупные банки, включая ВТБ, прогнозируют, что к 2027 году нейротехнологии — системы, анализирующие мозговую активность — станут неотъемлемой частью банковских сервисов. Это приведёт к «глубокой персонализации»: от дизайна карты до подбора предложений на основе нейроимпульсов.
Visa и Mastercard запускают ИИ-агентов для покупок, которые смогут тратить ваши деньги, ориентируясь на предпочтения и сценарии, заданные вами ( например, подобрать наряды для вечеринки для дня рождения на основе атмосферы места проведения, прогнозов погоды и предпочтений в стиле). Neuroprofiler использует принципы поведенческих финансов для адаптации инвестиционных портфелей к предпочтениям клиентов.
Посмотрим на статистику: 84% потребителей готовы сменить банк ради персонализированных предложений (Personetics, 2025), 73% доверяют ИИ-контенту, 53% готовы получать от него финансовые советы (Capgemini), в то же время только 14% клиентов считают, что банк предлагает им релевантные предложения (TSYS).

Еще год назад банки говорили, что не могут дать пользователям гиперперсонализацию, все меняется... Но точно ли она нам нужна? Задумываетесь ли вы, насколько это будут именно ваши решения и точно ли они выгодны именно вам?

Давайте разберем возможные манипулятивные практики:
▪️ Гиперперсонализация. Вам предлагают «идеальные» банковские или платёжные продукты на основе анализа эмоций, поведения, мозговой активности. Идеально для вас или идеально для увеличения прибыли банка?
Обращайте внимание на то, какие данные собираются (нейро, поведенческие и пр.), насколько прозрачно банк/сервис объясняет работу ИИ-систем.
▪️ИИ -Ассистент тратит за вас ваши деньги с вашего разрешения — от продуктов до бронирования отелей (Visa Intelligent Commerce, Mastercard Agent Pay). Вы теряете осознанный контроль над покупками, идет навязывание сервисов с определёнными партнёрами.
Обращайте внимание на автоустановленные лимиты, неочевидные настройки, затруднённую отмену разрешений.
▪️Эмоциональные триггеры и давление срочности. При обнаружении вашего волнения или колебаний система может предложить «лимитированное» выгодное предложение. ИИ эксплуатирует вашу уязвимость в момент принятия решений. Хорошо подумайте, точно ли вам необходима скидка или вами манипулируют?
▪️ Запутанное согласие, использование манипулятивных интерфейсов (например, спрятанные настройки).
Вы «соглашаетесь» на сбор чувствительных данных или автосписание средств, не осознавая этого.
Обращайте внимание на слишком длинные политики конфиденциальности, неясные формулировки.
▪️Перегрузка выбора. Система предлагает вам десятки персонализированных предложений, чтобы «дать свободу выбора», вы теряетесь и выбираете не лучший, а самый заметный вариант.
Обращайте внимание на отсутствие ясных сравнений, чрезмерную визуальную стимуляцию.

Что делать пользователям:
- Проверяйте права и разрешения. Не позволяйте ИИ делать повторяющиеся покупки без контроля.
- Требуйте прозрачности. Узнавайте, как обрабатываются ваши поведенческие и биометрические данные.
- Используйте минимальные настройки. Откажитесь от гиперперсонализации, если она вам не нужна.
- Не делегируйте важные решения ИИ!
- Сообщайте об использовании манипулятивных практик в надзорные органы.
#UXWatch
НейроUX в банках против ваших интересов

Что почитать:
- Dopamine Banking. Как банки используют геймификацию и визуальные стимулы, чтобы активировать зоны удовольствия в мозге и повышать вовлечённость.
- AI in Personalized Consumer Banking. Этические и пользовательские аспекты применения ИИ в банковской персонализации.
- Neuromarketing and Big Data Analysis of Banking Firms’ Website Interfaces and Performance. Как банки используют анализ поведения и нейроUX в цифровых продуктах.
- Neurotechnology in Payments. Обзор нейротехнологий в платёжных решениях — и вызовов, связанных с их этикой.
- Augmented Reality: The Gateway to Immersive Payment Experiences
- A Brain Implant That Turns Your Thoughts Into Text
- Global Consumer Banking Survey 2025. Исследование поведения пользователей и ожиданий в сфере цифрового банкинга.
Про Neuralink поговорим в следующих постах.
#UXWatch #AIShelf
Новый подход к контролю чувствительных данных в LLM

Авторы "Trustworthy AI: Securing Sensitive Data in Large Language Models" предлагают комплексный фреймворк для динамического управления раскрытием ПД в LLM. Основная идея - внедрение доверительных механизмов (через RBAC и ABAC), которые позволяют LLM адаптировать свои ответы в зависимости от уровня доверия пользователя, тем самым обеспечивая безопасное и контролируемое поведение модели при работе с чувствительными данными. Особенно актуально для таких доменов, как healthcare, legal, finance.

Какие проблемы осветили:
Black-box-природа LLM: Пользователи и разработчики не имеют достаточного контроля над тем, какие данные может раскрыть модель, так как внутренние механизмы обучения непрозрачны.
Утечки через обучение: LLM могут запоминать части тренировочных данных (включая PII), и воспроизводить их при определённых запросах.
Эксплойты через промпты: Злоумышленники могут использовать специально сконструированные запросы для извлечения чувствительной информации.
Недостатки текущих методов защиты:
Подходы не учитывают уровень доверия пользователя.
Средства, такие как фильтрация по словам, неэффективны против семантических вариаций и требуют значительных вычислительных ресурсов.
Универсальные политики доступа приводят либо к переоткрытию, либо к избыточному ограничению.

Кратко про существующие методы:
Data Sanitization: Удаление конфиденциальных данных из обучающего корпуса. Плюс: Прямое исключение чувствительной информации. Минус: Трудно масштабировать, автоматизация не справляется с контекстом, ручной анализ невозможен для миллиардов токенов.
Differential Privacy: Добавление шума в процессе обучения, чтобы скрыть детали отдельных данных. Плюс: Теоретически защищает от атак на приватность. Минус: Снижает точность модели, требует больших ресурсов, сложно применимо к LLM в реальности.
Output Filtering: Постобработка с целью фильтрации чувствительной информации в ответах модели. Плюс: Последняя линия защиты перед пользователем. Минус: Высокая вероятность ложных срабатываний, легко обойти продвинутыми запросами, не различает уровни доверия пользователей.

Предлагаемые решения: Авторы предлагают внедрение динамического фреймворка доверия, основанного на двух концепциях:
RBAC (Role-Based Access Control): Доступ к данным регулируется на основе ролей (например, врач, юрист, студент).
ABAC (Attribute-Based Access Control): Учитываются дополнительные параметры — контекст запроса, устройство, временные метки, политика компании и др.
Фреймворк включает три модуля:
User Trust Profiling: Определяет доверие к пользователю.
Information Sensitivity Detection: Обнаруживает чувствительные данные в выходе модели.
Adaptive Output Control: Настраивает ответ модели в зависимости от доверия.
Таким образом модель может динамически адаптировать свое поведение.
#BehindTheMachine #AIShelf
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Pika 2.2.
#TalkPrompty
Мой быстрый эксперимент: "A Lady Justice (Femida) is walking in a hybrid digital courtroom in full-length in a Greek white dress and sandals. She wears high-tech VR glasses instead of a blindfold. Background is a glitchy blend of classical marble court and neon cyberspace UI — floating cookie banners, algorithmic graphs, biometric scans. She holds a glowing scale and a gavel, near a neural network. Her expression is calm, serious, insightful. Cinematic lighting, cyber-noir aesthetic, 16:9 aspect ratio"
ИИ генерация видео
Ловите подборку сервисов:
1. Veo Google AI Studio. Только сначала поколдуйте с впн и страной в вашем гугл-аккаунте.
2. Sora (нужна подписка ChatGPT Plus);
3. Higgsfield,пишет сценарий к вашему видео, генерит ключевые кадры, превращает их в ролики;
4. Vidu, картинки/текст в видео, много темплейтов;
5. SkyReeels, есть примеры, рилсы сделаете без особых усилий;
6. Video Ocean, плавные кадры, реалистично, подсказки;
7. Invideo AI, для соц.сетей, 10 минут видео в неделю;
8.Stable Virtual Camera, превращение фото в 3D-сцены, генерирует объемные видео с соотношением сторон 1:1, 9:16 и 16:9 длиной до 1000 кадров на основе изображений;
9.Dream Machine, генерирует + может сама озвучить видео
10. Pika, генерация одна бесплатная, Pikaswaps (замена деталей),Pikaadditions (добавление деталей). Стартовое видео по промту без изменений кидаю в канал.
11.Revid AI превращает идею в видео для соц.сетей;

Сервисы для видеомонтажа:
1.Kozy, видеомонтаж без усилий и сложных программ , опишите каким вы хотите видеть своё видео и для каких целей;
2. Submagic, добавляет субтитры, B-roll, зум-эффекты и звуки, для Shorts супер;
3. Opus, нарежет короткие клипы для соцсетей из длинного видео;
4. Syllaby, визуалы, субтитры и даже ваш ИИ-голос;
5. VideoLeap, ИИ-видеоредактор в телефоне, все быстро и просто.

Для вдохновения рекомендую к просмотру победителей фестиваля ИИ-фильмов Neuro Masters.
#TalkPrompty
👍2
Использование чувствительных данных гос.сектором для обучения ИИ: пример ICDC и не только

Разведсообщество США планирует запустить платформу ICDC — централизованный «цифровой магазин» для покупки чувствительной персональной информации о миллионах людей (геолокация, соцсети, биометрия, финансы, мед.данные — то, что раньше выдавалось только по решению суда). Теперь 18 агентств, включая ЦРУ, АНБ и ФБР, смогут получать эти данные автоматически, через единый портал с поддержкой ИИ. Среди функций — генеративные модели и «анализ настроений» граждан.
Напомню, что агрегация, казалось бы, безобидных фрагментов информации может раскрывать чувствительные детали о человеке, например
исследование Стэнфордского университета показало в GPT-4. ODNI признаёт, что данные могут причинить «значительный вред, стыд и неудобство». При этом контроль за их чувствительностью — на усмотрение продавцов, а не независимых структур.

По мнению юристов и правозащитников, это нарушает границы приватности, способствует дискриминации, повышает риски репрессий и цензуры. Коммерциализация фактически создает «лазейку» для наблюдения и возможности обойти необходимость получения судебного постановления. Сенатор Рон Уайден прямо предупреждает: новая администрация может использовать ICDC для массовой слежки, включая отслеживание мигрантов, выявление протестующих по перемещениям и браузингу. В то же время законодательная инициатива Fourth Amendment Is Not For Sale Act, запрещающая госорганам и спецслужбам покупать данные о клиентах у брокеров без ордера и использовать такие данные в суде (кейсы Carpenter v. US, 2018), пройдя Палату Представителей,так и остается в Сенате.

Государства естественно стремятся собрать и использовать как можно больше данных. GPAI OECD разработана дорожная карта для поддержки правительств в принятии обоснованных решений о том, когда и как делиться данными с внешними субъектами для развития инноваций. Используется три подхода: one-to-one data sharing, one-to-many data sharing, many-to-many data sharing.
Посмотрим некоторые инициативы:
- Репозитории открытых данных (Chile's Open Data Platform - открытые данные под лицензией CC-BY — свободно доступны для любых целей).
- Песочницы ( Сингапурская Data Regulatory Sandbox позволяет тестировать решения в безопасной среде с соблюдением PDPA).
- Государственные сервисы, например, Тайваньский Health Passbook -граждане могут делиться своими медицинскими данными с третьими сторонами. Бразильский «dWallet» - первая в мире инициатива, где граждане могут продать свои собственные данные (финансовые, медицинские, кредитные/контрактные) через кошелек данных и пересмотреть саму экономическую модель владения данными.
В РФ Минцифры предлагает собирать обезличенные данные от организаций для эффективного решения госзадач (где построить дороги, школы) или научных целей в специальной государственной информационной системе. Подчеркивается, что в наборы данных нельзя включать биометрические и чувствительные сведения (о религии и т.д.). Доступ к обезличенным данным смогут получить представители организаций, компаний, органов власти. Подать запрос на получение набора данных можно через личный кабинет с указанием цели, планируемого результата, времени использования наборов данных и основания.

Субъекты, включая брокеров данных, которые продают данные государственным учреждениям, могут стратегически собирать или обрабатывать данные в юрисдикциях с более мягкими определениями «персональных данных» или где общедоступные данные явно исключены из защиты законов о конфиденциальности со всеми вытекающими последствиями.

Растущий доступ к чувствительным данным требует:
От компаний, взаимодействующих с гос.сектором:
- продуманной защиты;
- выстраивания системы доверия, отчетности и контроля;
- последовательного, стабильного регуляторного подхода.
От пользователей:
- осведомлённости;
- активного использование прав субъекта данных.
#LawAndDisorder
@pattern_ai
👍3
Neuralink и риски цифрового принуждения
Ч.1.

Не только Маск грезит о том, чтобы в течение 10 лет Neuralinks чипы могли быть имплантированы миллионам людей, но и многие другие компании и исследовательские группы работают над схожими проектами интерфейсов мозг-компьютер (BCI, brain-computer interface). Например, только в США 45 испытаний зарегистрировано в базе данных исследований, компания Synchron тестирует имплантат по контролю мозга над компьютерами, который вставляется в мозг через кровеносный сосуд, также компании Paradromics, Precision Neuroscience и BlackRock Neurotech разрабатывают передовые интерфейсы мозг-компьютер, во Франции - стартап Inclusive Brains.

Исходя из публичных данных Neuralink и размещенной Privacy Policy, мы видим, что производится полный и подробный сбор данных о пациентах, основываясь на explicit consent (контактные, демографические данные, полная история болезни и т.п). В нынешнем моменте исследований все кажется логичным:
▪️Прозрачность в обмене данными: личная информация может быть передана исследовательским группам, проводящим клинические испытания Neuralink, для определения потенциального соответствия требованиям, а также поставщикам услуг.
▪️ Практика анонимизации: анонимизированные данные могут использоваться для внутренних исследований, разработки продуктов или любых других законных целей.
▪️ Хранение данных: личная информация хранится в течение срока, который Neuralink считает необходимым для проведения клинических испытаний, или до тех пор, пока человек не запросит удаление из Реестра пациентов.
▪️ Запрет на продажу или целевую рекламу: обязуется не продавать личную информацию и не передавать ее третьим сторонам для целей целевой рекламы.
#UXWatch
@pattern_ai
Neuralink и риски цифрового принуждения
Ч.2.
Давайте заглянем в будущее, когда технологии BCI станут доступны на коммерческой основе.
Использование высокочувствительной информации, связанной с нейронными связями конкретного человека ставит уникальные проблемы, которые еще необходимо решить:
- вопросы о происхождении и целостности данных еще до того, как будут задействованы данные человека, касающиеся «предчеловеческих» данных и их влияния на обработку данных человека. Neuralink широко использует животные модели для доклинических исследований, собирая данные КТ и имитируя свойства мозга для практики имплантации. Эти «предчеловеческие» данные напрямую влияют на дизайн, интерфейс и функциональность человеческих имплантатов и алгоритмов, которые будут обрабатывать нейронные данные человека. Доклинические исследования направлены на сужение фокуса и выявление переменных для применения на людях. Хотя данные животных не классифицируются как «персональные данные» в соответствии с действующими законами о конфиденциальности, предубеждения или ограничения, введенные во время сбора доклинических данных и последующего обучения модели ИИ на этих данных, могут непреднамеренно распространиться на системы BCI, ориентированные на человека.
- адекватность текущих мер защиты данных, использование анонимизации данных. Сама природа нейронных данных, даже при удалении прямых идентификаторов, по своей сути уникальна для человека. Сложность декодирования сигналов мозга для таких функций, как «управление курсором типа «наведи и щелкни»», «мозг-текст» или «декодирование целых слов непосредственно из мозга» подразумевает прямую связь между нейронной активностью и высоколичными когнитивными процессами. Уровень детализации данных в сочетании с передовыми возможностями ИИ по выводу данных означает, что даже «анонимизированные» нейронные данные потенциально могут раскрывать чувствительные атрибуты, когнитивные состояния и идентифицировать человека (теория мозаики) . Про риски эксплуатации чувствительных данных указывают и сенаторы в совместном письме к FTC.
- «парадокс согласия», присущий быстро развивающимся возможностям BCI от базового управления курсором к потенциальному декодированию сложных мыслей или намерений непосредственно из мозга. Neuralink подчеркивает явное согласие на сбор и использование данных. Однако то, на что человек соглашается сегодня — например, на управление курсором или набор текста — может привести к непредвиденным возможностям завтра, таким как декодирование сложных мыслей, намерений или эмоциональных состояний, выходящих за рамки простых команд. Люди не могут по-настоящему предоставить полностью информированное согласие на будущие, неизвестные использования или выводы, сделанные из их нейронных данных, особенно по мере развития технологии.
- отсутствие публичных отчётов об эффективности, безопасности, побочных эффектах. Например, Neuralink не публикует подробные клинические данные, сообщения об ошибках (например, отсоединение электродов) задерживаются
- вопросы рекламы даже поднимать не хочется….

А из рекомендаций — посмотрите 7 сезон Black Mirror или хотя бы первую серию этого сезона “Common People” и задумайтесь, кто в будущем будет определять, что является вашей мыслью — вы или алгоритм?
Почитать — Neuralink’s brain-computer interfaces: medical innovations and ethical challenges,
Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies /NeuroRights Foundation

#UXWatch #AIShelf
@pattern_ai
AI-агенты и применимость EU AI ACT

Вышел Report Ahead of the Curve: Governing AI Agents under the EU AI Act/The Future Society, где раскрываются характеристики AI -агентов, объясняется распределение обязанностей по управлению между участниками цепочки создания стоимости AI-агента, предлагается четырехкатегорийная таксономию для организации обязательств по управлению, в зависимости от функций и характеристик реализации ( оценка риска агента, инструменты прозрачности, технические меры по смягчению последствий развертывания, человеческий надзор).

AI-агенты рассматриваются, как AI‑системы, поскольку (i) они соответствуют шести базовым критериям определения AI‑системы (ст. 3(1); C (2025) 924 (9)), (ii) они представляют собой GPAI‑модели с дополнительными компонентами (preamble (Recital) 97).
- Являются ли агенты (построенные на моделях GPAI) системами GPAI?
Да, но только если они поддерживают достаточную общность возможностей для обслуживания нескольких целей (Преамбула 100). Поставщик системы может интегрировать модель GPAI в систему агента таким образом, чтобы предотвратить общие возможности.
- Должны ли поставщики GPAISR учитывать риски АI-агентов ИИ?
AI-агенты напрямую связаны с несколькими источниками системного риска, такими как доступ к инструментам и высокий уровень автономности, которые необходимо оценивать и смягчать (Преамбула 110, ст. 55 (1)(b)). Это справедливо независимо от того, разработан ли AI-агент (i) самим поставщиком модели или (ii) нижестоящим поставщиком.
- Являются ли AI -агенты высокорисковыми системами?
Это зависит от предполагаемого назначения агента. Агент является высокорисковой системой ИИ, если он предназначен для (i) функционирования в качестве компонента безопасности или (ii) для варианта использования, перечисленного в Приложении III, в этом случае применяются положения Гл. III. Если AI-агент является системой GPAI и может использоваться в зоне высокого риска согласно Приложению III, поставщик должен намеренно исключить такое использование, чтобы избежать классификации высокого риска.
- Какой орган отвечает за надзор за AI -агентами?
Если агент не является высокорисковой системой GPAI и разработан нижестоящим поставщиком, то ответственность за надзор несет соответствующий национальный орган по надзору за рынком. Если агент является высокорисковой системой GPAI и разработан нижестоящим поставщиком, то ответственность несет Орган по надзору за рынком, но он должен тесно сотрудничать с Управлением по надзору за рынком для оценки соответствия (ст. 75(2), Преамбула 161). 3. Если агент создан на основе модели GPAI, а агент и модель GPAI разработаны одним и тем же поставщиком, ответственность несет Управление по надзору за рынком (ст. 75(1)).
Про рекомендации по использованию AI-агентов читайте в другом посте.
#LawAndDisorder
@pattern_ai
🔥1
Полезные схемы по логике применения EU AI Act к AI-агентам из Report Ahead of the Curve: Governing AI Agents Under the EU AI Act /The Future Society.
Применимость и идеи можно обсудить в комментариях.
#LawAndDisorder #AIShelf
@pattern_ai
Не в ЕС, но в зоне риска, к кому применим EU AI Act

Разберем в серии постов, как AI Act делает стартапы глобально ответственными.
К кому применяется?
1️⃣ В 27 странах-членах ЕС и в странах Европейского экономического пространства (ЕЭП) — Норвегии, Исландии и Лихтенштейне.
2️⃣ Имеет экстерриториальное применение, т.е. распространяется на компании, находящиеся за пределами ЕС и ЕЭП, если они:
- предоставляют на рынок ЕС или ЕЭП AI-системы или модели общего назначения (GPAI).
- вводят в эксплуатацию такие системы или модели в ЕС или ЕЭП.
- развертывают AI-системы, результаты работы которых используются в ЕС или ЕЭП.
Н-р: ИИ прогнозы, контент, рекомендации или решения — если они используются в ЕС—могут потенциально привести к применению Акта. Анализ кандидатов и подготовка отчёта для клиента в ЕС, компанией не в ЕС.
3️⃣ Требования AI Act касаются других участников эксплуатации, распространения или использования ИИ-систем (поставщиков, импортеров, дистрибьюторов и пользователей).
#LawAndDisorder
@pattern_ai
Что должен знать и продакт, и юрист: категории систем ИИ по EU AI ACT

AI Act делит ИИ-системы на четыре категории по уровню риска. Для понимания объема ваших обязательств необходимо определить категорию, под которую подпадает ИИ- система.
1️⃣ Неприемлемый уровень риска (Art.5) - системы ИИ, использование которых нарушает основные права, закрепленные в Хартии Европейского союза об основных правах:
• социальный скоринг. Н-р. Государственная AI-система оценивает граждан по их поведению (социальные взаимодействия, активность в интернете, платежная дисциплина). Люди с низкими баллами сталкиваются с ограничениями на получение госуслуг, повышенными ставками по кредитам, трудностями при аренде жилья и трудоустройстве.
• эксплуатация любых уязвимостей физических лиц ( возраст, инвалидность, социально-экономические условия) с целью существенного искажения их поведения таким образом, который причиняет или может причинить значительный вред. Н-р: Чат-бот для лиц с психическими расстройствами, который подталкивает к покупке дорогостоящих медицинских продуктов. Алгоритмы прогнозирования ИИ для таргетирования рекламы финансовых продуктов на людей с низким доходом.
• распознавание лиц путем неселективного сбора изображений из интернета или систем видеонаблюдения (CCTV),
• манипулятивные технологии ИИ. Н-р: AI-бот может подделывать голос знакомого человека, чтобы вводить людей в заблуждение. Игрушки на базе ИИ, побуждающие детей выполнять все более рискованные задания;
• оценка и прогнозирование риска совершения отдельных уголовных преступлений (размещение на рынке, ввод в эксплуатацию или использование ИИ исключительно для составления профилей лиц с целью оценки или прогнозирования вероятности преступного поведения).
• распознавание эмоций на рабочем месте или в образовательных учреждениях, за исключением медицинских целей или соображений безопасности и т.п.
• использование сублиминальных техник, направленных на воздействие за пределами сознания человека для существенного искажения его поведения.
• использование систем биометрической категоризации чувствительных характеристик. Н-р: ИИ, анализирующий голос человека для определения его расы, считается нарушением закона. ИИ, анализирующий татуировки или черты лица для предсказания религиозных убеждений, подпадает под запрет.
2️⃣ Высокий уровень риска (Art.6,7, Annex 1 и 3) - системы, которые потенциально могут оказать пагубное воздействие на здоровье, безопасность и основные права людей, н-р:
• биометрическая идентификация и категоризация, распознавание эмоций;
• критическая инфраструктура (цифровая инфраструктура, дорожное движение, подача воды, газа, отопления или электроэнергии);
• образовательная и профессиональная подготовка (зачисление, оценка результатов обучения, выявление запрещенного поведения учащихся);
• трудоустройство, руководство сотрудниками, доступ к самозанятости (отбор кандидатов, оценка результатов работы и т.п.);
• доступ к определенным частным и государственным услугам (оценка права на получение пособий, медицинских услуг, кредитоспособность, риски, связанные со страхованием и т.п.);
• определенная деятельность, связанная с правоохранительными органами; и
• управление миграцией, предоставление убежища, пограничный контроль, судебные функции.
3️⃣Ограниченный уровень риска (Art. 50) - cистемы, которые имеют низкий потенциал для манипуляции или причинения вреда пользователям и их правам (чат-боты и системы, генерирующие или манипулирующие изображениями, аудио и видео).
4️⃣Минимальный уровень риска - cистемы, которые обладают минимальной возможностью нанести вред пользователям или нарушить их права (спам-фильтры, видеоигры, использующие ИИ).
#LawAndDisorder
@pattern_ai
Предварительно определить уровень риска системы ИИ можно с помощью прохождения опросников
The SME assessment tool for AI requirements и
EU AI Act Compliance Checker, а дальше продолжить работу с экспертами
#LawAndDisorder #AIShelf
@pattern_ai
1
Дизайнер интерфейсов как субъект AI-комплаенса: вы не только проектируете интерфейсы — вы формируете риски

Когда говорят об «AI-комплаенсе», обычно думают об юристах, разработчиках или CTO, но legal знания дизайнеров интерфейса вашего продукта помогут уменьшить риски штрафов и сэкономить на изменениях при разработке проекта. Сделать со старта всегда проще….

По AI Act Deployer — это физическое или юридическое лицо, государственный орган, агентство или другая структура, использующая ИИ систему под своим контролем, за исключением личного непрофессионального использования (Статья 3(4), Recital 13 EU AI Act).

Cмотрим на примерах, как UX/UI-решения влияют на соблюдение закона:
- скрытие AI-функций нарушает прозрачность (статья 50 EU AI Act): пользователь должен понимать, что взаимодействует с ИИ.
- системы ИИ, которые применяют преднамеренно манипулятивные или обманные методы (CTA или UX-паттерны) могут быть отнесены к запрещённым практикам (статья 5 EU AI Act).
- High-risk ИИ без контроля человека нарушает закон (гл. 2, ст. 26–29)
Пример: если организация развёртывает чат-бот на чувствительные темы и не говорит, что это ИИ — это нарушение даже, если вы не писали код.

Разберем некоторые требования закона:
1️⃣ Прозрачность (ст. 50 EU AI Act)
Пользователь должен ясно понимать, что он взаимодействует с ИИ, каковы его возможности и ограничения.
UI-формулировки:
🔹На старте общения с ИИ:
"Этот чат управляется искусственным интеллектом."
"Вы разговариваете с автоматизированной системой, а не с человеком."

🔹 В кнопках и действиях:
"Спросить ИИ" вместо "Получить помощь"
"Сгенерировать с помощью AI" вместо просто "Создать"

🔹В описании функций:
"Эта функция использует AI для подбора рекомендаций. Алгоритмы могут ошибаться."

2️⃣ Предотвращение манипулятивного UX (ст. 5 EU AI Act)
Проверить, что:
- пользователь информируется о возможных рисках/ошибках/ограничениях
Пример: "Продолжить без чтения" — не ок.
- есть ли отдельный шаг согласия на использование AI или обработки данных.
- варианты выбора оформлены равнозначно, н
- нет "pre-checked" чекбоксов без объяснений
- подтверждение согласия — явно, а не по умолчанию
Примеры: всплывающее окно согласия "ОК" (без объяснения, к чему согласие) заменить на "Согласен на использование ИИ-советника".
Автогенерация контента "Создать" (неясно, человек или AI) заменить на "Сгенерировать с помощью ИИ"
.
Рекомендации при выборе продукта "Лучший выбор" (на основе AI) заменить на "Рекомендовано алгоритмом — подробнее".

3️⃣ Контроль и надзор (ст. 13, 14, EU AI Act)
В системах высокого риска должен быть понятный способ обратиться к человеку, отказаться от ИИ или подать жалобу.
Примеры формулировок:
- "Не помогло? Поговорить с оператором"
- "Вы можете отключить автоматическое принятие решений в настройках."
- "Жалоба на работу AI — нажмите здесь"
-"Этот ответ был сгенерирован автоматически. Проверьте достоверность."


Помните, что формулировка, стиль и оформление "каких-то" кнопок - юридически значимы.
#UXWatch
@pattern_ai
🔥3