Добро пожаловать на канал Pattern AI!
Здесь говорят про то, как технологии влияют на бизнес, поведение пользователей и правила игры.
ИИ давно вышел за рамки генерации текста и изображений (подборка нейросетей). Он помогает нанимать, оценивать, предлагать и управлять. Без громких пресс-релизов. Иногда — с нарушением закона ( IP кейсы, занижение оценок студентам, ограничение доступа пользователей к услугам, гендерная предвзятость). Часто — без понимания последствий.
ИИ внедряется в каждую сферу, меняя пользовательский опыт, структуру компаний и правила эффективности (FTSG Tech Trend Report):
- сокращает цикл принятия решений с недель до минут;
- снижает затрат на 30 – 40%;
- автоматизирует координацию, убирая прослойку «менеджеров-посредников»;
- переход на на диалоговые формы (chat/UI), т.к.привычные интерфейсы устаревают;
- скрытый налог на ИИ. Настоящие издержки — не покупка ИИ, а энергия и инфраструктура, чтобы его поддерживать. Поздний вход на рынок = более высокая цена для компании.
В Pattern AI, мы:
- отслеживаем, как ИИ внедряется в разные сферы и в нашу повседневную жизнь;
- даем практические советы по законному и этичному внедрению технологий;
- разбираем, где UX превращается в манипуляцию;
- следим за тем, как законы пытаются догнать технологии;
- делаем подборки полезных ресурсов.
В центре внимания — регулирование, этика, тёмные паттерны, невидимые интерфейсы, нейро-манипуляции и разборы о том, как работают технологии. С аналитикой, фактами и вниманием к деталям.
Материалы не являются юридической консультацией
Здесь говорят про то, как технологии влияют на бизнес, поведение пользователей и правила игры.
ИИ давно вышел за рамки генерации текста и изображений (подборка нейросетей). Он помогает нанимать, оценивать, предлагать и управлять. Без громких пресс-релизов. Иногда — с нарушением закона ( IP кейсы, занижение оценок студентам, ограничение доступа пользователей к услугам, гендерная предвзятость). Часто — без понимания последствий.
ИИ внедряется в каждую сферу, меняя пользовательский опыт, структуру компаний и правила эффективности (FTSG Tech Trend Report):
- сокращает цикл принятия решений с недель до минут;
- снижает затрат на 30 – 40%;
- автоматизирует координацию, убирая прослойку «менеджеров-посредников»;
- переход на на диалоговые формы (chat/UI), т.к.привычные интерфейсы устаревают;
- скрытый налог на ИИ. Настоящие издержки — не покупка ИИ, а энергия и инфраструктура, чтобы его поддерживать. Поздний вход на рынок = более высокая цена для компании.
В Pattern AI, мы:
- отслеживаем, как ИИ внедряется в разные сферы и в нашу повседневную жизнь;
- даем практические советы по законному и этичному внедрению технологий;
- разбираем, где UX превращается в манипуляцию;
- следим за тем, как законы пытаются догнать технологии;
- делаем подборки полезных ресурсов.
В центре внимания — регулирование, этика, тёмные паттерны, невидимые интерфейсы, нейро-манипуляции и разборы о том, как работают технологии. С аналитикой, фактами и вниманием к деталям.
Материалы не являются юридической консультацией
👍1
Законы против алгоритма: кто быстрее?
Если посмотреть статистику, то упоминания ИИ в законодательных инициативах выросли на 21,3% в 75 странах по сравнению с 2023 годом, что в 9 раз выше по сравнению с 2016 годом (Stanford AI Index Report).
Основные цели как международных (OECD AI Principles, G7 Code of Conduct, NIST,Council of Europe Framework Convention on AI, Global Partnership on Artificial Intelligence), так и национальных инициатив по регулированию:
▪️ Защита прав человека, недопущение дискриминации и манипуляций;
▪️Управление рисками ИИ систем;
▪️ Обеспечение прозрачности, объяснимости и безопасности систем;
▪️ Установление ответственности в цепочке создания и внедрения ИИ.
Если быстро пройтись по странам, то ЕС стал пионером. AI Act первый в мире закон по регулированию ИИ, задает тон остальным, имеет экстерриториальное действие, а несоблюдение грозит еще большими штрафами чем GDPR, до 7% мирового годового оборота компании или 35 млн евро.
В США пока нет единого федерального закона. Каждый штат действует по своей инициативе. Федеральные агентства (FTC, SEC, FDA, CFPB) ввели 59 нормативных актов, связанных с ИИ, что вдвое больше чем в 2023 году. Действуют также добровольные стандарты (NIST AI RMF, ISO/IEC Standards ( 42001), IEEE Standards (7000 series)) .
В Китае приняты правила для генеративного ИИ, дипфейков, регламент по идентификации синтетического контента.
Другие страны также в процессе разработки национальных стратегий и рамочных законов (Канада- AIDA, Бразилия -PL 21/2020, ОАЭ - AI Strategy 2031 и т.д.)
Что делать бизнесу в постоянно меняющемся регуляторном ландшафте?
- Идентифицировать и документировать ИИ-системы и GPAI-модели, которые разрабатывает или использует ваша компания, а также их целевое назначение.
- Классифицировать их по уровням риска и соответствующим требованиям национальных регуляторов.
- Провести аудит на предмет несоответствий и потенциальных рисков.
- Разработать стратегию управления ИИ и внедрить программу ИИ-комплаенса, включая обучение сотрудников основам регулирования ИИ.
- Пристально следить за изменениями законодательства. Полезный ресурс для этого Global AI Regulation Tracker.
#LawAndDisorder #ai #ии
Если посмотреть статистику, то упоминания ИИ в законодательных инициативах выросли на 21,3% в 75 странах по сравнению с 2023 годом, что в 9 раз выше по сравнению с 2016 годом (Stanford AI Index Report).
Основные цели как международных (OECD AI Principles, G7 Code of Conduct, NIST,Council of Europe Framework Convention on AI, Global Partnership on Artificial Intelligence), так и национальных инициатив по регулированию:
▪️ Защита прав человека, недопущение дискриминации и манипуляций;
▪️Управление рисками ИИ систем;
▪️ Обеспечение прозрачности, объяснимости и безопасности систем;
▪️ Установление ответственности в цепочке создания и внедрения ИИ.
Если быстро пройтись по странам, то ЕС стал пионером. AI Act первый в мире закон по регулированию ИИ, задает тон остальным, имеет экстерриториальное действие, а несоблюдение грозит еще большими штрафами чем GDPR, до 7% мирового годового оборота компании или 35 млн евро.
В США пока нет единого федерального закона. Каждый штат действует по своей инициативе. Федеральные агентства (FTC, SEC, FDA, CFPB) ввели 59 нормативных актов, связанных с ИИ, что вдвое больше чем в 2023 году. Действуют также добровольные стандарты (NIST AI RMF, ISO/IEC Standards ( 42001), IEEE Standards (7000 series)) .
В Китае приняты правила для генеративного ИИ, дипфейков, регламент по идентификации синтетического контента.
Другие страны также в процессе разработки национальных стратегий и рамочных законов (Канада- AIDA, Бразилия -PL 21/2020, ОАЭ - AI Strategy 2031 и т.д.)
Что делать бизнесу в постоянно меняющемся регуляторном ландшафте?
- Идентифицировать и документировать ИИ-системы и GPAI-модели, которые разрабатывает или использует ваша компания, а также их целевое назначение.
- Классифицировать их по уровням риска и соответствующим требованиям национальных регуляторов.
- Провести аудит на предмет несоответствий и потенциальных рисков.
- Разработать стратегию управления ИИ и внедрить программу ИИ-комплаенса, включая обучение сотрудников основам регулирования ИИ.
- Пристально следить за изменениями законодательства. Полезный ресурс для этого Global AI Regulation Tracker.
#LawAndDisorder #ai #ии
AI powered dark patterns: как ИИ учится управлять вашими решениями
Для начала - разберемся с определениями. Темные паттерны — это части интерфейса, направленные на манипуляцию поведением пользователя. OECD выделяет шесть темных паттернов, которые помогают заставить пользователя совершить действия, которые он не собирался делать.
История развития тёмных паттернов долгое время сопровождалась созданием стратегий и жёстко прописанных сценариев, разработанных людьми. Но с приходом ИИ, манипуляции стали развиваться благодаря самообучению на пользовательских данных и поведенческих реакциях.
Именно это и стало основой для нового витка развития: современные модели ИИ, такие как Claude, Gemini, Llama и GPT, теперь сканируют тысячи сайтов и приложений, анализируя, какие методы манипуляции работают лучше всего, и автоматически перенимают эти стратегии.
Результат — принципиально иной подход к манипуляциям: гораздо более персонализированный и незаметный. ИИ использует персональные данные, чтобы создавать «индивидуальные» сценарии давления на пользователей. Это уже не просто предложение товара, а специально настроенные ситуации, подталкивающие к подпискам, покупкам или другим действиям, которые выгодны бизнесу, но могут быть не в интересах пользователя.
Примеры:
- Сеть Target использовала ИИ для того, чтобы спрогнозировать беременность подростка по её покупательским паттернам, ещё до того, как она рассказала об этом своей семье.
- Ещё один пример: судья полагался на ИИ для продления заключения подсудимого, основываясь на усреднённой статистике для подобных людей, а не на индивидуальных данных.
Итого: от заранее прописанных сценариев мы пришли к адаптивным, скрытым и персонализированным манипуляциям, где основное давление оказывается не на "среднего" пользователя, а именно на вас, с учётом конкретных привычек, эмоций и данных.
Source картинки
#UXWatch
Для начала - разберемся с определениями. Темные паттерны — это части интерфейса, направленные на манипуляцию поведением пользователя. OECD выделяет шесть темных паттернов, которые помогают заставить пользователя совершить действия, которые он не собирался делать.
История развития тёмных паттернов долгое время сопровождалась созданием стратегий и жёстко прописанных сценариев, разработанных людьми. Но с приходом ИИ, манипуляции стали развиваться благодаря самообучению на пользовательских данных и поведенческих реакциях.
Именно это и стало основой для нового витка развития: современные модели ИИ, такие как Claude, Gemini, Llama и GPT, теперь сканируют тысячи сайтов и приложений, анализируя, какие методы манипуляции работают лучше всего, и автоматически перенимают эти стратегии.
Результат — принципиально иной подход к манипуляциям: гораздо более персонализированный и незаметный. ИИ использует персональные данные, чтобы создавать «индивидуальные» сценарии давления на пользователей. Это уже не просто предложение товара, а специально настроенные ситуации, подталкивающие к подпискам, покупкам или другим действиям, которые выгодны бизнесу, но могут быть не в интересах пользователя.
Примеры:
- Сеть Target использовала ИИ для того, чтобы спрогнозировать беременность подростка по её покупательским паттернам, ещё до того, как она рассказала об этом своей семье.
- Ещё один пример: судья полагался на ИИ для продления заключения подсудимого, основываясь на усреднённой статистике для подобных людей, а не на индивидуальных данных.
Итого: от заранее прописанных сценариев мы пришли к адаптивным, скрытым и персонализированным манипуляциям, где основное давление оказывается не на "среднего" пользователя, а именно на вас, с учётом конкретных привычек, эмоций и данных.
Source картинки
#UXWatch
👍5
Что говорит закон про регулирование темных паттернов и как избежать миллионных штрафов?
По данным исследований (FTC+ICPEN, European Commission’s 2022 study) 75% сайтов и приложений используют как минимум один темный паттерн, а 68% - два и более.
Cтраны активно разрабатывают и внедряют законодательные и регуляторные меры для борьбы с тёмными паттернами и манипулятивными практиками с использованием ИИ (OECD report, обзор регулирования здесь). Основное внимание уделяется обеспечению прозрачности, получению явного согласия пользователей и предотвращению манипуляций, особенно в отношении уязвимых групп населения.
В США главный игрок это FTC, запустившая в 2024 г. инициативу Operation AI Comply против компаний, использующих ИИ обманным способом. Примеры кейсов:
▪️ Сервис DoNotPay» - первый «робот- юрист», который должен был генерировать юридические документы в кратчайшие сроки и подавать иски, оштрафован на $193,000 за ложные заявления.
▪️ Rytr — ИИ-сервис генерации фейковых отзывов - прекращение работы сервиса.
▪️Ascend Ecom — обман потребителей, обещали значительный доход через создание интернет-магазинов на базе ИИ – приостановка сервиса, ждет рассмотрения в суде.
▪️NGL Labs - утверждала, что использует ИИ для модерации в анонимном приложении для обмена сообщениями, которое она незаконно рекламировала детям;
▪️Rite Aid - использовала технологию распознавания лиц на основе ИИ в своих магазинах без разумных мер безопасности;
▪️CRI Genetics - обманывала пользователей относительно точности своих отчетов о ДНК, в том числе заявляя, что использовала алгоритм ИИ для проведения генетического сопоставления.
Бюро по защите прав потребителей в сфере финансов (CFPB) выявляет темные паттерны в сфере цифровых финансовых услуг.
На уровне штатов - California Consumer Privacy Act, Colorado Privacy Act, Connecticut Data Privacy Act и т.д.
В ЕС принято уже не менее 13 нормативных актов, регулирующих dark patterns:
Закон об ИИ (AI Act) — запрещает поведенческие манипуляции, особенно в отношении уязвимых групп;
DSA (Закон о цифровых услугах) — запрет на использование deceptive practice в интерфейсах платформ;
GDPR — запрещает скрытые согласия, требует явного подтверждения (ст. 4(11), 7);
Директива о правах потребителей — запрещены предустановленные галочки (ст. 22);
UCPD (Директива о недобросовестной коммерческой практике) — регулирует обман и агрессивные практики;
Data Act - запрещает недобросовестную практику доступа к данным и вводящие в заблуждение механизмы согласия, которые подталкивают пользователей к ненужному обмену данными (rec. 38)
+ ряд других: о безопасности продуктов, защите детей, цифровой конкуренции и пр.
Примеры последних кейсов : Amazon (Польша) оштрафован $8 млн за манипуляции в интерфейсе, которые вводили в заблуждение покупателей. Иски против Meta AI Training (признана в России экстремистской и запрещена), доп.кейсы здесь.
Китай внедрил правила, запрещающие использование алгоритмов для дискриминации в ценах, результатах поиска и рекомендациях контента.
Если кратко суммировать, то мы видим, что нет единого законодательства по тёмным паттернам ИИ, множество решений принимается постфактум, после массовых жалоб, ИИ-генерация контента часто ускользает от классических определений мошенничества, отсутствуют единые стандарты оценки UX-паттернов, использующих ИИ.
Рекомендации бизнесу:
- проводите аудит интерфейсов и ИИ-моделей;
- устраняйте манипулятивные сценарии;
- следуйте принципам прозрачности и ответственности. Внедрите внутренние политики оценки ИИ-сервисов;
- отслеживайте требования и разъяснения регуляторов и проверяйте на соответствие свои продукты.
Рекомендации пользователям:
- обращайте внимание на уловки в интерфейсах. Следите за тем, легко ли отказаться от сервиса или подписки.
- проверяйте источник информации — это реальный человек или ИИ;
- не спешите с действиями при навязчивых уведомлениях;
- используйте инструменты контроля трекинга;
- сообщайте о подозрительных интерфейсах в регуляторные органы, и, главное,
- ЧИТАЙТЕ МЕЛКИЙ ШРИФТ!
#LawAndDisorder
По данным исследований (FTC+ICPEN, European Commission’s 2022 study) 75% сайтов и приложений используют как минимум один темный паттерн, а 68% - два и более.
Cтраны активно разрабатывают и внедряют законодательные и регуляторные меры для борьбы с тёмными паттернами и манипулятивными практиками с использованием ИИ (OECD report, обзор регулирования здесь). Основное внимание уделяется обеспечению прозрачности, получению явного согласия пользователей и предотвращению манипуляций, особенно в отношении уязвимых групп населения.
В США главный игрок это FTC, запустившая в 2024 г. инициативу Operation AI Comply против компаний, использующих ИИ обманным способом. Примеры кейсов:
▪️ Сервис DoNotPay» - первый «робот- юрист», который должен был генерировать юридические документы в кратчайшие сроки и подавать иски, оштрафован на $193,000 за ложные заявления.
▪️ Rytr — ИИ-сервис генерации фейковых отзывов - прекращение работы сервиса.
▪️Ascend Ecom — обман потребителей, обещали значительный доход через создание интернет-магазинов на базе ИИ – приостановка сервиса, ждет рассмотрения в суде.
▪️NGL Labs - утверждала, что использует ИИ для модерации в анонимном приложении для обмена сообщениями, которое она незаконно рекламировала детям;
▪️Rite Aid - использовала технологию распознавания лиц на основе ИИ в своих магазинах без разумных мер безопасности;
▪️CRI Genetics - обманывала пользователей относительно точности своих отчетов о ДНК, в том числе заявляя, что использовала алгоритм ИИ для проведения генетического сопоставления.
Бюро по защите прав потребителей в сфере финансов (CFPB) выявляет темные паттерны в сфере цифровых финансовых услуг.
На уровне штатов - California Consumer Privacy Act, Colorado Privacy Act, Connecticut Data Privacy Act и т.д.
В ЕС принято уже не менее 13 нормативных актов, регулирующих dark patterns:
Закон об ИИ (AI Act) — запрещает поведенческие манипуляции, особенно в отношении уязвимых групп;
DSA (Закон о цифровых услугах) — запрет на использование deceptive practice в интерфейсах платформ;
GDPR — запрещает скрытые согласия, требует явного подтверждения (ст. 4(11), 7);
Директива о правах потребителей — запрещены предустановленные галочки (ст. 22);
UCPD (Директива о недобросовестной коммерческой практике) — регулирует обман и агрессивные практики;
Data Act - запрещает недобросовестную практику доступа к данным и вводящие в заблуждение механизмы согласия, которые подталкивают пользователей к ненужному обмену данными (rec. 38)
+ ряд других: о безопасности продуктов, защите детей, цифровой конкуренции и пр.
Примеры последних кейсов : Amazon (Польша) оштрафован $8 млн за манипуляции в интерфейсе, которые вводили в заблуждение покупателей. Иски против Meta AI Training (признана в России экстремистской и запрещена), доп.кейсы здесь.
Китай внедрил правила, запрещающие использование алгоритмов для дискриминации в ценах, результатах поиска и рекомендациях контента.
Если кратко суммировать, то мы видим, что нет единого законодательства по тёмным паттернам ИИ, множество решений принимается постфактум, после массовых жалоб, ИИ-генерация контента часто ускользает от классических определений мошенничества, отсутствуют единые стандарты оценки UX-паттернов, использующих ИИ.
Рекомендации бизнесу:
- проводите аудит интерфейсов и ИИ-моделей;
- устраняйте манипулятивные сценарии;
- следуйте принципам прозрачности и ответственности. Внедрите внутренние политики оценки ИИ-сервисов;
- отслеживайте требования и разъяснения регуляторов и проверяйте на соответствие свои продукты.
Рекомендации пользователям:
- обращайте внимание на уловки в интерфейсах. Следите за тем, легко ли отказаться от сервиса или подписки.
- проверяйте источник информации — это реальный человек или ИИ;
- не спешите с действиями при навязчивых уведомлениях;
- используйте инструменты контроля трекинга;
- сообщайте о подозрительных интерфейсах в регуляторные органы, и, главное,
- ЧИТАЙТЕ МЕЛКИЙ ШРИФТ!
#LawAndDisorder
👍4
RAG — новая точка входа для тёмных паттернов.
Retrieval-Augmented Generation (RAG) — это подход, где языковая модель сначала делает запрос в базу знаний (retrieval), а затем формирует текст на основе извлечённых данных (generation).
Это гибкий аналог fine-tuning, где вместо статического обучения модели на конкретной выборке, система подставляет нужные документы в рантайме (времени выполнения программы).
Что это меняет:
- Раньше тёмные UX-паттерны жили в интерфейсах: тени, кнопки, таймеры.
- RAG убирает интерфейс как слой. Тексты, действия и тон меняются автоматически, в зависимости от запроса и поведенческого профиля.
- Манипуляция становится невидимой: пользователь думает, что получает ответ, но на самом деле — персонализированную инструкцию, выведенную из векторного профиля и подобранных документов.
- Вся адаптация происходит не в UI, а на уровне:
1. источников retrieval (приоритетность документов),
2. генеративного ответа (нейтральный vs выгодный тон),
3. и логики подстановки (какие данные считаются «релевантными»).
Технически: RAG заменяет код-ветвления (если человек нажал кнопку — покажи X, если не нажал — покажи Y.) и A/B-тесты (когда разным группам пользователей показывают разные части интерфейса) на real-time семантический адаптер.То есть RAG система в реальном времени подтягивает куски текста из разных источников, чтобы создать "на лету" ответ или интерфейс. Это как если бы интерфейс читал сотни документов и сразу решал, что именно вам показать — но вы не видите, что именно осталось за кадром.
Это удобно для разработчиков — но плохо c точки зрения прозрачности, так как:
— модель покажет, из каких документов взяты фразы;
— но никто не покажет, почему выбраны именно эти документы, и что осталось за кадром.
По сути, RAG — это новый скрытый слой между вами и интерфейсом. Он может менять суть происходящего, но при этом быть невидимым.
И если раньше интерфейс можно было разобрать и сказать: вот где нас убедили купить, — теперь воздействие может произойти глубже, на уровне подобранного контекста.
Подробнее:
IBM про RAG
Fine-tuning vs RAG
AI Design Patterns
Картинка
#BehindTheMachine
Retrieval-Augmented Generation (RAG) — это подход, где языковая модель сначала делает запрос в базу знаний (retrieval), а затем формирует текст на основе извлечённых данных (generation).
Это гибкий аналог fine-tuning, где вместо статического обучения модели на конкретной выборке, система подставляет нужные документы в рантайме (времени выполнения программы).
Что это меняет:
- Раньше тёмные UX-паттерны жили в интерфейсах: тени, кнопки, таймеры.
- RAG убирает интерфейс как слой. Тексты, действия и тон меняются автоматически, в зависимости от запроса и поведенческого профиля.
- Манипуляция становится невидимой: пользователь думает, что получает ответ, но на самом деле — персонализированную инструкцию, выведенную из векторного профиля и подобранных документов.
- Вся адаптация происходит не в UI, а на уровне:
1. источников retrieval (приоритетность документов),
2. генеративного ответа (нейтральный vs выгодный тон),
3. и логики подстановки (какие данные считаются «релевантными»).
Технически: RAG заменяет код-ветвления (если человек нажал кнопку — покажи X, если не нажал — покажи Y.) и A/B-тесты (когда разным группам пользователей показывают разные части интерфейса) на real-time семантический адаптер.То есть RAG система в реальном времени подтягивает куски текста из разных источников, чтобы создать "на лету" ответ или интерфейс. Это как если бы интерфейс читал сотни документов и сразу решал, что именно вам показать — но вы не видите, что именно осталось за кадром.
Это удобно для разработчиков — но плохо c точки зрения прозрачности, так как:
— модель покажет, из каких документов взяты фразы;
— но никто не покажет, почему выбраны именно эти документы, и что осталось за кадром.
По сути, RAG — это новый скрытый слой между вами и интерфейсом. Он может менять суть происходящего, но при этом быть невидимым.
И если раньше интерфейс можно было разобрать и сказать: вот где нас убедили купить, — теперь воздействие может произойти глубже, на уровне подобранного контекста.
Подробнее:
IBM про RAG
Fine-tuning vs RAG
AI Design Patterns
Картинка
#BehindTheMachine
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Не могу пройти мимо тренда: инструкция для анимированной куклы
- Загружаем фото референс и свои фото в gpt чат (с vpn). Мой промт:
Создай упаковку в виде игрушки как на втором фото - копией картинки с первого фото ( фигура фемиды в очках дополненной реальности). Тело пропорциональное, с длинными ножками. Фигурка с тем же выражением лица, но в стиле fashion doll, реалистичная и объемная. В греческой одежде. Добавь аксессуары рядом с фигуркой. Все аксессуары пропорциональны по размеру и по отношению к фигурке. Все элементы аккуратно размещены в пластиковой блистерной упаковке с картонной подложкой нежно-розового оттенка. В верхней части упаковки —надпись «@pattern_ai» синего цвета. Вид спереди, чистый фон, высокая детализация, современный минималистичный стиль. Вертикальное изображение".
- Заходим в klingai.com, нажимаем create, выбираем шаблон ( куклу), загружаем картинку куклы. Ждем 3 часа пока загрузиться (в бесплатной версии)😄
Простор для творчества безграничен (промт, фото и т.п.)
#TalkPrompty
- Загружаем фото референс и свои фото в gpt чат (с vpn). Мой промт:
Создай упаковку в виде игрушки как на втором фото - копией картинки с первого фото ( фигура фемиды в очках дополненной реальности). Тело пропорциональное, с длинными ножками. Фигурка с тем же выражением лица, но в стиле fashion doll, реалистичная и объемная. В греческой одежде. Добавь аксессуары рядом с фигуркой. Все аксессуары пропорциональны по размеру и по отношению к фигурке. Все элементы аккуратно размещены в пластиковой блистерной упаковке с картонной подложкой нежно-розового оттенка. В верхней части упаковки —надпись «@pattern_ai» синего цвета. Вид спереди, чистый фон, высокая детализация, современный минималистичный стиль. Вертикальное изображение".
- Заходим в klingai.com, нажимаем create, выбираем шаблон ( куклу), загружаем картинку куклы. Ждем 3 часа пока загрузиться (в бесплатной версии)😄
Простор для творчества безграничен (промт, фото и т.п.)
#TalkPrompty
🔥3
Баланс между AI-First и правами сотрудников
Shopify, Duolingo и Fiverr, заявили, что становятся "AI-First". Озвученные тезисы:
- ИИ уже здесь и меняет подход к работе;
- Человека наймут, только если ИИ не справляется
- Каждому работнику нужно овладеть ИИ-инструментами, чтобы оставаться востребованным;
- Принцип "просто спрашивай ChatGPT" — недостаточен для реальной трансформации.
Как же планируется на практике?
Shopify требует, чтобы вакансии сначала пробовали закрыть с помощью ИИ.
Duolingo заменяет подрядчиков ИИ, запускает 148 курсов с помощью генеративных моделей, планирует отдавать приоритет использованию ИИ при найме и оценке эффективности работы.
Fiverr предупреждает о риске замены сотрудников ИИ и обучает их новым навыкам.
Однако ИИ на работе — это не только про показатели эффективности, но и про соблюдение прав сотрудников.
Несмотря на различия в подходах, почти во всех юрисдикциях прослеживаются единые принципы: прозрачность, недопущение дискриминации, защита персональных данных и ответственность.
AI Act в ЕС требует от работодателей повышения грамотности сотрудников при использовании ИИ (ст.4 AI Act, гайд и чек-лист). Использование ИИ в трудовых отношениях относится к категории «высокого риска» при подборе персонала (например, анализ резюме, видеоинтервью), оценке производительности, принятии решений о повышении, понижении или увольнении и т.п.
Обязанности работодателя при использовании ИИ в таких целях:
▪️Прозрачность — информирование работников и их представителей об использовании ИИ.
▪️Управление рисками — оценка, снижение и мониторинг рисков.
▪️Человеческий надзор — участие человека в значимых решениях, основанных на ИИ.
▪️Качество данных — обеспечение точности, актуальности и недискриминационного характера используемых данных.
Напомню, что закон применяется и к компаниям за пределами ЕС, если ИИ-система влияет на пользователей в ЕС. Штрафы могут достигать 35 млн евро или 7% мирового оборота.
+ GDPR и трудовое зак-во.
В США Министерство труда США (DOL) выпустило разъяснения по применению федеральных трудовых норм к использованию ИИ работодателями: работодатели обязаны обеспечивать надлежащий человеческий контроль, чтобы итоговая работа ИИ не нарушала федеральное или региональное трудовое законодательство ( Field Assistance Bulletin No. 2024-1).
Колорадо, Калифорния, Нью-Йорк, Иллинойс и другие штаты вводят свои законы (карта здесь).
Великобритания опубликовала гайды по использованию ИИ.
Канада, Гонконг и другие страны разрабатывают стратегии этичного и безопасного внедрения ИИ в трудовые отношения.
Общая формула: Индивидуальные меры регулирования нац. законодательства + требования к системам ИИ с высоким риском + основополагающие принципы, регулирующие этические практики наблюдения = ответственное и этичное использование ИИ, баланс между технологическими достижениями и защитой индивидуальных прав.
Рекомендации для работодателей:
- проведите аудит ИИ-систем — определите, какие ИИ-инструменты применяются, их соразмерность и необходимость, есть ли риски дискриминации;
- проводите DPIA / FRIA (оценку рисков для прав и свобод человека при применении ИИ);
- обеспечьте прозрачность (информируйте сотрудников о том, какие инструменты ИИ используются, как принимаются решения);
- обеспечьте человеческий надзор ( критические решения должны приниматься или контролироваться людьми);
- разработайте политику по ИИ (включите в неё этические принципы, правила использования ИИ, процедуры обработки данных и механизмы контроля).
- обучайте сотрудников ( как работает ИИ и как избежать нарушений закона).
Подробный чек-лист здесь.
Рекомендации для сотрудников:
- имеете право знать, как и зачем используются ИИ-инструменты в отношении вас.
- сообщайте о нарушениях, если ИИ используется несправедливо или дискриминирует, сообщите в отдел кадров или регулятору);
- обучайтесь работе с ИИ, понимание базовых принципов ИИ повысит вашу ценность на рынке труда;
- участвуйте в разработке политики применения ИИ.
Статистика в о грамотности сотрудников и внедрении ИИ в докладе McKinsey
#LawAndDisorder
Shopify, Duolingo и Fiverr, заявили, что становятся "AI-First". Озвученные тезисы:
- ИИ уже здесь и меняет подход к работе;
- Человека наймут, только если ИИ не справляется
- Каждому работнику нужно овладеть ИИ-инструментами, чтобы оставаться востребованным;
- Принцип "просто спрашивай ChatGPT" — недостаточен для реальной трансформации.
Как же планируется на практике?
Shopify требует, чтобы вакансии сначала пробовали закрыть с помощью ИИ.
Duolingo заменяет подрядчиков ИИ, запускает 148 курсов с помощью генеративных моделей, планирует отдавать приоритет использованию ИИ при найме и оценке эффективности работы.
Fiverr предупреждает о риске замены сотрудников ИИ и обучает их новым навыкам.
Однако ИИ на работе — это не только про показатели эффективности, но и про соблюдение прав сотрудников.
Несмотря на различия в подходах, почти во всех юрисдикциях прослеживаются единые принципы: прозрачность, недопущение дискриминации, защита персональных данных и ответственность.
AI Act в ЕС требует от работодателей повышения грамотности сотрудников при использовании ИИ (ст.4 AI Act, гайд и чек-лист). Использование ИИ в трудовых отношениях относится к категории «высокого риска» при подборе персонала (например, анализ резюме, видеоинтервью), оценке производительности, принятии решений о повышении, понижении или увольнении и т.п.
Обязанности работодателя при использовании ИИ в таких целях:
▪️Прозрачность — информирование работников и их представителей об использовании ИИ.
▪️Управление рисками — оценка, снижение и мониторинг рисков.
▪️Человеческий надзор — участие человека в значимых решениях, основанных на ИИ.
▪️Качество данных — обеспечение точности, актуальности и недискриминационного характера используемых данных.
Напомню, что закон применяется и к компаниям за пределами ЕС, если ИИ-система влияет на пользователей в ЕС. Штрафы могут достигать 35 млн евро или 7% мирового оборота.
+ GDPR и трудовое зак-во.
В США Министерство труда США (DOL) выпустило разъяснения по применению федеральных трудовых норм к использованию ИИ работодателями: работодатели обязаны обеспечивать надлежащий человеческий контроль, чтобы итоговая работа ИИ не нарушала федеральное или региональное трудовое законодательство ( Field Assistance Bulletin No. 2024-1).
Колорадо, Калифорния, Нью-Йорк, Иллинойс и другие штаты вводят свои законы (карта здесь).
Великобритания опубликовала гайды по использованию ИИ.
Канада, Гонконг и другие страны разрабатывают стратегии этичного и безопасного внедрения ИИ в трудовые отношения.
Общая формула: Индивидуальные меры регулирования нац. законодательства + требования к системам ИИ с высоким риском + основополагающие принципы, регулирующие этические практики наблюдения = ответственное и этичное использование ИИ, баланс между технологическими достижениями и защитой индивидуальных прав.
Рекомендации для работодателей:
- проведите аудит ИИ-систем — определите, какие ИИ-инструменты применяются, их соразмерность и необходимость, есть ли риски дискриминации;
- проводите DPIA / FRIA (оценку рисков для прав и свобод человека при применении ИИ);
- обеспечьте прозрачность (информируйте сотрудников о том, какие инструменты ИИ используются, как принимаются решения);
- обеспечьте человеческий надзор ( критические решения должны приниматься или контролироваться людьми);
- разработайте политику по ИИ (включите в неё этические принципы, правила использования ИИ, процедуры обработки данных и механизмы контроля).
- обучайте сотрудников ( как работает ИИ и как избежать нарушений закона).
Подробный чек-лист здесь.
Рекомендации для сотрудников:
- имеете право знать, как и зачем используются ИИ-инструменты в отношении вас.
- сообщайте о нарушениях, если ИИ используется несправедливо или дискриминирует, сообщите в отдел кадров или регулятору);
- обучайтесь работе с ИИ, понимание базовых принципов ИИ повысит вашу ценность на рынке труда;
- участвуйте в разработке политики применения ИИ.
Статистика в о грамотности сотрудников и внедрении ИИ в докладе McKinsey
#LawAndDisorder
👍2
Искажение выбора: как AI-оценка сбивает с пути в компанию мечты
Немного цифр: около 99% опрошенных компаний используют ИИ в своих процессах найма, 74% считают, что ИИ может оценить совместимость кандидата и должности, 88% HR могут распознать, использует ли кандидат AI, в некоторых случаях время найма сокращается на 70% (Hiring Report, statistic).
Ложка дегтя?
ИИ может проявлять расовую и гендерную предвзятость (предпочтение именам, ассоциируемым с белыми, в 85% случаев по сравнению с 9% для имен, ассоциируемых с чернокожими, и 52% для мужских имен по сравнению с 11% для женских), дискриминация по акценту и инвалидности ( трудности с точной транскрипцией акцентов - ошибки до 22% для носителей неанглийских акцентов, потенциально ставя в невыгодное положение кандидатов с нарушениями речи), профессиональная сегрегация (предпочтение мужчинам-кандидатам на более высокооплачиваемые должности). Кандидаты используют дипфейки, генерируют фейковые документы, пишут CV и т.п.
Естественно, все это доставляет дискомфорт (66% взрослых в США заявили, что не будут подавать заявку на работу, где используется ИИ в процессе принятия решений).
Но кто вас будет спрашивать?
Дружественные чат-боты, скрытый скоринг, «игровые» тесты и автоматические отказы - примеры манипуляций.
Помните, что системы ИИ, используемые для найма, могут просто деморализовать кандидата (ИИ-HR на собесе 14 раз повторил одну фразу), предлагать разумно звучащие» объяснения для решений, которые сфабрикованы или необоснованны, создавать ложное чувство справедливости или объективности при принятии решений.
Кейсы: iTutorGroup пришли к соглашению с EEOC на сумму $365 тыс. долларов (ИИ отклонил заявки 200 кандидатов (женщин старше 55 лет и мужчин старше 60 лет), Mobley против Workday, Inc ( суд процесс, дискриминация кандидатов по признаку расы, возраста и инвалидности)
Обучение только на правильных данных не помогает избавиться от галлюцинаций, массовая обратная связь от пользователей не является решением (Yale research) . Поиск продолжается…
Что делать сейчас? Прозрачность должна быть важнее манипуляций. Риски потери репутации и огромные штрафы могут быть хорошим стимулом.
HR:
- четко обозначайте использование автоматизации, чат-ботов.
- человеческий контроль над системой и процессом принятия решения;
- давайте настоящие объяснения принятия решений, а не общие шаблоны;
- предоставляйте реальную возможность отказаться от автоматических оценок;
- избегайте геймификации, скрывающей профилирование или стресс-тесты;
- основывайте обратную связь на проверяемых данных, а не на импровизации ИИ.
Кандидатам:
- оптимизируйте резюме под ИИ;
- уточните, какие ИИ-инструменты используются на собесе, для каких целей, как принимается решение. Не доверяйте обратной связи вслепую ( фраза типа «Вы не соответствуете культуре компании» может быть сгенерирована без реальных оснований), уточняйте на чём основано решение?
- помните, что вы имеете право на обжалование решения, если оно было принято ИИ.
#UXWatch
Немного цифр: около 99% опрошенных компаний используют ИИ в своих процессах найма, 74% считают, что ИИ может оценить совместимость кандидата и должности, 88% HR могут распознать, использует ли кандидат AI, в некоторых случаях время найма сокращается на 70% (Hiring Report, statistic).
Ложка дегтя?
ИИ может проявлять расовую и гендерную предвзятость (предпочтение именам, ассоциируемым с белыми, в 85% случаев по сравнению с 9% для имен, ассоциируемых с чернокожими, и 52% для мужских имен по сравнению с 11% для женских), дискриминация по акценту и инвалидности ( трудности с точной транскрипцией акцентов - ошибки до 22% для носителей неанглийских акцентов, потенциально ставя в невыгодное положение кандидатов с нарушениями речи), профессиональная сегрегация (предпочтение мужчинам-кандидатам на более высокооплачиваемые должности). Кандидаты используют дипфейки, генерируют фейковые документы, пишут CV и т.п.
Естественно, все это доставляет дискомфорт (66% взрослых в США заявили, что не будут подавать заявку на работу, где используется ИИ в процессе принятия решений).
Но кто вас будет спрашивать?
Дружественные чат-боты, скрытый скоринг, «игровые» тесты и автоматические отказы - примеры манипуляций.
Помните, что системы ИИ, используемые для найма, могут просто деморализовать кандидата (ИИ-HR на собесе 14 раз повторил одну фразу), предлагать разумно звучащие» объяснения для решений, которые сфабрикованы или необоснованны, создавать ложное чувство справедливости или объективности при принятии решений.
Кейсы: iTutorGroup пришли к соглашению с EEOC на сумму $365 тыс. долларов (ИИ отклонил заявки 200 кандидатов (женщин старше 55 лет и мужчин старше 60 лет), Mobley против Workday, Inc ( суд процесс, дискриминация кандидатов по признаку расы, возраста и инвалидности)
Обучение только на правильных данных не помогает избавиться от галлюцинаций, массовая обратная связь от пользователей не является решением (Yale research) . Поиск продолжается…
Что делать сейчас? Прозрачность должна быть важнее манипуляций. Риски потери репутации и огромные штрафы могут быть хорошим стимулом.
HR:
- четко обозначайте использование автоматизации, чат-ботов.
- человеческий контроль над системой и процессом принятия решения;
- давайте настоящие объяснения принятия решений, а не общие шаблоны;
- предоставляйте реальную возможность отказаться от автоматических оценок;
- избегайте геймификации, скрывающей профилирование или стресс-тесты;
- основывайте обратную связь на проверяемых данных, а не на импровизации ИИ.
Кандидатам:
- оптимизируйте резюме под ИИ;
- уточните, какие ИИ-инструменты используются на собесе, для каких целей, как принимается решение. Не доверяйте обратной связи вслепую ( фраза типа «Вы не соответствуете культуре компании» может быть сгенерирована без реальных оснований), уточняйте на чём основано решение?
- помните, что вы имеете право на обжалование решения, если оно было принято ИИ.
#UXWatch
❤5
Pattern AI pinned «Добро пожаловать на канал Pattern AI! Здесь говорят про то, как технологии влияют на бизнес, поведение пользователей и правила игры. ИИ давно вышел за рамки генерации текста и изображений (подборка нейросетей). Он помогает нанимать, оценивать, предлагать…»
Петля развития для моделей
В продолжение к теме галлюцинаций моделей и деградации тренировочных данных из предыдущего поста.
Есть мнение, что, в связи с увеличением роста использования AI агентов и пропорциональным снижением трафика на площадках для обсуждения кода (Stack Overflow), нейронки "замкнутся" в своем обучении. Под этим можно понимать момент, когда тренировочной базой для моделей станут уже не человеческий контент, а такие же сгенерированные результаты.
Если обратить внимание на недавний пейпер от Yale исследователей, к моменту, когда ии будет учиться на сгенерированном контенте (а скорее всего еще раньше), без должного набора ошибок (или алгоритма их определения) модель не может научиться отличать истину от лжи, так как ей не с чем сравнивать -> это неизбежно отразится на качестве ответов.
Невозможно выучить структуру языка, видя только его корректные примеры, а для модели все к тому моменту может стать "корректным".
Решение - обратная связь от человека (RLHF) - маркировка ответов на правильные и неправильные. Но из за реактивного поведения моделей (способности галлюцинировать на лету), о масштабировании такой ручной маркировки не может быть и речи, так как это не может покрыть всю бесконечную область возможных запросов и ответов.
Вывод можно сделать такой - ИИ не может отличить ложь от правды, если никто не говорит, где ошибка. А если такие данные начнут “саморазмножаться ”— ошибки станут нормой.
#BehindTheMachine
В продолжение к теме галлюцинаций моделей и деградации тренировочных данных из предыдущего поста.
Есть мнение, что, в связи с увеличением роста использования AI агентов и пропорциональным снижением трафика на площадках для обсуждения кода (Stack Overflow), нейронки "замкнутся" в своем обучении. Под этим можно понимать момент, когда тренировочной базой для моделей станут уже не человеческий контент, а такие же сгенерированные результаты.
Если обратить внимание на недавний пейпер от Yale исследователей, к моменту, когда ии будет учиться на сгенерированном контенте (а скорее всего еще раньше), без должного набора ошибок (или алгоритма их определения) модель не может научиться отличать истину от лжи, так как ей не с чем сравнивать -> это неизбежно отразится на качестве ответов.
Невозможно выучить структуру языка, видя только его корректные примеры, а для модели все к тому моменту может стать "корректным".
Решение - обратная связь от человека (RLHF) - маркировка ответов на правильные и неправильные. Но из за реактивного поведения моделей (способности галлюцинировать на лету), о масштабировании такой ручной маркировки не может быть и речи, так как это не может покрыть всю бесконечную область возможных запросов и ответов.
Вывод можно сделать такой - ИИ не может отличить ложь от правды, если никто не говорит, где ошибка. А если такие данные начнут “саморазмножаться ”— ошибки станут нормой.
#BehindTheMachine
Linkedin
LLMs can't detect hallucinations without errors | Denis O. posted on the topic | LinkedIn
There was a paper published in April 2025 by Yale researchers that says hallucination detection in LLMs is fundamentally impossible if the model is only trained on correct outputs. No matter how advanced the model is, without explicit examples of errors,…
🔥3