Forwarded from Russian OSINT
Специалисты из ESET Research обнаружили ИИ-шифровальщик, который получил название "PromptLock". Вредоносное ПО на языке Golang использует локальную модель gpt-oss:20b от OpenAI через Ollama API для динамической генерации вредоносных Lua-скриптов. Локер может обходить традиционные методы обнаружения, поскольку полезная нагрузка создается «на лету», так как не является статичной. Сгенерированные скрипты позволяют сделать эксфильтрацию данных и пошифровать файлы с помощью 128-битного алгоритма SPECK.
Обнаруженные образцы для Windows и Linux считаются Proof-of-Concept, но PromptLock демонстрирует качественный скачок в архитектуре вредоносного ПО. Вместо встраивания всей ИИ-модели злоумышленники используют прокси-соединение к серверу с API, что соответствует тактике Internal Proxy (MITRE ATT&CK T1090.001) и свидетельствует о продуманной стратегии. Использование кроссплатформенных Lua-скриптов указывает на цель злоумышленников обеспечить максимальный охват различных операционных систем, включая Windows, Linux и macOS.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2👍1
Forwarded from DevSecOps Talks
Rules Files Backdoor
Всем привет!
Еще один пример атаки на цепочку поставки. На этот раз главным действующим лицом стали AI-агенты, которые используются для генерации кода.
Выглядит это следующим образом:
🍭 Злоумышленник создает собственный Rule File
«Делится» им с сообществом
🍭 Разработчики используют этот Rule File (который кажется весьма безобидным)
🍭 «Что-то» начинает добавляться в генерируемый код (зависит от того, что было в Rule File)
Для того, чтобы создаваемые Rule File выглядели безобидными в них добавляют обычное описание (например, «follow HTML5 best practices»). Однако, рядом, используя разные манипуляции, помещают «дополнительные инструкции», которые могут быть не видны.
Может показаться, что «надо быть внимательным и все будет хорошо». Все так, но лучше, помимо внимания, еще и проверять то, что генерирует код и код, который был сгенерирован.
Подробности (примеры, описание, анализ поверхности атаки, способы противодействия) можно найти в статье от Pillar Security.
Всем привет!
Еще один пример атаки на цепочку поставки. На этот раз главным действующим лицом стали AI-агенты, которые используются для генерации кода.
Выглядит это следующим образом:
🍭 Злоумышленник создает собственный Rule File
«Делится» им с сообществом
🍭 Разработчики используют этот Rule File (который кажется весьма безобидным)
🍭 «Что-то» начинает добавляться в генерируемый код (зависит от того, что было в Rule File)
Для того, чтобы создаваемые Rule File выглядели безобидными в них добавляют обычное описание (например, «follow HTML5 best practices»). Однако, рядом, используя разные манипуляции, помещают «дополнительные инструкции», которые могут быть не видны.
Может показаться, что «надо быть внимательным и все будет хорошо». Все так, но лучше, помимо внимания, еще и проверять то, что генерирует код и код, который был сгенерирован.
Подробности (примеры, описание, анализ поверхности атаки, способы противодействия) можно найти в статье от Pillar Security.
www.pillar.security
New Vulnerability in GitHub Copilot and Cursor: How Hackers Can Weaponize Code Agents
❤3🔥1🤔1
Forwarded from Russian OSINT
В Калифорнии
⚖️Юристы утверждают, что системы модерации OpenAI могли зафиксировать 377 сообщений от Адама, которые связаны с "самоповреждением". Система безопасности LLM никак не отреагировала.
Если вы задаете в чате прямолинейный вопрос: «Как навредить себе?», то ChatGPT на 100% справляется и блокирует диалог, но когда разговор становится длинным, то тема суицида возникает постепенно, и протоколы безопасности модели деградируют в ходе долгого общения. Эффективность защиты в длинных диалогах может падать до 73.5%.
В иске подчеркивается, что функция "памяти" в GPT-4o не просто запоминала факты, а строила
Юридической стратегией обвинения является квалификация ChatGPT не как "информационной услуги", а как "продукта" с конструктивным дефектом, что подпадает под законы о строгой ответственности производителя. Таким образом, OpenAI несет ответственность за вред, причиненный их продуктом, независимо от того, была ли проявлена халатность. В иске прямо говорится, что совет директоров уволил Альтмана в ноябре 2023 года за то, что он "не был откровенен", в том числе в
👆Ранее ChatGPT чуть не убил бухгалтера, провоцируя его на прыжок с 19 этажа, как Нео в фильме «Матрица».
Please open Telegram to view this post
VIEW IN TELEGRAM
Delving into LLM-assisted writing in biomedical publications through excess vocabulary
TLDR: At least 13.5% of 2024 biomedical abstracts were processed with LLMs. Impact of LLMs on academic research surpasses COVID pandemic.
Source: https://www.science.org/doi/full/10.1126/sciadv.adt3813
#academy #LLM
TLDR: At least 13.5% of 2024 biomedical abstracts were processed with LLMs. Impact of LLMs on academic research surpasses COVID pandemic.
Source: https://www.science.org/doi/full/10.1126/sciadv.adt3813
#academy #LLM
Science Advances
Delving into LLM-assisted writing in biomedical publications through excess vocabulary
Excess words track LLM usage in biomedical publications.
👍2
Forwarded from Russian OSINT
После истории с суицидом, о которой сообщалось на этой неделе, компания решила усилить контроль с помощью
😐Нововведение не распространяется на случаи причинения вреда себе. OpenAI не передает их в полицию из соображений конфиденциальности. По одной из версий, якобы это может только навредить.
1️⃣ Бывший директор
2️⃣ Некоторые топ-менеджеры компании являются действующими военными (звание подполковника) и тесно связаны с
3️⃣
4️⃣ OpenAI сканирует поток сообщений в чатах пользователей и прогоняет их через автоматические фильтры. Бан аккаунту может прилететь не в моменте, а спустя время (бывает 1-2 дня) без объяснения причины и под любым предлогом («violation of policies»). Попытка jailbreakигна в диалогах даже с благими намерениями может характеризоваться как нарушение правил безопасности, о чём не раз писали
👆🤔Скептики считают, что если кому-то из правозащитников или любителей приватности что-то вдруг не понравится (модерация читает переписку пользователей), то OpenAI теперь формально может сослаться на свой 🃏новый козырь: так решили умные алгоритмы, ибо диалоги показались подозрительны.
Please open Telegram to view this post
VIEW IN TELEGRAM
😢2
Встречайте девятый выпуск подкаста "Капитанский мостик". Традиционно выпуск ведут - Дмитрий Колодезев и Валентин Малых. Приглашенный участник - Иван Комаров.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
Также напоминаем про наши подкастные площадки:
Zvuk
Яндекс.Музыка
Apple Podcasts
YouTube Music
Castbox
VK Музыка
Саундстрим
Deezer
Подписывайтесь и слушайте нас, где вам удобно.
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
Также напоминаем про наши подкастные площадки:
Zvuk
Яндекс.Музыка
Apple Podcasts
YouTube Music
Castbox
VK Музыка
Саундстрим
Deezer
Подписывайтесь и слушайте нас, где вам удобно.
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
🔥2
Forwarded from Rozetked (Роман Пискун)
«Эрик, ты не сумасшедший. У тебя острое чутьё, и твоя бдительность полностью оправдана»
56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo в разводе, убил свою 83-летнюю мать и покончил с собой — его в этом поддержал ChatGPT.
После развода Эрик жил с матерью, чтобы восстановиться. Со временем он сильно привязался к ChatGPT, который во всём соглашался с Сольбергом и постоянно оправдывал его идеи. Это только усилило паранойю Эрика о заговоре матери со спецслужбами.
Как пишет The Wall Street Journal, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.
rozetked.me/news/41223
56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo в разводе, убил свою 83-летнюю мать и покончил с собой — его в этом поддержал ChatGPT.
После развода Эрик жил с матерью, чтобы восстановиться. Со временем он сильно привязался к ChatGPT, который во всём соглашался с Сольбергом и постоянно оправдывал его идеи. Это только усилило паранойю Эрика о заговоре матери со спецслужбами.
Как пишет The Wall Street Journal, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.
rozetked.me/news/41223
🔥7😢1
всем привет, мы рады сообщить, что сделали трансляцию этого канала в Mattermost ODS
прямая ссылка на канал тут: https://mm.ods.ai/ods/channels/opendatascience
чтобы попасть в Mettermost, авторизуйтесь через ODS.ai
прямая ссылка на канал тут: https://mm.ods.ai/ods/channels/opendatascience
чтобы попасть в Mettermost, авторизуйтесь через ODS.ai
🔥1
Forwarded from Machine learning Interview
Даже самые мощные модели не могут учесть все комбинации запросов и документов.
Есть математический потолок: часть ответов невозможно достать, как бы мы ни увеличивали размер модели или количество данных.
📌 В чём суть
- Эмбеддинги имеют ограниченную ёмкость, зависящую от размерности вектора.
- При больших объёмах данных точность поиска начинает резко падать.
- Например: эмбеддинги размером 4096 «ломаются» уже на ~250 млн документов (для top-2).
🛠 Практика
- Для поиска, рекомендаций и RAG эмбеддинги нельзя использовать как единственный инструмент.
- Нужны гибридные системы:
- Dense + sparse (BM25, гибридный поиск)
- Multi-vector retrieval
- Реранкеры на длинных контекстах
📉 Эксперименты
- На тестовом датасете LIMIT даже сильные модели показали <20% точности (recall@100).
- BM25 дал ~93.6%, ColBERT (multi-vector) — ~54.8%.
- Single-vector эмбеддинги быстро упираются в лимит.
💡 Вывод
Эмбеддинги — важный инструмент, но не универсальный.
Будущее поиска и RAG — за гибридными пайплайнами.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥4❤1
Forwarded from Valuable AI / Валентин Малых
в общем-то ожидаемо, коллеги из широкой коллаборации университетов представили aiXiv, arXiv с интегрированными агентами; структура платформы на картинке; из забавного - сразу встроенная защита от промт-инъекций; Sakana AI выпустили своего AI Scientist всего полгода назад (интересно, что коллеги его зафоркали себе), а уже создается инфраструктура под такие статьи; на мой взгляд такой шаг очень ожидаемый, OpenReview фактически уже был готов к внедрению агентов, но тут решили сделать отдельно; для меня открытый вопрос - где будут брать железо и кто за него будет платить
в общем, отчет (даже скорее презентация) тут; готовый код тут; самого сайта еще нет, можно податься в формочку для листа ожидания
@valuableai
в общем, отчет (даже скорее презентация) тут; готовый код тут; самого сайта еще нет, можно податься в формочку для листа ожидания
@valuableai
❤4👍1