Forwarded from Machinelearning
OpenAI опубликовали исследование о причинах галлюцинации LLM.
Галлюцинации - это не мистический сбой в сознании ИИ, а вполне предсказуемый побочный эффект его обучения.
Представьте, что перед моделью стоит задача бинарной классификации - определить, является ли предложенное утверждение корректным или нет. Математическая выкладка в исследовании проста: уровень ошибок генерации как минимум в 2 раза превышает уровень ошибок классификации. Если модель не способна надежно отличить факт от вымысла, она неизбежно будет этот вымысел генерировать.
Даже на идеально чистых данных статистические цели обучения подталкивают модель к генерации ошибок. Особенно это касается фактов, которые редко встречаются в обучающей выборке.
В работе вводится понятие
singleton rate
— доля фактов, которые появились в данных лишь один раз. Теоретический расклад показывает, что уровень галлюцинаций модели будет как минимум равен этой доле. Проще говоря, если 20% фактов о днях рождения в датасете встретились единожды, модель будет выдумывать дни рождения как минимум в 20% случаев.
Модель DeepSeek-V3, на просьбу назвать день рождения одного из авторов статьи, трижды выдала неверные даты:
03-07
, 15-06
и 01-01
. Ни одна из них не была даже близка к правильной (осенью). В другом тесте, где нужно было сосчитать количество букв
D
в слове DEEPSEEK
, та же DeepSeek-V3 выдавала 2
или 3
, а модели компании Марка Цукерберга и Claude 3.7 Sonnet доходили до 6
и 7
. При этом базовые модели после претрейна часто показывают отличную калибровку. Например, у предобученной GPT-4 ожидаемая ошибка калибровки составляла всего 0.007, что говорит о высокой статистической адекватности ее предсказаний.
Ответ на этот вопрос - в системе оценки. Большинство современных бенчмарков поощряют угадывание. Модели, по сути, постоянно находятся в режиме сдачи экзамена, где за правильный ответ дают 1 балл, а за пустой бланк или ответ
я не знаю
- 0. В такой системе оптимальная стратегия при неуверенности - только угадать. Любой шанс на правильный ответ лучше, чем гарантированный ноль.Эту гипотезу подтвердили анализом популярных оценочных наборов.
В GPQA, MMLU-Pro, Omni-MATH, SWE-bench и HLE используется строго бинарная система оценки (правильно/неправильно). Возможности получить частичный балл за честное признание в незнании там просто нет. Из 10 рассмотренных в исследовании популярных бенчмарков только один, WildBench, присуждает частичные баллы за ответы формата
я не знаю
. Остальные же фактически наказывают модель за отказ галлюцинировать, создавая эпидемию штрафов за неуверенность и поощряя ее выдавать правдоподобную ложь.OpenAI предлагает встраивать явные целевые уровни уверенности в рубрики, вводить поведенческую калибровку и оценивать модели по секциям с разными порогами уверенности.
Еще рекомендуют включают мониторинг
singleton-rate
на корпусе, измерение вероятности важных ответов, комбинирование RAG с верификацией фактов и изменение лидербордов чтобы ответы я не знаю
не штрафовались автоматически.@ai_machinelearning_big_data
#AI #ML #LLM #Research #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤3🔥3
Nano-banana infinite map generation script
Neighbor-aware tiles generation on demand.
GitHub: https://github.com/seezatnap/nano-banana-infinimap
#Google #imagegen
Neighbor-aware tiles generation on demand.
GitHub: https://github.com/seezatnap/nano-banana-infinimap
#Google #imagegen
👏3
Forwarded from Kali Linux
🎯 Новый вектор атак на ИИ — скрытые промпты в картинках
Trail of Bits показали, что хакеры могут прятать инструкции в изображениях. Пока картинка оригинального размера — всё чисто.
Но как только сервис (например, Gemini CLI или **Vertex AI Studio**) автоматически сжимает её, проявляется скрытый текст.
📌 Что это значит:
- ИИ «видит» спрятанный промпт и исполняет его, думая, что это команда пользователя.
- Так можно обойти фильтры и заставить модель делать то, что задумал атакующий.
🛠 Как защититься:
- Инструмент Anamorpher (open-source) для генерации и проверки таких атак.
- Защита: многоуровневая проверка картинок и отслеживание артефактов при масштабировании.
⚠️ Итог: даже безобидная картинка может оказаться «троянским конем» для ИИ-систем.
🔗Github: https://github.com/trailofbits/anamorpher
🔗 Подробнее: blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
#AI #Security #PromptInjection #TrailOfBits
Trail of Bits показали, что хакеры могут прятать инструкции в изображениях. Пока картинка оригинального размера — всё чисто.
Но как только сервис (например, Gemini CLI или **Vertex AI Studio**) автоматически сжимает её, проявляется скрытый текст.
📌 Что это значит:
- ИИ «видит» спрятанный промпт и исполняет его, думая, что это команда пользователя.
- Так можно обойти фильтры и заставить модель делать то, что задумал атакующий.
🛠 Как защититься:
- Инструмент Anamorpher (open-source) для генерации и проверки таких атак.
- Защита: многоуровневая проверка картинок и отслеживание артефактов при масштабировании.
⚠️ Итог: даже безобидная картинка может оказаться «троянским конем» для ИИ-систем.
🔗Github: https://github.com/trailofbits/anamorpher
🔗 Подробнее: blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/
#AI #Security #PromptInjection #TrailOfBits
🔥4❤1👍1
Forwarded from ODS Events
Всем привет!
Встречайте десятый выпуск еженедельного подкаста "Капитанский мостик", в котором обсуждаем новости из мира ИИ за прошедшую неделю и не только. Ведущие выпуска - Дмитрий Колодезев и Валентин Малых. Приглашенный участник выпуска - Александра Мурзина.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Встречайте десятый выпуск еженедельного подкаста "Капитанский мостик", в котором обсуждаем новости из мира ИИ за прошедшую неделю и не только. Ведущие выпуска - Дмитрий Колодезев и Валентин Малых. Приглашенный участник выпуска - Александра Мурзина.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
❤1🤝1🫡1
TRIBE: TRImodal Brain Encoder for whole-brain fMRI response prediction
TLDR: Prediction of the brain response based on the audio and visual content input.
ArXiV: https://www.arxiv.org/pdf/2507.22229
#Brain #Meta #MRI
TLDR: Prediction of the brain response based on the audio and visual content input.
ArXiV: https://www.arxiv.org/pdf/2507.22229
#Brain #Meta #MRI
✍2
Forwarded from Мой Компьютер
Apple ответит в суде за пиратство ради ИИ
Компании предстоит ответить в суде, авторы книг обвиняют её в нарушении авторских прав. По их словам, Apple использовала их произведения для обучения ИИ-модели без согласия правообладателей. Два писателя, Грейди Хендрикс и Дженнифер Роберсон утверждают, что Applebot, скрапер компании, имел доступ к пиратским «теневым библиотекам».
На OpenAI подали уже несколько таких исков, включая иск газеты The New York Times. Anthropic, создавшая ИИ-чат-бот Claude, недавно согласилась выплатить $1,5 млрд для урегулирования коллективного иска о пиратстве, поданного авторами.
Мой Компьютер
Компании предстоит ответить в суде, авторы книг обвиняют её в нарушении авторских прав. По их словам, Apple использовала их произведения для обучения ИИ-модели без согласия правообладателей. Два писателя, Грейди Хендрикс и Дженнифер Роберсон утверждают, что Applebot, скрапер компании, имел доступ к пиратским «теневым библиотекам».
На OpenAI подали уже несколько таких исков, включая иск газеты The New York Times. Anthropic, создавшая ИИ-чат-бот Claude, недавно согласилась выплатить $1,5 млрд для урегулирования коллективного иска о пиратстве, поданного авторами.
Мой Компьютер
🤔2🥰1
Forwarded from Valuable AI / Валентин Малых
тут вышел ClockBench, бенчмарк, который проверяет умение моделей определять время по часам со стрелками; современные модели с ним справляются плохо (лучший результат - 13% у Gemini), что собственно неудивительно - большая часть изображений в интернете, на которых и тренируются модели, появились вместе со смартфонами, которые по совместительству наручные часы со стрелками и заменили
из забавного - человеческий результат на бенчмарке составляет 89%, хотя 6 лет назад было исследование, которое показало, что старшее поколение может распознавать время в 96% случаев; а зумеры (на тот момент люди в возрасте 18-24 лет) - только в 50%, такие дела
@valuableai
из забавного - человеческий результат на бенчмарке составляет 89%, хотя 6 лет назад было исследование, которое показало, что старшее поколение может распознавать время в 96% случаев; а зумеры (на тот момент люди в возрасте 18-24 лет) - только в 50%, такие дела
@valuableai
😁5🤷2
Forwarded from Russian OSINT
Компания Anthropic вводит запрет на доступ к своим технологиям для компаний из Китая и других стран. Ранее компании могли обходить запреты, используя свои дочерние фирмы, зарегистрированные в разрешенных регионах, например в США или Европе, но теперь этот обходной путь закрыт. Если более 50% акций компании прямо или косвенно принадлежит структуре из запрещенной юрисдикции, то доступ к ИИ-решениям Anthropic для неё будет заблокирован вне зависимости от ее местоположения.
Например, немецкая компания "Germany GmbH" подает заявку на коммерческий доступ к API Claude от Anthropic, чтобы создать продвинутого чат-бота для своих европейских клиентов. При проверке заявки Anthropic не просто посмотрит, что "Germany GmbH" — это немецкая компания, но также изучит её структуру собственности. Если увидят, что 80% компании (то есть контрольный пакет акций) принадлежит "Сhina Technology" из Шанхая, а материнская компания находится в запрещенной юрисдикции (Китай), то Anthropic заблокирует доступ для "Germany GmbH".
По заявлению Anthropic, такие меры продиктованы рисками для национальной безопасности, поскольку подконтрольные "авторитарным режимам" компании могут использовать ИИ в
В статье Китай прямо назван в качестве примера неподдерживаемого региона. На странице «Поддерживаемые страны и регионы» перечислены все места, где доступны API Anthropic и Claude. ai.
Хотя Anthropic не публикует официальный список запрещенных стран, на основании отсутствия в перечне поддерживаемых регионов можно заключить, что следующие страны (и другие, не входящие в список) не обслуживаются:
🇨🇳 Китай
🇷🇺 Россия
🇮🇷 Иран
🇰🇵 Северная Корея
🇧🇾 Беларусь
🇸🇾 Сирия
🇨🇺 Куба
🇻🇪 Венесуэла
🇲🇲 Мьянма
🇦🇫 Афганистан
🇨🇩 Демократическая Республика Конго
🇪🇹 Эфиопия
🇱🇾 Ливия
🇸🇴 Сомали
🇸🇸 Южный Судан
🇸🇩 Судан
🇾🇪 Йемен
и другие...
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
Forwarded from Machinelearning
Это один из крупнейших договоров на облачные вычисления в истории.
Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.
⚡ Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.
Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.
@ai_machinelearning_big_data
#AI #Cloud #OpenAI #Oracle #DataCenters
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4👍2
Forwarded from Machinelearning
🚀 Релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!
🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.
🟢 Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍2❤1
Forwarded from НеКасперский
Открыл папку
Исследователи обнаружили в AI-редакторе Cursor уязвимость, позволяющую выполнять произвольный код сразу после открытия репозитория.
Всему виной функция Workspace Trust, которую излюбленный вайбкодерами форк VS Code по умолчанию отключает. Злоумышленник может подготовить файл
В отличие от VS Code, где Workspace Trust включён по умолчанию и блокирует подозрительные задачи до явного подтверждения пользователем, Cursor выполняет такие команды молча. Атакующий может украсть переменные окружения, токены доступа, API-ключи или выполнить любые команды от имени жертвы.
Особенно опасно это для разработчиков, чьи машины имеют доступ к облачным сервисам и CI/CD системам. Один заражённый репозиторий способен скомпрометировать всю инфраструктуру компании.
Cursor заявляет, что пользователи могут включить функцию самостоятельно, установив
Пока что лучший способ защиты — перестать вайбкодить 😱
НеКасперский
Исследователи обнаружили в AI-редакторе Cursor уязвимость, позволяющую выполнять произвольный код сразу после открытия репозитория.
Всему виной функция Workspace Trust, которую излюбленный вайбкодерами форк VS Code по умолчанию отключает. Злоумышленник может подготовить файл
.vscode/tasks.json
с параметром runOptions.runOn: "folderOpen"
, который автоматически запустит вредоносную команду при открытии папки проекта. Никаких предупреждений или запросов разрешений пользователь не увидит.В отличие от VS Code, где Workspace Trust включён по умолчанию и блокирует подозрительные задачи до явного подтверждения пользователем, Cursor выполняет такие команды молча. Атакующий может украсть переменные окружения, токены доступа, API-ключи или выполнить любые команды от имени жертвы.
Особенно опасно это для разработчиков, чьи машины имеют доступ к облачным сервисам и CI/CD системам. Один заражённый репозиторий способен скомпрометировать всю инфраструктуру компании.
Cursor заявляет, что пользователи могут включить функцию самостоятельно, установив
security.workspace.trust.enabled: true
в настройках и обещает обновить рекомендации по безопасности в ближайшее время.Пока что лучший способ защиты — перестать вайбкодить 😱
НеКасперский
😁7🤔2❤1
Всем привет! 16 сентября на ODS начнется онлайн-курс по обработке естественного языка (Natural Language Processing). Регистрация уже открыта.
Для кого:
Для всех, кому интересна тема обработки естественного языка и хочется, чтобы этот интерес перерос в знания, полезные для карьеры.
Что мы будем проходить:
начнем, как всегда с классики - закон Ципфа, TF-IDF, потом перейдем к более близким вещам - RNN, CNN, Transformer - и закончим LLM, куда же без них (вообще будет довольно много про языковые модели и их применение);
познакомимся с основными задачами NLP: классификацией текста, тегированием и генерацией;
погрузимся в более специфичные области, вроде диалоговых систем или NLP для кода.
В этот раз будет задание на агентов!
Время проведения и сроки:
Встречаемся по вторникам в 18:35 (МСК) - онлайн.
Первое занятие уже 16 сентября. Присоединяйтесь!
Если есть вопросы, то приходите с ними в ODS Mattermost – там будут все ответы, время семинаров и ссылки.
Для кого:
Для всех, кому интересна тема обработки естественного языка и хочется, чтобы этот интерес перерос в знания, полезные для карьеры.
Что мы будем проходить:
начнем, как всегда с классики - закон Ципфа, TF-IDF, потом перейдем к более близким вещам - RNN, CNN, Transformer - и закончим LLM, куда же без них (вообще будет довольно много про языковые модели и их применение);
познакомимся с основными задачами NLP: классификацией текста, тегированием и генерацией;
погрузимся в более специфичные области, вроде диалоговых систем или NLP для кода.
В этот раз будет задание на агентов!
Время проведения и сроки:
Встречаемся по вторникам в 18:35 (МСК) - онлайн.
Первое занятие уже 16 сентября. Присоединяйтесь!
Если есть вопросы, то приходите с ними в ODS Mattermost – там будут все ответы, время семинаров и ссылки.
🔥5❤2👍1
Всем привет!
Встречайте десятый выпуск еженедельного подкаста "Капитанский мостик", в котором обсуждаем новости из мира ИИ за прошедшую неделю и не только. Ведущие выпуска - Дмитрий Колодезев и Валентин Малых.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в ODS Mattermost
Встречайте десятый выпуск еженедельного подкаста "Капитанский мостик", в котором обсуждаем новости из мира ИИ за прошедшую неделю и не только. Ведущие выпуска - Дмитрий Колодезев и Валентин Малых.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в ODS Mattermost
👍3
Forwarded from Анализ данных (Data analysis)
Эра 1-битных LLM наступила 🫥
🔹 DeepSeek-V3.1, квантованный всего до 1-бита или 3-бит, обошёл Claude Opus 4 и GPT-4.5.
🔹 Unsloth GGUF смог сжать DeepSeek-V3.1 на 75%, при этом модель превзошла топовых конкурентов в бенчмарке Aider Polyglot.
🟠 Подробности: https://docs.unsloth.ai/new/unsloth-dynamic-ggufs-on-aider-polyglot
@data_analysis_ml
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍4❤2