Data Science by ODS.ai 🦜
45.6K subscribers
714 photos
80 videos
7 files
1.78K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
Forwarded from Machinelearning
📌Почему языковые модели галлюцинируют.

OpenAI опубликовали исследование о причинах галлюцинации LLM.

Галлюцинации - это не мистический сбой в сознании ИИ, а вполне предсказуемый побочный эффект его обучения.

Представьте, что перед моделью стоит задача бинарной классификации - определить, является ли предложенное утверждение корректным или нет. Математическая выкладка в исследовании проста: уровень ошибок генерации как минимум в 2 раза превышает уровень ошибок классификации. Если модель не способна надежно отличить факт от вымысла, она неизбежно будет этот вымысел генерировать.

🟡Все начинается еще на претрейне.

Даже на идеально чистых данных статистические цели обучения подталкивают модель к генерации ошибок. Особенно это касается фактов, которые редко встречаются в обучающей выборке.

В работе вводится понятие singleton rate — доля фактов, которые появились в данных лишь один раз. Теоретический расклад показывает, что уровень галлюцинаций модели будет как минимум равен этой доле.

Проще говоря, если 20% фактов о днях рождения в датасете встретились единожды, модель будет выдумывать дни рождения как минимум в 20% случаев.

🟡Эксперименты это подтверждают.

Модель DeepSeek-V3, на просьбу назвать день рождения одного из авторов статьи, трижды выдала неверные даты: 03-07, 15-06 и 01-01. Ни одна из них не была даже близка к правильной (осенью).

В другом тесте, где нужно было сосчитать количество букв D в слове DEEPSEEK, та же DeepSeek-V3 выдавала 2 или 3, а модели компании Марка Цукерберга и Claude 3.7 Sonnet доходили до 6 и 7.

При этом базовые модели после претрейна часто показывают отличную калибровку. Например, у предобученной GPT-4 ожидаемая ошибка калибровки составляла всего 0.007, что говорит о высокой статистической адекватности ее предсказаний. Кто бы сомневался.

🟡Почему галлюцинации не исчезают после пост-тренинга и RLHF?

Ответ на этот вопрос - в системе оценки. Большинство современных бенчмарков поощряют угадывание. Модели, по сути, постоянно находятся в режиме сдачи экзамена, где за правильный ответ дают 1 балл, а за пустой бланк или ответ я не знаю - 0. В такой системе оптимальная стратегия при неуверенности - только угадать. Любой шанс на правильный ответ лучше, чем гарантированный ноль.

Эту гипотезу подтвердили анализом популярных оценочных наборов.

В GPQA, MMLU-Pro, Omni-MATH, SWE-bench и HLE используется строго бинарная система оценки (правильно/неправильно). Возможности получить частичный балл за честное признание в незнании там просто нет. Из 10 рассмотренных в исследовании популярных бенчмарков только один, WildBench, присуждает частичные баллы за ответы формата я не знаю. Остальные же фактически наказывают модель за отказ галлюцинировать, создавая эпидемию штрафов за неуверенность и поощряя ее выдавать правдоподобную ложь.

🟡Что делать инженерам.

OpenAI предлагает встраивать явные целевые уровни уверенности в рубрики, вводить поведенческую калибровку и оценивать модели по секциям с разными порогами уверенности.

Еще рекомендуют включают мониторинг singleton-rate на корпусе, измерение вероятности важных ответов, комбинирование RAG с верификацией фактов и изменение лидербордов чтобы ответы я не знаю не штрафовались автоматически.

🔜 Читать статью полностью


@ai_machinelearning_big_data

#AI #ML #LLM #Research #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🔥3
Nano-banana infinite map generation script

Neighbor-aware tiles generation on demand.

GitHub: https://github.com/seezatnap/nano-banana-infinimap

#Google #imagegen
👏3
Forwarded from Kali Linux
🎯 Новый вектор атак на ИИ — скрытые промпты в картинках

Trail of Bits показали, что хакеры могут прятать инструкции в изображениях. Пока картинка оригинального размера — всё чисто.

Но как только сервис (например, Gemini CLI или **Vertex AI Studio**) автоматически сжимает её, проявляется скрытый текст.

📌 Что это значит:
- ИИ «видит» спрятанный промпт и исполняет его, думая, что это команда пользователя.
- Так можно обойти фильтры и заставить модель делать то, что задумал атакующий.

🛠 Как защититься:
- Инструмент Anamorpher (open-source) для генерации и проверки таких атак.
- Защита: многоуровневая проверка картинок и отслеживание артефактов при масштабировании.

⚠️ Итог: даже безобидная картинка может оказаться «троянским конем» для ИИ-систем.

🔗Github: https://github.com/trailofbits/anamorpher
🔗 Подробнее: blog.trailofbits.com/2025/08/21/weaponizing-image-scaling-against-production-ai-systems/

#AI #Security #PromptInjection #TrailOfBits
🔥41👍1
Forwarded from ODS Events
Всем привет!

Встречайте десятый выпуск еженедельного подкаста "Капитанский мостик", в котором обсуждаем новости из мира ИИ за прошедшую неделю и не только. Ведущие выпуска - Дмитрий Колодезев и Валентин Малых. Приглашенный участник выпуска - Александра Мурзина.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
1🤝1🫡1
TRIBE: TRImodal Brain Encoder for whole-brain fMRI response prediction

TLDR: Prediction of the brain response based on the audio and visual content input.

ArXiV: https://www.arxiv.org/pdf/2507.22229

#Brain #Meta #MRI
2
Apple ответит в суде за пиратство ради ИИ

Компании предстоит ответить в суде, авторы книг обвиняют её в нарушении авторских прав. По их словам, Apple использовала их произведения для обучения ИИ-модели без согласия правообладателей. Два писателя, Грейди Хендрикс и Дженнифер Роберсон утверждают, что Applebot, скрапер компании, имел доступ к пиратским «теневым библиотекам».

На OpenAI подали уже несколько таких исков, включая иск газеты The New York Times. Anthropic, создавшая ИИ-чат-бот Claude, недавно согласилась выплатить $1,5 млрд для урегулирования коллективного иска о пиратстве, поданного авторами.

Мой Компьютер
🤔2🥰1
тут вышел ClockBench, бенчмарк, который проверяет умение моделей определять время по часам со стрелками; современные модели с ним справляются плохо (лучший результат - 13% у Gemini), что собственно неудивительно - большая часть изображений в интернете, на которых и тренируются модели, появились вместе со смартфонами, которые по совместительству наручные часы со стрелками и заменили

из забавного - человеческий результат на бенчмарке составляет 89%, хотя 6 лет назад было исследование, которое показало, что старшее поколение может распознавать время в 96% случаев; а зумеры (на тот момент люди в возрасте 18-24 лет) - только в 50%, такие дела

@valuableai
😁5🤷2
Forwarded from Russian OSINT
🈁 Anthropic блокирует доступ к ИИ-сервисам для компаний из "враждебного"🇨🇳Китая

Компания Anthropic вводит запрет на доступ к своим технологиям для компаний из Китая и других стран. Ранее компании могли обходить запреты, используя свои дочерние фирмы, зарегистрированные в разрешенных регионах, например в США или Европе, но теперь этот обходной путь закрыт. Если более 50% акций компании прямо или косвенно принадлежит структуре из запрещенной юрисдикции, то доступ к ИИ-решениям Anthropic для неё будет заблокирован вне зависимости от ее местоположения.

Например, немецкая компания "Germany GmbH" подает заявку на коммерческий доступ к API Claude от Anthropic, чтобы создать продвинутого чат-бота для своих европейских клиентов. При проверке заявки Anthropic не просто посмотрит, что "Germany GmbH" — это немецкая компания, но также изучит её структуру собственности. Если увидят, что 80% компании (то есть контрольный пакет акций) принадлежит "Сhina Technology" из Шанхая, а материнская компания находится в запрещенной юрисдикции (Китай), то Anthropic заблокирует доступ для "Germany GmbH".

По заявлению Anthropic, такие меры продиктованы рисками для национальной безопасности, поскольку подконтрольные "авторитарным режимам" компании могут использовать ИИ в 👮военных и 🖥разведывательных целях. Политика направлена на то, чтобы помешать враждебным странам использовать ИИ от Anthropic для своих военных и разведывательных задач, а также для улучшения собственных разработок в области ИИ с помощью таких методов, как дистилляция.

В статье Китай прямо назван в качестве примера неподдерживаемого региона. На странице «Поддерживаемые страны и регионы» перечислены все места, где доступны API Anthropic и Claude. ai.

Хотя Anthropic не публикует официальный список запрещенных стран, на основании отсутствия в перечне поддерживаемых регионов можно заключить, что следующие страны (и другие, не входящие в список) не обслуживаются:

🇨🇳 Китай
🇷🇺 Россия
🇮🇷 Иран
🇰🇵 Северная Корея
🇧🇾 Беларусь
🇸🇾 Сирия
🇨🇺 Куба
🇻🇪 Венесуэла
🇲🇲 Мьянма
🇦🇫 Афганистан
🇨🇩 Демократическая Республика Конго
🇪🇹 Эфиопия
🇱🇾 Ливия
🇸🇴 Сомали
🇸🇸 Южный Судан
🇸🇩 Судан
🇾🇪 Йемен
и другие...

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54
Forwarded from Machinelearning
💰 OpenAI заключила гигантский контракт с Oracle на $300 млрд на облачные вычисления сроком примерно на 5 лет - сообщает Wall Street Journal.

Это один из крупнейших договоров на облачные вычисления в истории.

Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.

Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.

Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.

🟢 Подробнее: wsj .com/business/openai-oracle-sign-300-billion-computing-deal-among-biggest-in-history-ff27c8fe

@ai_machinelearning_big_data

#AI #Cloud #OpenAI #Oracle #DataCenters
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥4👍2
Forwarded from Machinelearning
🚀 Релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!

🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.

🟢Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.

Попробовать: https://chat.qwen.ai
Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj

@ai_machinelearning_big_data

#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍21
Forwarded from НеКасперский
Открыл папку

Исследователи обнаружили в AI-редакторе Cursor уязвимость, позволяющую выполнять произвольный код сразу после открытия репозитория.

Всему виной функция Workspace Trust, которую излюбленный вайбкодерами форк VS Code по умолчанию отключает. Злоумышленник может подготовить файл .vscode/tasks.json с параметром runOptions.runOn: "folderOpen", который автоматически запустит вредоносную команду при открытии папки проекта. Никаких предупреждений или запросов разрешений пользователь не увидит.

В отличие от VS Code, где Workspace Trust включён по умолчанию и блокирует подозрительные задачи до явного подтверждения пользователем, Cursor выполняет такие команды молча. Атакующий может украсть переменные окружения, токены доступа, API-ключи или выполнить любые команды от имени жертвы.

Особенно опасно это для разработчиков, чьи машины имеют доступ к облачным сервисам и CI/CD системам. Один заражённый репозиторий способен скомпрометировать всю инфраструктуру компании.

Cursor заявляет, что пользователи могут включить функцию самостоятельно, установив security.workspace.trust.enabled: true в настройках и обещает обновить рекомендации по безопасности в ближайшее время.

Пока что лучший способ защиты — перестать вайбкодить 😱

НеКасперский
😁7🤔21
Всем привет! 16 сентября на ODS начнется онлайн-курс по обработке естественного языка (Natural Language Processing). Регистрация уже открыта.

Для кого:

Для всех, кому интересна тема обработки естественного языка и хочется, чтобы этот интерес перерос в знания, полезные для карьеры.

Что мы будем проходить:

начнем, как всегда с классики - закон Ципфа, TF-IDF, потом перейдем к более близким вещам - RNN, CNN, Transformer - и закончим LLM, куда же без них (вообще будет довольно много про языковые модели и их применение);

познакомимся с основными задачами NLP: классификацией текста, тегированием и генерацией;

погрузимся в более специфичные области, вроде диалоговых систем или NLP для кода.

В этот раз будет задание на агентов!

Время проведения и сроки:

Встречаемся по вторникам в 18:35 (МСК) - онлайн.


Первое занятие уже 16 сентября. Присоединяйтесь!

Если есть вопросы, то приходите с ними в ODS Mattermost – там будут все ответы, время семинаров и ссылки.
🔥52👍1
Всем привет!

Встречайте десятый выпуск еженедельного подкаста "Капитанский мостик", в котором обсуждаем новости из мира ИИ за прошедшую неделю и не только. Ведущие выпуска - Дмитрий Колодезев и Валентин Малых.
Смотрите видео на каналах ⤵️

ODS VK Video

ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в ODS Mattermost
👍3
Эра 1-битных LLM наступила 🫥

🔹 DeepSeek-V3.1, квантованный всего до 1-бита или 3-бит, обошёл Claude Opus 4 и GPT-4.5.

🔹 Unsloth GGUF смог сжать DeepSeek-V3.1 на 75%, при этом модель превзошла топовых конкурентов в бенчмарке Aider Polyglot.


🟠Подробности: https://docs.unsloth.ai/new/unsloth-dynamic-ggufs-on-aider-polyglot

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍42