🎧 Perch 2.0 - простая supervised-модель для биоакустики
DeepMind показали новую модель для распознавания звуков животных. Без self-supervised магии, без миллиардов параметров. Просто хорошо сделанная supervised-модель которая рвет все бенчмарки
Звуки природы — это данные.
Для биологов и экологов это ключ к выживанию видов: по записям звуков можно понять, кто живёт в лесу, сколько их, размножаются ли они и не вытесняет ли их человек.
Но расшифровывать эти саундскейпы - адский труд. Час записи в тропиках = звуки десятки животных, наслаивающихся друг на друга.
И вот тут приходит AI.
🐦 Что делает Perch 2.0?
Это универсальный эмбеддер для звуков животных: берёт аудио (5 секунд), выдаёт вектор, с которым можно:
• искать похожие фрагменты (nearest neighbor)
• делать кластеризацию
• обучать линейный классификатор для нового вида (few-shot)
И всё это без GPU и fine-tuning.
Модель натренирована на 1.5 миллионах аудио-записей: птицы, насекомые, млекопитающие, даже урбанистический шум из FSD50k.
🛠 Как работает?
Perch 2.0 — это EfficientNet‑B3 (всего 12M параметров) + три головы:
1. Основная — классифицирует ~15k видов.
2. Прототипная — даёт семантически богатые логиты (для distillation).
3. Source prediction — угадывает, из какой записи взят кусок (а-ля self-supervised).
Фишка: модель обучается в два этапа. Сначала прототипная голова учится сама, потом её логиты становятся soft-label’ами для основной головы. Это и есть self-distillation.
📊 И как оно по качеству?
Perch 2.0 побила все предыдущие модели:
• На BirdSet и BEANS — новые SOTA по ROC-AUC и mAP.
• Даже на морских звуках китов и дельфинов показала отличную переносимость — при том, что почти не видела морских данных.
И да, всё это — без fine-tuning, просто на фиксированных эмбеддингах.
🤯 Почему это вообще важно?
Пока весь ML уходит в миллиардные LLM’ы и self-supervised pretraining, Perch напоминает: качественная разметка + хорошо сформулированная задача решают всё.
🌍 Что это меняет?
• Для биологов - теперь можно кластеризовать звуки из джунглей Бразилии без обучения своих моделей
• Для ML-инженеров - отличная демонстрация, как можно обучать компактные модели, не теряя качества
• Для исследователей - напоминание: не всегда нужно делать GPT-4, чтобы бы сделать что-то полезное
📎 Кто хочет поиграться — модель и датасеты уже на Kaggle
Статья
Блог-пост
DeepMind показали новую модель для распознавания звуков животных. Без self-supervised магии, без миллиардов параметров. Просто хорошо сделанная supervised-модель которая рвет все бенчмарки
Звуки природы — это данные.
Для биологов и экологов это ключ к выживанию видов: по записям звуков можно понять, кто живёт в лесу, сколько их, размножаются ли они и не вытесняет ли их человек.
Но расшифровывать эти саундскейпы - адский труд. Час записи в тропиках = звуки десятки животных, наслаивающихся друг на друга.
И вот тут приходит AI.
🐦 Что делает Perch 2.0?
Это универсальный эмбеддер для звуков животных: берёт аудио (5 секунд), выдаёт вектор, с которым можно:
• искать похожие фрагменты (nearest neighbor)
• делать кластеризацию
• обучать линейный классификатор для нового вида (few-shot)
И всё это без GPU и fine-tuning.
Модель натренирована на 1.5 миллионах аудио-записей: птицы, насекомые, млекопитающие, даже урбанистический шум из FSD50k.
🛠 Как работает?
Perch 2.0 — это EfficientNet‑B3 (всего 12M параметров) + три головы:
1. Основная — классифицирует ~15k видов.
2. Прототипная — даёт семантически богатые логиты (для distillation).
3. Source prediction — угадывает, из какой записи взят кусок (а-ля self-supervised).
Фишка: модель обучается в два этапа. Сначала прототипная голова учится сама, потом её логиты становятся soft-label’ами для основной головы. Это и есть self-distillation.
📊 И как оно по качеству?
Perch 2.0 побила все предыдущие модели:
• На BirdSet и BEANS — новые SOTA по ROC-AUC и mAP.
• Даже на морских звуках китов и дельфинов показала отличную переносимость — при том, что почти не видела морских данных.
И да, всё это — без fine-tuning, просто на фиксированных эмбеддингах.
🤯 Почему это вообще важно?
Пока весь ML уходит в миллиардные LLM’ы и self-supervised pretraining, Perch напоминает: качественная разметка + хорошо сформулированная задача решают всё.
🌍 Что это меняет?
• Для биологов - теперь можно кластеризовать звуки из джунглей Бразилии без обучения своих моделей
• Для ML-инженеров - отличная демонстрация, как можно обучать компактные модели, не теряя качества
• Для исследователей - напоминание: не всегда нужно делать GPT-4, чтобы бы сделать что-то полезное
📎 Кто хочет поиграться — модель и датасеты уже на Kaggle
Статья
Блог-пост
❤28👍12🔥7
🧹💥 «Чистильщики диска» больше не нужны
Помните софт «почистить диск»? Забудьте.
Я написал GPT-5 в Cursor: «найди, что можно безопасно удалить и почисти мой диск». Через минуту получил план, удалил кеши Hugging Face и Ollama - и за 5 минут освободил 142 ГБ. Ничего не сломалось.
Почему это лучше утилит?
LLM видит контекст: отличает проекты от регенерируемых кешей, предупреждает о рисках, подсказывает порядок действий (остановить сервис → вынести кеши → при желании docker prune).
Мораль простая: вместо «магических клинеров» — один умный запрос к GPT-5 в IDE. Быстрее, безопаснее, под ваш стек.
Если было полезно - напишите в комментах: какой у вас топ-3 прожорливых папок и какой промпт даёте модели для «уборки»?
Помните софт «почистить диск»? Забудьте.
Я написал GPT-5 в Cursor: «найди, что можно безопасно удалить и почисти мой диск». Через минуту получил план, удалил кеши Hugging Face и Ollama - и за 5 минут освободил 142 ГБ. Ничего не сломалось.
Почему это лучше утилит?
LLM видит контекст: отличает проекты от регенерируемых кешей, предупреждает о рисках, подсказывает порядок действий (остановить сервис → вынести кеши → при желании docker prune).
Мораль простая: вместо «магических клинеров» — один умный запрос к GPT-5 в IDE. Быстрее, безопаснее, под ваш стек.
Если было полезно - напишите в комментах: какой у вас топ-3 прожорливых папок и какой промпт даёте модели для «уборки»?
😁52😐13👍7❤2😢2🔥1
🤝 GPT-5 Thinking + Claude Code: как я ставлю задачи AI агенту
Я использую GPT-5 Thinking в качестве «оркестратора»: он превращает идею в чёткий «Claude-ready бриф» с критериями приёмки. Claude Code исполняет задачу в терминале (читает репо, пишет диффы, тесты, PR)
🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:
Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как
🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.
📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.
Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.
Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
Я использую GPT-5 Thinking в качестве «оркестратора»: он превращает идею в чёткий «Claude-ready бриф» с критериями приёмки. Claude Code исполняет задачу в терминале (читает репо, пишет диффы, тесты, PR)
🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:
Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как
tasks/SB01_BUILD_CSV.md
🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.
📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.
Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.
Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
❤32👍12🔥10😐1
Anthropic Claude Code: самое полезное с семинара
Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:
🧠 Hot keys
•
•
•
•
•
•
•
🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
• Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
• Context7 — актуальные доки по популярным SDK и библиотекам
• SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
• Figma MCP — агент читает/проверяет макеты в Figma
📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.
⚡ Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:
Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:
🧠 Hot keys
•
Shift+Tab
— Planning mode (Claude сначала строит план, потом действует)•
Esc Esc
— «откат» шага диалога•
think / think hard / ultrathink
— явно просим больше reasoning budget•
!bash
— запускаем shell-команды прямо из чата•
@mention
— подкидываем файлы в контекст•
Drag & drop
— кидаем скриншоты/изображения•
Ctrl+B
— запуск Claude Code в фоне🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
• Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
• Context7 — актуальные доки по популярным SDK и библиотекам
• SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
• Figma MCP — агент читает/проверяет макеты в Figma
📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.
⚡ Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:
# Проектный уровень
mkdir -p ./claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ./claude/commands/optimize.md
# Пользовательский уровень (глобально)
mkdir -p ~/.claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ~/.claude/commands/optimize.md
2❤23🔥13
This media is not supported in your browser
VIEW IN TELEGRAM
🤖🧪 ChatGPT-Agent хорошо справляется с QA тестированием
Я взял ChatGPT-агента и дал ему задачу «как у живого тестера»: логиниться, загружать данные, проверять графики и экспорт. Он не просто кликает скриптом — он смотрит, думает и меняет план, когда что-то идёт не так.
☕️ Утро. Я нажимаю «Запустить проверку» и иду делать кофе.
Агент заходит в мое веб-приложение, заливает CSV, включает оверлеи, пробует экспорт. Где-то зависает спиннер - он не паникует, меняет маршрут и продолжает проверять остальное.
🐶 Я выхожу гулять с собакой. В это время агент собирает улики: скрины, логи и тп. Видит тонкости - «фича включилась, но данных нет» - и помечает это как задачу для другого AI агента.
📬 Возвращаюсь - на экране готовый отчёт:
— 3 проблемы с шагами «ожидал → получил»,
— ссылки на скрины/HAR,
— приоритеты и быстрые фиксы.
Я просто перетягиваю задачи в следующий диалог с Claude Code. Всё. Никаких «не воспроизводится».
🌇 Агент сделал рутину за меня; моё время ушло на решения (и отдых), а не на клики и скриншоты. По ощущениям, экономит по паре часов в день - минимум.
Не магия. Просто внимательный джуниор из кремния, который не устает.
Кстати, я думаю что готов к ограниченной бете, так что если вам есть что предсказывать (еду в кафе, номера в отеле, закупку продуктов в магазин и вообще что угодно) - пишите в комменты, дам доступ!
Я взял ChatGPT-агента и дал ему задачу «как у живого тестера»: логиниться, загружать данные, проверять графики и экспорт. Он не просто кликает скриптом — он смотрит, думает и меняет план, когда что-то идёт не так.
☕️ Утро. Я нажимаю «Запустить проверку» и иду делать кофе.
Агент заходит в мое веб-приложение, заливает CSV, включает оверлеи, пробует экспорт. Где-то зависает спиннер - он не паникует, меняет маршрут и продолжает проверять остальное.
🐶 Я выхожу гулять с собакой. В это время агент собирает улики: скрины, логи и тп. Видит тонкости - «фича включилась, но данных нет» - и помечает это как задачу для другого AI агента.
📬 Возвращаюсь - на экране готовый отчёт:
— 3 проблемы с шагами «ожидал → получил»,
— ссылки на скрины/HAR,
— приоритеты и быстрые фиксы.
Я просто перетягиваю задачи в следующий диалог с Claude Code. Всё. Никаких «не воспроизводится».
🌇 Агент сделал рутину за меня; моё время ушло на решения (и отдых), а не на клики и скриншоты. По ощущениям, экономит по паре часов в день - минимум.
Не магия. Просто внимательный джуниор из кремния, который не устает.
Кстати, я думаю что готов к ограниченной бете, так что если вам есть что предсказывать (еду в кафе, номера в отеле, закупку продуктов в магазин и вообще что угодно) - пишите в комменты, дам доступ!
🔥28❤8👍4
🔮📈 Prophet Arena
Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).
🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.
⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.
📊 Две оси
• 1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
• Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.
⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.
✅ Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.
Ссылка
Расскажите в комментариях что еще могут предсказывать LLM?
Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).
🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.
⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.
📊 Две оси
• 1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
• Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.
⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.
✅ Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.
Ссылка
Расскажите в комментариях что еще могут предсказывать LLM?
🔥14👍8❤6😱1
Визуальный разбор GPT-OSS 🧠⚙️
OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.
Зачем нам это сейчас 🔥
Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.
Как все устроено простыми словами 🛠️
• Архитектура: трансформер с Mixture-of-Experts. В 120B — 128 экспертов, в 20B — 32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
• Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
• Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
• Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
• Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.
Мини-пример: как «крутить ручку» рассуждений 🎚️
Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..
Почему это важно в большом контексте 🌍
• Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
• Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
• Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость ↔ точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.
Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.
Пара важных оговорок 🧯
• CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.
Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.
Если было полезно — поделитесь с коллегами.
Лучше всего почитать блог пост в оригинале:
Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.
Зачем нам это сейчас 🔥
Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.
Как все устроено простыми словами 🛠️
• Архитектура: трансформер с Mixture-of-Experts. В 120B — 128 экспертов, в 20B — 32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
• Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
• Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
• Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
• Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.
Мини-пример: как «крутить ручку» рассуждений 🎚️
```
<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>
```
Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..
Почему это важно в большом контексте 🌍
• Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
• Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
• Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость ↔ точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.
Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.
Пара важных оговорок 🧯
• CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.
Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.
Если было полезно — поделитесь с коллегами.
Лучше всего почитать блог пост в оригинале:
Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
👍22❤7🔥6
EfficientLLM: короткий разбор
Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.
Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.
Главные выводы:
• Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
• Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
• MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
• Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
• Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.
Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.
Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌
Статья
Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.
Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.
Главные выводы:
• Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
• Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
• MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
• Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
• Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.
Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.
Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌
Статья
🔥17👍7❤5
SEIR x PINNs для предсказания каскадных сбоев в мультиагентных системах
Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)
Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.
И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?
На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊
Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.
Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.
Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).
А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.
Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).
Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)
🔗код
📝публикация
Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)
Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.
И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?
На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊
Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.
Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.
Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).
А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.
Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).
Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)
🔗код
📝публикация
❤10🔥9🎉4😁1
🎓 Образование × ИИ: как преподаватели реально используют Claude
Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.
Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.
Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).
Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.
Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).
Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.
Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.
Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.
Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?
Если было полезно - поделитесь с учителями и преподавателями!
Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.
Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.
Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).
Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.
Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).
Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.
Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.
Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.
Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?
Если было полезно - поделитесь с учителями и преподавателями!
❤11🔥2🎉1