Машиннное обучение | Наука о данных Библиотека
16.9K subscribers
745 photos
10 videos
21 files
647 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
Forwarded from Machinelearning
🌟 MoVieS: Синтез 4D-видов с учетом движения.

ByteDance в соавторстве с Пекинским университетом и Карнеги Меллон разработали MoVieS, feed-forward модель, которая из обычного монокулярного видео за секунду синтезирует полноценную 4D-сцену, объединяя в себе геометрию, внешний вид и, что самое важное, движение.

В основе метода лежит идея представления динамической сцены с помощью «динамических сплэттер-пикселей». Если вы знакомы с 3D Gaussian Splatting, то поймете сразу: модель представляет каждый пиксель входного видео как гауссов примитив в 3D-пространстве.

Новизна MoVieS в том, что она не просто определяет их статичные параметры (положение, цвет, прозрачность), но и предсказывает вектор их движения во времени. Иными словами, для каждой частицы в сцене модель знает, где она будет в любой заданный момент.

Архитектурно MoVieS построена на геометрически предобученном трансформере VGGT, который обрабатывает кадры видео. Далее в дело вступают три специализированные «головы»:

🟠Depth Head - предсказывает карту глубины;

🟠Splatter Head - отвечает за атрибуты самих гауссовых сплэттеров для рендеринга;

🟢Motion Head - самая главная, оценивает смещение каждого примитива.

Такой единый фреймворк позволяет обучать модель на самых разнородных датасетах: где-то есть разметка глубины, где-то - трекинг точек, а где-то - только видео.

MoVieS - это еще про скорость. Согласно техотчету, на генерацию сцены уходит меньше секунды (0.93 с), тогда как у альтернативных методов на это уходят десятки минут.

При этом качество на бенчмарках динамических сцен (DyCheck и NVIDIA) либо на уровне, либо превосходит SOTA решения.

Но самое интересное - это zero-shot возможности. Модель, обученная по сути на задаче синтеза новых ракурсов, внезапно оказывается способна без всякого дополнительного обучения сегментировать движущиеся объекты и оценивать scene flow (попиксельный поток в 3D). Достаточно просто посмотреть на предсказанные векторы движения.

⚠️ Кода для инференса, обучения и чекпоинтов пока нет, но обещают.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #4D #MoVieS #ByteDance
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥1
🧠 На чём работает ваша LLM — точно на том GPU, за который вы платите?

Метод HSPI определяет железо и софт по выходу модели. Даже в black-box-сценарии точность доходит до 60% — втрое выше случайного угадывания.

Рекомендую почитать очень интересный разбор этого метода здесь.

#ml #GPU #HSPI #llm
4😁1
🤖 ChatGPT обошел почти всех элитных программистов — выжил только один

На соревновании по оптимизационным алгоритмам модель от OpenAI вышла в финал 16 июля, сразу захватила лидерство…

Но под конец её обошёл Psyho — бывший программист команды OpenAI.

📌 Главное:
— внутренняя кодовая модель OpenAI показывает безумную эффективность

— возможно, это последняя победа человека

Дальше будет только сложнее.
11😱3👍2😁2💩2🔥1
🧠 Как обучить LLM‑агента для работы в браузере?

Команда Hugging Face провела масштабное исследование и показала:
🔁 лучший путь — сначала SFT (на демонстрациях), потом RL (по reward'у)

📊 Что сделали:
— 1370 тренировок на MiniWoB++
— сравнили SFT, RL и гибрид
— применили бутстрэп‑оценку и sweep по гиперпараметрам

Результат:
— гибридный подход даёт топ‑результаты
— такой агент достигает GPT‑4o‑уровня, но тратит в 2 раза меньше ресурсов
— RL помогает, только если идёт после SFT

📚 Подробности и код:
https://huggingface.co/blog/ppEmiliano/how-to-train-your-llm-web-agent-a-statistical-diag
6🔥2👍1
🧠 Новая статья “Chain of Thought Monitorability: A New and Fragile Opportunity for AI Safety” выделяет важность мониторинга цепочек рассуждений (CoT) в продвинутых LLM для повышения безопасности AI.

Основная идея:
Когда ИИ "размышляет вслух" на человеческом языке, мы получаем редкую возможность наблюдать промежуточные шаги мышления и вовремя обнаруживать опасные намерения :contentReference.

🤔 Но это не очень надежно:
- CoT — не всегда надёжно: модели иногда "надувают" мысли фальшивыми оправданиями - В будущем AI может перейти на латентные рассуждения, скрывая настоящие мысли.
- Не все вредоносные действия требуют развернутого CoT – короткая вредоносная команда может пройти незамеченной.

🎯 Почему это важно:
- CoT-мониторинг можно применять уже сейчас как дополнительный слой безопасности.
- Он помогает построить доверие и прозрачность, особенно в ответственных системах (медицина, финансы, критическая автоматизация).
- Но это — лишь временный ресурс: мы должны его сохранить и укрепить

💬 Авторы (включены исследователи из Anthropic, OpenAI, DeepMind, Google и другие) предлагают:
- Включать мониторируемость CoT в качестве метрики при разработке моделей.
- Построить библиотеку кейсов безопасных и рискованных CoT.
- Разрабатывать автоматические мониторы, обучаемые на выявлении подозрительных цепочек.

Вывод:
Сегодня CoT — наш редкий способ заглянуть внутрь ИИ. Но без сознательных усилий он может исчезнуть. Контекстные рассуждения нужно ценить, защищать и формализовать, прежде чем они станут недоступны в новых моделях.

📌 Читать полностью
7👍1🔥1
🧠 *Learning without training* — как Google предлагает переосмыслить обучение моделей без градиентов

Разбираем свежую и очень необычную статью от Google.

Мы знаем: если добавить в prompt несколько примеров — модель начинает лучше справляться с задачей, даже без дообучения. Это называется *in-context learning (ICL)*.
Но вот вопрос: *почему это работает?* До сих пор точного ответа не было.

📌 В новой работе авторы предлагают нестандартную гипотезу:
*веса модели всё-таки меняются — но не так, как мы привыкли*.
Не через обучение и обратное распространение ошибки, а прямо внутри трансформера — за счёт механики self-attention и MLP.

🔍 Суть:

1️⃣ Примеры в промпте изменяют активации.
Self-attention пересчитывает эмбеддинги так, что они теперь зависят от контекста. Это известный «контекстный сдвиг».

2️⃣ Дальше — самое интересное:
MLP превращает этот сдвиг в *ранг‑1 обновление весов* первого слоя.
То есть влияние prompt-а эквивалентно тому, как если бы к весам W прибавили простую корректировку.

💡 Главное:
Если вручную внести эту ранк‑1 правку в веса — модель *без* промпта будет давать те же ответы, что и модель *с* промптом.
И всё это — во время инференса, без обучения, без градиентов, без изменения параметров модели.

🔑 Это открывает путь к «обучению без обучения» — где веса можно изменять на лету, прямо во время работы. И, возможно, строить совсем новые архитектуры ИИ.

📖 Полная статья тут

@machinelearning_books
👍76🔥4🤔1👀1
Forwarded from Machinelearning
🖥 Как выжать максимум из маленькой LLM? Ответ — долго и грамотно учить .

NVIDIA показала, как 1.5B-модель можно раскачать до топовых результатов в логике, математике, коду и STEM-задачам — без увеличения параметров модели.

📈 Результат после месяцев обучения:
+55% к логическим задачам
+14.7% к математике
+13.9% к коду
+25.1% к сложным STEM-вопросам

🛠 Как они это сделали:

– Использовали RL (обучение с подкреплением) на 5 типах задач, включая 40K примеров по математике и 24K по программированию
– Все ответы проверялись автоматически в "песочнице", которая оценивает, правильный ли результат
– Применили улучшенную стратегию обучения — *Group Relative Policy Optimization* — и добавили несколько хитрых трюков:

🟢 Decoupled clipping — обычно модель "обрезает" редкие и неожиданные токены, чтобы не уходить слишком в сторону от главного. Но здесь этот механизм ослаблен: модель может чаще выбирать нестандартные слова, что помогает ей находить неожиданные, но правильные решения.

🟢 Dynamic sampling — модель *не тратит время* на лишком лёгкие задачи. Она пропускает такие примеры и фокусируется на тех, где действительно можно чему-то научиться.

🟢 Маленький KL-штраф (0.0001) — KL показывает, насколько поведение модели отклоняется от старой версии (эталона). Здесь штраф почти нулевой, чтобы не мешать экспериментам, но всё ещё предотвращать полное "сумасшествие" модели.

🟢 Сброс каждые 400 шагов — модель регулярно сбрасывает и policy (поведение), и оптимизатор. Это как регулярная перезагрузка — модель забывает вредные привычки, но сохраняет полезные навыки.

🟢 Температура 1.2 и длинный контекст (8K → 16K) — высокая температура делает поведение модели более разнообразным. А длинный контекст помогает учитывать больше информации при генерации ответа.

Все эти приёмы помогли сохранить интерес модели к поиску новых решений, а не скатываться к заученным паттернам.

Итог: модель не "застывает", а продолжает исследовать — и выдает стабильный рост качества без расширения архитектуры.

📄 Почитать статью полностью : arxiv.org/abs/2507.12507

@ai_machinelearning_big_data

#ml #ai #nvidia
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥3👍2
🧠 Новый взгляд на обучение нейросетей: SETOL

📄 В свежей работе на 139 страниц авторы предлагают необычную идею: определять качество обучения нейросети без валидации, просто анализируя спектр весов каждого слоя.

🔬 SETOL (Semi-Empirical Theory of Learning) — теория, основанная на методах из физики и химии, утверждает:

➡️ Каждый слой нейросети сходится с разной скоростью
➡️ Его “здоровье” можно проверить по спектральному показателю Alpha — наклону убывания сингулярных значений весов

💡 Ключ:
- Если Alpha ≈ 2 → слой держит сигнал и фильтрует шум
- Alpha < 2 → переобучение (запоминает шум)
- Alpha > 2 → недообучение (теряет сигнал)

📈 Этот показатель предсказывает обобщающую способность модели почти так же точно, как полноценная валидация — но без единого примера из датасета.

Почему это важно:
- Можно оценить модель, даже если исходные данные утрачены
- Упрощает отбор, аудит и прунинг моделей
- Работает оффлайн и с приватными моделями

🔍 Вместо того чтобы “прогонять данные” — теперь можно просто “считать спектр весов как индикат

⚡️ Статья
👍133🤔2
🧠 DualDistill: как 7B-модель обходит гигантов в математике

📚 Agentic‑R1 учится у двух учителей:
• один рассуждает в тексте
• другой — пишет Python-код
Затем оба трека сливаются в 2 678 гибридных примеров.

Если оба правы — сохраняются оба пути
⚠️ Если один ошибается — фиксируется момент передачи
Безнадёжные случаи — отбрасываются

После обучения ученик запускается сам:
• сохраняет удачные попытки
• исправляет ошибки с помощью учителей
• дообучается, добавляя 16 новых попыток на каждую задачу

🎯 Финальная модель в реальном времени решает: рассуждать или писать код
• вызывает исполнитель в 79.2% тяжёлых комбинаторных задач
• но лишь в 52.0% простых AMC-вопросов

📈 Результаты:
• DeepMath‑L и Combinatorics300: рост точности с 34.7 → 59.3
• Стандартные датасеты — стабильные метрики
→ Гибридное обучение оказалось сильнее одиночных стратегий

📝 Paper: https://arxiv.org/abs/2507.05707
7👍1🔥1
📘 Гайд по Prompt Engineering — 80 страниц пользы

💎 Настоящий клад для AI‑продуктов, инженеров и всех, кто работает с LLM

Что внутри:
→ Простые определения: что такое pipeline, CoT, RAG
→ Обзор всех техник промптинга
→ Работа с текстом, изображениями, аудио и видео
→ Как агенты вызывают внешние инструменты и пишут код
→ Методы оценки качества генераций
→ Полезные фреймворки для промптов
→ Риски prompt hacking и способы защиты
→ Как справляться с проблемами выравнивания
→ Разбор реального кейса из практики

🆓 PDF (80 стр.): https://arxiv.org/pdf/2406.06608
6👍5🔥1
📌Центры обработки данных потребляют уже 8.9% всей электроэнергии в США.

Согласно анализу Международного энергетического агентства, на долю дата-центров приходится почти 9% от общего потребления электроэнергии в США.

Международное энергетическое агентство (МЭА) - автономная международная организация, созданная в 1974 году. Ее цели: обеспечение энергетической безопасности, продвижение возобновляемых источников энергии и борьбу с изменением климата.


Страна является абсолютным мировым лидером по установленной мощности ЦОД (53.7 ГВт), и этот показатель продолжает стремительно расти. Уже к 2028 году, по прогнозам, дата-центры могут потреблять 12% всей американской электроэнергии.

Спрос на вычислительные мощности, подстегиваемый бурным развитием ИИ, растет по всему миру. В Великобритании на ЦОД приходится 5.1% энергопотребления, в Евросоюзе — 4.8%. Даже в Китае, несмотря на огромные масштабы экономики, этот показатель достиг 2.3%.

Особенно ярко тренд проявляется на региональном уровне. Например, в штате Вирджиния, который является хабом для многих ЦОД, на их долю приходится уже 26% всего энергопотребления.

Этот бум заставляет технологические компании активно инвестировать не только в сами дата-центры, но и в источники энергии для них, в частности, в атомную энергетику.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍2🤔2
Самое трудное — не выучить, а понять, что учить дальше.

Вы только задумываетесь о карьере в ML, начали изучать основы или хотите сменить профессию и войти в IT, но кажется, здесь всё слишком сложно? LLM, MLOps, стеки, профессии — в голове каша. Как не утонуть в информации и понять, с чего реально начать? И главное — какие навыки действительно нужны, чтобы быть уверенным, востребованным специалистом?

7 августа в 18:00 (МСК) karpovꓸcourses проведут бесплатный вебинар с Нерсесом Багияном, руководителем направления по работе с данными. Он расскажет о своем карьерном пути, реальных задачах ML-инженера в 2025 году и ключевых навыках, которые помогают расти — все на примерах из индустрии.

Разложите ML по полочкам на бесплатном вебинаре: https://clc.to/erid_2W5zFJLXfhS

Это старт Data-интенсива: от новичка до оффера, который поможет сориентироваться в сфере Data Science и перейти к первым шагам 🤝🏻

Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFJLXfhS
7🔥3👍1
📘 Хочешь понять машинное обучение без головной боли?

GeostatsGuy сделал визуальный учебник по ML с десятками анимаций и интерактивных демо.

🧠 Что внутри:
— Простые объяснения ключевых концепций
— Как работает регрессия, классификация, деревья решений
— Анимации градиентного спуска, переобучения, кросс-валидации
— Наглядные примеры для всех основных алгоритмов

Идеально для студентов, начинающих аналитиков и тех, кто хочет «прочувствовать» машинное обучение, а не просто заучить формулы.

🔗 Читать учебник
🔥6👍42🥰2
🧠 JointThinking: как заставить ИИ думать дважды — но только когда нужно

Новое исследование показывает: если LLM отвечает дважды и второй раз только в случае расхождения, точность резко растёт — а скорость почти не падает.

📌 Как работает JointThinking:
1. Модель сразу выдаёт два ответа:
• быстрый ("Nothinking")
• вдумчивый ("Thinking")

2. Если ответы совпадают — возвращается "Thinking".
3. Если разные — запускается ещё один раунд размышлений с анализом обоих вариантов.

📈 Результаты:
• На GSM8K (арифметика):
• 7B модель: с 87.79% → 91.05%
• 32B модель: с 92.80% → 96.29%

• Повторный шаг включается только в 6% случаев — задержка почти не меняется
• На MMLU-Pro (OOD):
• 7B: с 57.07% → 66.79% — обгоняет даже специализированный метод AdaptThink

🎯 Главная идея:
Согласие Thinking и Nothinking — это сильный сигнал уверенности. А несогласие — повод подумать ещё раз. Этот подход:
• не требует дообучения
• легко масштабируется
• снижает confident‑ошибки до –1.55%

📄 Paper: arxiv.org/abs/2508.03363

Простая идея, впечатляющий прирост. Структурное разнообразие мышления — вот как строятся устойчивые reasoning‑системы.
👍64🔥3
🖥 Мощный учебник по SQL — охватывает всё от базы до продвинутого уровня.

Внутри — 4 модуля, разбитые по сложности:
🟣 Основы SQL
🟣 Средний уровень
🟣 Продвинутый SQL
🟣 Аналитика на SQL

📚 Каждый модуль — это около 10 практичных уроков с возможностью сразу применять знания.

📌 Ссылка тут:
https://mode.com/sql-tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍1🔥1🤮1
Forwarded from Machinelearning
🚀Прорыв от Google: активное обучение с экономией данных на 10 000× при дообучении LLM

Google разработала масштабируемый процесс *active learning*, который позволяет в десятки тысяч раз сократить объём размеченных данных, необходимых для тонкой настройки больших языковых моделей на сложных задачах — например, при модерации рекламного контента.

🟢 Как работает метод:
1. Стартовая модель (LLM-0) получает промпт и автоматически размечает огромный массив данных.
2. Кластеризация выявляет примеры, где модель путается (наиболее спорные и ценные для обучения).
3. Отбор данных: из этих кластеров выбирают информативные и разнообразные примеры.
4. Экспертная разметка — только для выбранных примеров.
5. Итерации: дообучение модели → новый отбор спорных примеров → разметка → снова обучение.

🟢Результаты:
- Сокращение с 100 000 размеченных примеров до менее 500 при сохранении или улучшении качества.
- Улучшение метрики *Cohen’s Kappa* на 55–65 %.
- В больших продакшн-моделях — до 3–4 порядков меньше данных при сопоставимом или лучшем качестве.

🟢 Что такое Cohen’s Kappa?
Это метрика, которая показывает, насколько два "судьи" (например, эксперт и модель) согласны между собой с поправкой на случайные совпадения.
- 0.0 — нет согласия (или хуже случайного)
- 0.41–0.60 — умеренное согласие
- 0.61–0.80 — значительное
- 0.81–1.00 — почти полное согласие
В задачах с дисбалансом классов Kappa даёт более честную оценку, чем обычная точность (accuracy).

Чем лучше предыдущих методов:
- Точечная разметка: размечаются только самые информативные примеры.
- Масштабируемость: метод применим к наборам данных с сотнями миллиардов примеров.
- Экономия ресурсов: меньше времени и затрат на разметку.
- Быстрая адаптация: подходит для доменов с быстро меняющимися правилами (реклама, модерация, безопасность).

🟢Вывод:
При умном отборе данных LLM можно адаптировать в тысячи раз быстрее и дешевле, чем при традиционном обучении на больших размеченных наборах.

#GoogleResearch #ActiveLearning #AI #LLM #MachineLearning #DataEfficiency

🟠Почитать подробно

@ai_machinelearning_big_data


#GoogleResearch #ActiveLearning #AI #LLM #MachineLearning #DataEfficiency
Please open Telegram to view this post
VIEW IN TELEGRAM
👍72🤔2🔥1🥰1