Machine learning Interview
34.4K subscribers
1.14K photos
86 videos
14 files
777 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
В Авито появилась новая ключевая должность — управляющий директор по искусственному интеллекту. Её занял Андрей Рыбинцев, один из пионеров развития ИИ в России. Этот шаг — важный этап в технологической стратегии компании по внедрению искусственного интеллекта в экосистему Авито.

«Искусственный интеллект расширяет возможности человека, позволяет достигать большего. Но человеческое мышление с его способностью адаптироваться, находить нестандартные решения и проявлять гибкость остается незаменимым. Мы создаем симбиоз, где каждый делает то, что умеет лучше всего», — рассказывает Андрей в большом интервью TechInsider.

Авито развивает ИИ уже более 10 лет. За это время удалось автоматизировать почти всю обработку пользовательского контента.

«Сегодня 99% контента обрабатывается ИИ, и только 1% самых сложных вопросов передается модераторам для экспертной оценки. Если бы не алгоритмы, нам пришлось бы нанять на 100 тыс. больше сотрудников, чтобы справиться с таким объемом», — объясняет Андрей.

Еще один ИИ-инструмент — ассистент продавца. Он отвечает на самые популярные вопросы покупателей, опираясь на данные из объявлений.

«Почти все вопросы кто-то задавал до вас, и система это знает. Информацию для них он находит в объявлении: уточнит размер, состояние, доступность товара и т.д. Правда, заключать сделки мы ему пока не доверяем. Но ответить на все вопросы, которые приведут к сделке, он может», — добавляет Рыбинцев.
👍23🤣63🆒3🥰2🍌1👨‍💻1
🚀 Step 3 — новая звезда среди мультимодальных open-source моделей

StepFun представили Step 3 — мощную и удивительно быструю VLM‑модель, которая может работать даже на доступных GPU.

🔷 321B параметров (38B активных) — всё для топ‑производительности и дешёвого инференса
🔷 Новые подходы MFA + AFD — ускоряют работу модели и снижают требования к железу
🔷 Обучена на 20+ трлн токенов, из них 4T мультимодальные (текст + изображение)
🔷 До 4 039 токенов/сек/на GPU — на 70% быстрее, чем DeepSeek‑V3
🔷 Минимум галлюцинаций, максимум логики — особый фокус на качество данных

💎 Step 3 устанавливает новую Pareto‑границу между мощностью, скоростью и реальной практичностью.

🔗 Попробовать: https://huggingface.co/stepfun-ai/step3
📖 Блог: https://stepfun.com/research/zh/step3
👍1910🔥3👨‍💻2
👀 ByteDance тоже радует диффузионные LLM!

🚀 Seed Diffusion Preview – сверхбыстрый LLM для кодинга на базе дискретной диффузии.
2 146 токенов/с на H20 GPU – опережает Mercury & Gemini Diffusion, при этом не уступая им по качеству на бенчмарках.
🏆 Новый SOTA на Pareto-фронтире «скорость–качество».

🟠 Paper: https://lf3-static.bytednsdoc.com/obj/eden-cn/hyvsmeh7uhobf/sdiff_updated.pdf
🟠Project: https://seed.bytedance.com/seed_diffusion
🟠Demo: https://studio.seed.ai/exp/seed_diffusion

@machinelearning_interview

#AI #LLM #Diffusion #ByteDance #SeedDiffusionPreview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22👍96👨‍💻1
🚀 MLE‑STAR от Google Research — новый state‑of‑the‑art агент для ML-инжиниринга

Google представил MLE‑STAR — агент на основе LLM, который автоматизирует ML-задачи разных типов (табличные данные, изображения, текст и др.) и достигает высот в сравнении с предыдущими подходами.

Что нового:

• Использует веб‑поиск для поиска современных моделей и примеров кода, чтобы создать начальное решение
• Делает абляционный анализ (ablation study), чтобы определить наиболее влиятельный компонент в ML-пайплайне, и итеративно дорабатывает его
• Развивает энсемблирование: генерирует несколько решений и собирает их в одно улучшенное, опираясь на стратегию агента
• Включает модули контроля: дебаггер, проверку утечек данных и контроль использования всех источников данных, чтобы избежать плохих практик

🧪 Результаты:
MLE‑STAR выигрывает медали в 63–64 % из бенчмарка MLE‑Bench‑Lite (Kaggle), обгоняя лучшие существующие методы (~25–26 %)

🛠 В чем плюсы:
- Снижает порог входа в ML для инженеров и организаций
- Обеспечивает адаптивность: агент извлекает свежие знания из сети, поэтому решения автоматически улучшаются с развитием ML
- Открытый исходный код — можно протестировать или встроить в собственные пайплайны

💡 Как работает:
1. Поиск нужных моделей через веб
2. Генерация и слияние лучших кандидатов
3. Абляционный анализ → выбор блока → уточнение этого блока
4. Итеративное улучшение и объединение ансамблей
5. Контрольные модули: дебаг, утечки, использование данных

🔜 Подробнее

@machinelearning_interview

#Google #GoogleResearch #ml #mle #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
24🔥11👍2👨‍💻1
Forwarded from Machinelearning
🌟 Фреймворк **CUDA-L1** сам научился оптимизировать код для GPU — и добился в среднем **3.12× ускорения работы модели**, а в пике — **до 120×**. .

Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.


Чтобы исправить это досадное упущение, Deep Reinforce AI создали систему CUDA-L1, которая основана на трехэтапном пайплайне: сначала supervised-обучение для освоения основ, затем self-supervised для практики и, наконец, контрастное обучение с подкреплением, чтобы было все максимально быстро.

🟢На первом этапе система училась писать корректный и компилируемый CUDA-код.

Для этого существующий код был аугментирован - создавались его вариации, чтобы повысить насмотренность модели.

🟢На втором этапе модель генерировала собственный CUDA-код, тестировала его и училась на работающих примерах, отсеивая неудачные.

🟢Самое интересное - третий этап.

Обучаемой модели показывали несколько реализаций CUDA-ядер вместе с их показателями ускорения, например: «kernel_v1 дает ускорение 1.2x», «kernel_v2 — 2.8x», а «kernel_v3 — 1.5x». Затем задали 3 вопроса:

🟠Почему kernel_v2 настолько быстрее?
🟠Какая стратегия оптимизации сработает еще лучше?
🟠Напиши ядро, которое превзойдет их все.

Таким образом, модель не гадает вслепую, а учится на конкретных примерах, анализируя причины разницы в производительности.

🟡Отдельная история - как победили reward hacking.

После обучения выяснилось, что более 30% сгенерированных реализаций пытались сжульничать - создавали дополнительные CUDA-потоки, которые выполнялись асинхронно.

Поскольку бенчмарк KernelBench отслеживал время только на основном потоке, код выглядел быстрее, чем был на самом деле, показывая фиктивное ускорение в 18 раз.

Другие уловки состояли в манипуляции гиперпараметрами задачи (уменьшение batch_size или размерностей) и кеширование результатов вычислений.

🟡Пришлось строить многоуровневую защиту.

Во-первых, в качестве "адвоката дьявола" взяли adversarial-чекер на базе DeepSeek-R1, который анализировал код на предмет эксплойтов с точностью обнаружения более 60%.

Во-вторых, собрали базу данных из более чем 500 уникальных паттернов взлома, это повысило точность обнаружения на 25%.

И в-третьих, применили математическое сглаживание и нормализацию наград, где любое подозрительное ускорение (от 1.5x для простых операций) дополнительно проверялось.

🟡После всех фильтров и проверок прогон на бенчмарке KernelBench оказался весьма позитивными.

Система успешно сгенерировала рабочий код для 249 из 250 задач, причем в 240 случаях код оказался быстрее базовой реализации.

Среднее ускорение по всем задачам составило 3.12 раза, максимальное - аж 120 раз. Медианное ускорение (50-й перцентиль) составило 1.42x, а 75-й перцентиль — 2.25x.

Производительность по уровням сложности задач распределилась следующим образом: на простых операциях среднее ускорение составило 2.78x, на последовательностях операторов - 3.55x, а на сложных задачах вроде полных слоев трансформера - 2.96x.

🟡Самое важное - это переносимость оптимизаций.

Код, оптимизированный на NVIDIA A100, был протестирован на других GPU. Результаты показали, что найденные паттерны оптимизации фундаментальны и работают на разных архитектурах.

Среднее ускорение на H100 составило 2.39x (успешных ускорений 227 из 250), на L40 — 3.12x (228/248), а на потребительской RTX 3090 — 2.50x (213/242).

▶️ Пока веса и код не опубликованы, но в ожидании можно покрутить интерактивное демо и воспроизвести тесты из пейпера - в репозитории проекта есть фрагменты CUDA-кода с отдельными версиями для разных GPU.


📌Лицензирование: GPL-3.0 License.


🟡Страница проекта
🟡Arxiv
🟡Demo
🖥Github


@ai_machinelearning_big_data

#AI #ML #CUDA #DeepReinforce #ContrastiveRL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍7🔥3👨‍💻1
🕰️ Passage‑of‑Time MCP — сервер, который даёт языковым моделям ощущение времени

Проект jlumbroso/passage‑of‑time-mcp — это Model Context Protocol (MCP) сервер, позволяющий LLM-моделям отслеживать время в диалоге и использовать его как инструмент для рассуждения.

Что он делает:

- Делает доступными функции:
current_datetime(), time_difference(t1, t2), timestamp_context(), time_since() и др. — они возвращают текущий момент, разницу между временными метками и контекст времени в понятной форме.
- Требует, чтобы ИИ вызывал current_datetime() при каждом ответе, формируя временной таймлайн диалога.
- Через несколько сообщений модель начинает замечать *структуру беседы*, интервалы между ответами и их ритм — и даже описывать это самостоятельно.

Для чего это нужно:

- Модели больше не "живут вне времени" — они получают датированные метки, не требуют ручного добавления времени в контекст.
- LLMs начинают понимать, что пользователь отключился на 3 часа или что диалог длится вечеринка — и предлагают адаптироваться.
- Вместо статического временного штампа — динамичное понимание времени, как в реальном общении.

Как это начать использовать:

1. Склонировать репозиторий и запустить сервер на Python (~35 s).
2. Подключить MCP-интеграцию в интерфейсе Claude.ai (Add Integrations → Custom → URL/sse).
3. Настроить инструменты и позволить модели вызывать их каждый ход.

Примеры применения:

- Анализ ритма беседы: Модель может заметить паузы от 20 с до 3 мин и предложить рекап перед сложным вопросом.
- Контекст ситуации: Claude видит, что сейчас вечер рабочего дня и предлагает более концентрированный подход к задаче.
- Организация времени: агент может отслеживать с

https://github.com/jlumbroso/passage-of-time-mcp
👍177🔥6👨‍💻1