Математика — это фильтр на входе
На собеседованиях по DS часто валят не на коде, а на вопросах по линейной алгебре, статам или терверу. Не дай теории стать твоим узким местом.
Уравнение выгоды: 1 + 2.
Берешь три курса, платишь за один (тот, что дороже).
Что усилит резюме:
— Математика для Data Science;
— AI-агенты для DS-специалистов;
— ML для старта.
Обучить свою нейронку
До 31 декабря.
Саппорт: @manager_proglib
На собеседованиях по DS часто валят не на коде, а на вопросах по линейной алгебре, статам или терверу. Не дай теории стать твоим узким местом.
Уравнение выгоды: 1 + 2.
Берешь три курса, платишь за один (тот, что дороже).
Что усилит резюме:
— Математика для Data Science;
— AI-агенты для DS-специалистов;
— ML для старта.
Обучить свою нейронку
До 31 декабря.
Саппорт: @manager_proglib
При использовании L1-регуляризации (Lasso) в линейных моделях коэффициенты при некоторых признаках становятся строго равными нулю. Какое геометрическое свойство L1-нормы объясняет этот эффект?
Anonymous Quiz
12%
L1-норма является дифференцируемой во всех точках пространства
68%
Единичная сфера L1-нормы имеет острые углы на осях координат
13%
Производная L1-нормы пропорциональна значению самого веса
6%
L1-норма всегда меньше L2-нормы для любого вектора весов
При обучении случайного леса (Random Forest) мы используем Out-of-Bag (OOB) ошибку. Что это такое?
Anonymous Quiz
12%
Ошибка, которую модель выдает на полностью новых данных после деплоя
10%
Ошибка, возникающая из-за того, что деревья в лесу слишком глубокие
4%
Среднеквадратичная ошибка (MSE), рассчитанная по всей обучающей выборке
73%
Ошибка модели на данных, которые не попали в bootstrap-выборку для конкретного дерева
👍1
Какой из методов ансамблирования обычно дает наибольший выигрыш в качестве, если базовые модели сильно различаются по своей архитектуре (например, KNN, SVM и случайный лес)?
Anonymous Quiz
19%
Бэггинг (Bagging)
27%
Градиентный бустинг (Boosting)
8%
Случайный подпространственный метод (Random Subspace)
47%
Стэкинг (Stacking)
❤1
Вопрос с собеседования 2026: «Как вы организуете память в мультиагентной системе?»
Если вы отвечаете «просто передам контекст в промпт», вы, скорее всего, не получите оффер на позицию AI Engineer. Современные системы требуют работы с векторными БД, чекпоинтами в графах и RAG.
Подтяните хард-скиллы на нашем обновленном курсе «Разработка AI-агентов».
Что в программе:
— Паттерн ReAct и архитектура агентов;
— Работа с
— Инструменты AgentOps для мониторинга.
Практика с код-ревью и дипломный проект, который не стыдно показать на собеседовании.
Записаться
Если вы отвечаете «просто передам контекст в промпт», вы, скорее всего, не получите оффер на позицию AI Engineer. Современные системы требуют работы с векторными БД, чекпоинтами в графах и RAG.
Подтяните хард-скиллы на нашем обновленном курсе «Разработка AI-агентов».
Что в программе:
— Паттерн ReAct и архитектура агентов;
— Работа с
LangChain и LangGraph ;— Инструменты AgentOps для мониторинга.
Практика с код-ревью и дипломный проект, который не стыдно показать на собеседовании.
Записаться
Вы обучаете модель k-NN на наборе данных, где количество признаков (столбцов) внезапно увеличилось с 10 до 1000, при этом количество строк осталось прежним. Как это практически отразится на работе алгоритма k-NN?
Anonymous Quiz
1%
Модель станет работать быстрее, так как данных для сравнения стало больше
66%
Расстояния между всеми точками станут почти одинаковыми, и понятие "ближайший сосед" потеряет смысл
19%
Точность модели вырастет, так как 1000 признаков дают более детальное описание объектов
14%
Алгоритм k-NN автоматически выберет 10 лучших признаков и проигнорирует остальные
❤1
При построении дерева решений (Decision Tree) без ограничений, оно может расти до тех пор, пока в каждом листе не окажется ровно по одному объекту из обучающей выборки. К какому фундаментальному последствию для характеристик модели это приводит?
Anonymous Quiz
10%
У модели будет низкое смещение (low bias) и низкая дисперсия (low variance)
15%
У модели будет высокое смещение (high bias) и высокая дисперсия (high variance)
58%
У модели будет очень низкое смещение (low bias), но очень высокая дисперсия (high variance)
17%
У модели будет очень высокое смещение (high bias), но очень низкая дисперсия (low variance)
❤1
Вы обучаете нейронную сеть и замечаете, что на графике Train Loss сначала стабильно падает, а затем начинает резко колебаться или даже расти. При этом точность перестает улучшаться.
Какое изменение, скорее всего, поможет стабилизировать процесс?
Какое изменение, скорее всего, поможет стабилизировать процесс?
Anonymous Quiz
80%
Уменьшить скорость обучения (Learning Rate)
3%
Увеличить количество эпох обучения
10%
Отключить все слои Dropout
8%
Убрать слои нормализации (например, Batch Normalization)
👍2
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘 Pro версия является ТОП-1 опенсорсом в мире
🔘 Lite версия (2B параметров) лучше первой версии Sora
🔘 На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд: lmarena
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘 Open Source Kandinsky 5.0: github и hf
🚀 Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2
При работе с RNN для обработки длинных последовательностей часто возникает проблема, из-за которой модель «забывает» информацию, полученную в самом начале последовательности.
Какое архитектурное решение было разработано для борьбы с этой проблемой?
Какое архитектурное решение было разработано для борьбы с этой проблемой?
Anonymous Quiz
2%
Перцептрон (Multilayer Perceptron)
92%
Долгая краткосрочная память (Long Short-Term Memory, LSTM)
5%
Сверточный слой (Convolutional Layer)
2%
Полносвязный слой (Dense Layer)
Задача — предсказать, совершит ли клиент покупку в интернет-магазине. В датасете вы обнаружили признак «ID транзакции чека». Вы включили его в модель, и она показала AUC-ROC = 0.999. Однако при проверке на новых данных модель не работает.
Что произошло?
Что произошло?
Anonymous Quiz
10%
Модель слишком простая для таких данных
5%
В данных могут быть пропуски
20%
Вы использовали неправильную метрику качества
65%
Произошла утечка
❤2
Вы обучаете RNN для генерации текста. В процессе обучения вы замечаете в логах, что значения Loss внезапно становятся NaN, а веса модели принимают экстремально большие значения.
Какая техника является наиболее простым способом борьбы с этой проблемой?
Какая техника является наиболее простым способом борьбы с этой проблемой?
Anonymous Quiz
19%
Dropout (Дропаут)
48%
Gradient Clipping (Обрезка градиентов)
25%
L2-регуляризация (Ridge)
8%
Увеличение размера батча (Batch Size)
❤1
Вы работаете с данными, которые имеют сложную форму: два кластера вложены друг в друга как кольца. Вы попробовали K-Means, но он разделил кольца вертикально.
Какой алгоритм лучше всего справится с этой задачей, не требуя указывать количество кластеров?
Какой алгоритм лучше всего справится с этой задачей, не требуя указывать количество кластеров?
Anonymous Quiz
10%
Agglomerative Clustering
15%
Метод главных компонент (PCA)
13%
Гауссовы модели (Gaussian Mixture Models)
62%
DBSCAN
👍1
WANTED: DS-ИНТЕРВЬЮЕР
Обвиняется в умении загнать в тупик вопросом про регуляризацию. Мы ищем эксперта, который поможет другим соискателям разложить
Приметы:
— является профи в
— знает, какие вопросы реально задают на собеседованиях в бигтех;
— умеет объяснять сложные модели без потери смысла;
— хочет стать узнаваемым лицом в DS-комьюнити.
Что мы предлагаем:
— гонорар за разработку учебных материалов;
— прокачка личного бренда на большую аудиторию;
— сотрудничество с командой Proglib Academy.
Явка с повинной
P.S. Твой знакомый дата-сайентист знает слишком много? Сдай его нам.
Обвиняется в умении загнать в тупик вопросом про регуляризацию. Мы ищем эксперта, который поможет другим соискателям разложить
Machine Learning и статистику по полочкам.Приметы:
— является профи в
Python и математической статистике;— знает, какие вопросы реально задают на собеседованиях в бигтех;
— умеет объяснять сложные модели без потери смысла;
— хочет стать узнаваемым лицом в DS-комьюнити.
Что мы предлагаем:
— гонорар за разработку учебных материалов;
— прокачка личного бренда на большую аудиторию;
— сотрудничество с командой Proglib Academy.
Явка с повинной
P.S. Твой знакомый дата-сайентист знает слишком много? Сдай его нам.
❤1
Представьте, что вы прогнозируете цены на акции. У вас есть данные за 3 года (с 2021 по 2023).
Почему использование стандартной K-fold кросс-валидации является критической ошибкой при оценке качества такой модели?
Почему использование стандартной K-fold кросс-валидации является критической ошибкой при оценке качества такой модели?
Anonymous Quiz
5%
K-fold кросс-валидация требует слишком много вычислительных мощностей для временных рядов
7%
Временные ряды всегда имеют нормальное распределение, поэтому кросс-валидация не нужна
2%
Она не позволяет использовать категориальные признаки
86%
Она нарушает временную структуру данных
Вы обучаете модель Random Forest. Вы заметили, что каждое отдельное дерево в лесу переобучено.
Как это повлияет на итоговую модель ансамбля, если деревьев в лесу достаточно много (например, 500)?
Как это повлияет на итоговую модель ансамбля, если деревьев в лесу достаточно много (например, 500)?
Anonymous Quiz
23%
Модель тоже будет сильно переобучена, так как она состоит из переобученных деревьев
60%
Модель будет хорошо обобщать, т.к. усреднение независимых переобученных деревьев снижает дисперсию.
6%
Модель будет работать крайне медленно и выдавать случайные результаты
11%
Ошибка на тестовой выборке будет расти пропорционально количеству деревьев
👍1
Какую функцию потерь нельзя использовать для задачи классификации напрямую?
Anonymous Quiz
6%
Log-Loss
11%
Hinge Loss
12%
Categorical Cross-Entropy
71%
Mean Squared Error
❤2
В методе Stacking (Стэкинг) предсказания нескольких моделей передаются в «мета-модель». Как обычно обучается эта мета-модель?
Anonymous Quiz
15%
На тех же данных, что и основные модели
43%
На Out-of-fold
32%
Путем простого голосования большинством
10%
С использованием только самых важных признаков
❤1
Популярная библиотека CatBoost строит «симметричные» или «забывчивые» деревья (Oblivious Trees). В чем их архитектурная особенность по сравнению с XGBoost или LightGBM?
Anonymous Quiz
12%
Они растут только в одну сторону (влево)
18%
Они используют только категориальные признаки и игнорируют числа
12%
Деревья имеют бесконечную глубину, но очень мало листьев
59%
На каждом уровне используется один и тот же признак и одно и то же условие разделения для всех узлов
При кодировании категорий (например, названий городов) средним значением целевой переменной (Target Encoding) часто возникает дикая утечка данных. Какой метод «сглаживания» помогает этого избежать?
Anonymous Quiz
23%
Замена всех редких городов на «Other»
41%
Добавление глобального среднего к среднему по категории с весом или использование Leave-one-out
27%
Использование One-Hot Encoding вместо Target Encoding
9%
даление целевой переменной из обучающей выборки
❤1