Почему вас валят на собесах по ML?
Чаще всего не из-за незнания
Мы перезапустили курс с живыми вебинарами, чтобы закрыть эти пробелы. Глубокое погружение в линейную алгебру.
Ближайшие темы (Hard Skills):
— Матрицы: ранг, обратимость, линейные преобразования и решение СЛАУ.
— Линейная регрессия: реализация МНК с нуля в
— SVD и Eigenvalues: смысл собственных векторов, снижение размерности и построение рек. систем.
Вы научитесь не просто «тюнить параметры», а понимать физический смысл операций.
Вход в поток до 9 декабря.
https://clc.to/LojFzw
Чаще всего не из-за незнания
fit/predict , а из-за непонимания математики, которая стоит за этими методами.Мы перезапустили курс с живыми вебинарами, чтобы закрыть эти пробелы. Глубокое погружение в линейную алгебру.
Ближайшие темы (Hard Skills):
— Матрицы: ранг, обратимость, линейные преобразования и решение СЛАУ.
— Линейная регрессия: реализация МНК с нуля в
NumPy vs scikit-learn , интерпретация коэффициентов.— SVD и Eigenvalues: смысл собственных векторов, снижение размерности и построение рек. систем.
Вы научитесь не просто «тюнить параметры», а понимать физический смысл операций.
Вход в поток до 9 декабря.
https://clc.to/LojFzw
Вы обучаете модель Логистической регрессии, и она показывает низкую точность как на обучающей, так и на тестовой выборках. Вы решаете добавить L2. Какого результата следует ожидать?
Anonymous Quiz
16%
Точность модели на обеих выборках увеличится, так как регуляризация борется с недообучением.
67%
Точность, скорее всего, уменьшится или останется прежней, т.к. модель уже страдает от смещения.
8%
Разрыв между точностью на обучающей и тестовой выборках увеличится, указывая на переобучение.
9%
Модель начнет использовать только самые важные признаки (Feature Selection), что не связано с L2.
👍1
Вы используете алгоритм K-Means. Вы визуализировали результат и заметили, что два ваших кластера перекрываются в форме полумесяцев.
Какова наиболее вероятная причина такого поведения?
Какова наиболее вероятная причина такого поведения?
Anonymous Quiz
15%
K-Means чувствителен к наличию категориальных признаков.
8%
K-Means страдает от проблемы исчезающего градиента.
51%
K-Means предполагает, что кластеры имеют выпуклую форму.
26%
K-Means требует ручного указания количества кластеров ($k$).
👍1
Готовитесь к собеседованию в AI?
Вопросы по математической базе — стандартный этап отбора на позиции Data Scientist и ML Engineer. Вас спросят не только про код, но и про то, как работают алгоритмы «под капотом».
Прокачайте хард-скиллы на обновленном курсе «Математика для разработки AI-моделей».
Важный апдейт:
— теперь обучение включает живые вебинары;
— первый прошел, но второй стартует сегодня, 9 декабря;
— это шанс разобрать сложные вопросы с экспертами в прямом эфире.
Что внутри:
— линейная алгебра;
— матанализ;
— теория вероятностей.
Успейте присоединиться к потоку
Вопросы по математической базе — стандартный этап отбора на позиции Data Scientist и ML Engineer. Вас спросят не только про код, но и про то, как работают алгоритмы «под капотом».
Прокачайте хард-скиллы на обновленном курсе «Математика для разработки AI-моделей».
Важный апдейт:
— теперь обучение включает живые вебинары;
— первый прошел, но второй стартует сегодня, 9 декабря;
— это шанс разобрать сложные вопросы с экспертами в прямом эфире.
Что внутри:
— линейная алгебра;
— матанализ;
— теория вероятностей.
Успейте присоединиться к потоку
Какая проблема возникает, когда распределение входных данных (признаков X) в тестовой среде отличается от распределения, на котором обучалась модель, но при этом связь между входными данными и целевой переменной (P(Y∣X)) остается неизменной?
Anonymous Quiz
18%
Дисперсионный сдвиг (Variance Shift)
25%
Дисперсионный сдвиг (Variance Shift)
18%
Сдвиг метки (Label Shift)
39%
Ковариатный сдвиг (Covariate Shift)
👍1
Вы обучаете глубокую нейронную сеть, которая показывает 99% точности на обучающей выборке, но всего 70% на тестовой. Какое из следующих действий, скорее всего, поможет снизить переобучение (overfitting), не требуя сбора новых данных?
Anonymous Quiz
77%
Применить Dropout к скрытым слоям нейронной сети.
9%
Использовать более простую функцию активации, например, сигмоиду вместо ReLU.
5%
Уменьшить степень регуляризации $\lambda$ в функции потерь.
9%
Удалить все признаки с низкой дисперсией (Low Variance).
Вы строите модель и обнаруживаете, что хотя общая метрика производительности высока, индивидуальные p-значения большинства ваших переменных незначимы, а коэффициенты (weights) модели демонстрируют высокую чувствительность к небольшим изменениям в данных.
Anonymous Quiz
28%
Гетероскедастичность (Heteroscedasticity)
13%
Недообучение (Underfitting)
48%
Мультиколлинеарность (Multicollinearity)
11%
Автокорреляция остатков (Autocorrelation of Residuals)
❤2
Вы используете SVM для классификации, но обнаружили, что данные не являются линейно разделимыми в исходном пространстве признаков.
Какая техника позволяет SVM классифицировать нелинейные данные, не увеличивая явно размерность пространства?
Какая техника позволяет SVM классифицировать нелинейные данные, не увеличивая явно размерность пространства?
Anonymous Quiz
61%
Ядерный трюк (Kernel Trick)
12%
Эластичная сеть (Elastic Net Regularization)
23%
Снижение размерности с помощью PCA
4%
Случайная подвыборка признаков (Random Subspace)
❤1
При использовании алгоритма k-ближайших соседей (k-NN) для классификации, какое влияние будет иметь слишком маленькое значение k (например, k=1) на поведение модели?
Anonymous Quiz
28%
Модель будет иметь высокое смещение (Bias) и страдать от недообучения (Underfitting)
10%
Модель будет иметь низкую дисперсию (Variance) и высокую обобщающую способность
51%
Модель будет иметь высокую дисперсию, быть очень чувствительной к шуму и переобучаться
11%
Модель станет нечувствительной к масштабу признаков
❤2
Вы разрабатываете рекомендательную систему для нового стримингового сервиса. Какая из перечисленных ниже ситуаций является классическим примером проблемы холодного старта (Cold Start Problem)?
Anonymous Quiz
11%
Алгоритм не может обработать новый жанр фильма, так как он не был представлен в обучающей выборке
86%
Система не может давать качественные рекомендации новому пользователю, поскольку у него нет истории
1%
Серверы рекомендательной системы перегружены из-за внезапного всплеска активности пользователей
2%
Алгоритм слишком сложен, что приводит к долгому времени отклика при генерации рекомендаций
👍5
При оценке бинарного классификатора была построена Матрица ошибок. Какая метрика рассчитывается как отношение истинно положительных срабатываний ко всем фактически положительным случаям?
Anonymous Quiz
45%
Precision
3%
F1-Score
43%
Recall
9%
Accuracy
👍4🌚3
Математика — это фильтр на входе
На собеседованиях по DS часто валят не на коде, а на вопросах по линейной алгебре, статам или терверу. Не дай теории стать твоим узким местом.
Уравнение выгоды: 1 + 2.
Берешь три курса, платишь за один (тот, что дороже).
Что усилит резюме:
— Математика для Data Science;
— AI-агенты для DS-специалистов;
— ML для старта.
Обучить свою нейронку
До 31 декабря.
Саппорт: @manager_proglib
На собеседованиях по DS часто валят не на коде, а на вопросах по линейной алгебре, статам или терверу. Не дай теории стать твоим узким местом.
Уравнение выгоды: 1 + 2.
Берешь три курса, платишь за один (тот, что дороже).
Что усилит резюме:
— Математика для Data Science;
— AI-агенты для DS-специалистов;
— ML для старта.
Обучить свою нейронку
До 31 декабря.
Саппорт: @manager_proglib
При использовании L1-регуляризации (Lasso) в линейных моделях коэффициенты при некоторых признаках становятся строго равными нулю. Какое геометрическое свойство L1-нормы объясняет этот эффект?
Anonymous Quiz
13%
L1-норма является дифференцируемой во всех точках пространства
68%
Единичная сфера L1-нормы имеет острые углы на осях координат
13%
Производная L1-нормы пропорциональна значению самого веса
7%
L1-норма всегда меньше L2-нормы для любого вектора весов
При обучении случайного леса (Random Forest) мы используем Out-of-Bag (OOB) ошибку. Что это такое?
Anonymous Quiz
12%
Ошибка, которую модель выдает на полностью новых данных после деплоя
11%
Ошибка, возникающая из-за того, что деревья в лесу слишком глубокие
4%
Среднеквадратичная ошибка (MSE), рассчитанная по всей обучающей выборке
72%
Ошибка модели на данных, которые не попали в bootstrap-выборку для конкретного дерева
👍1
Какой из методов ансамблирования обычно дает наибольший выигрыш в качестве, если базовые модели сильно различаются по своей архитектуре (например, KNN, SVM и случайный лес)?
Anonymous Quiz
19%
Бэггинг (Bagging)
28%
Градиентный бустинг (Boosting)
7%
Случайный подпространственный метод (Random Subspace)
46%
Стэкинг (Stacking)
❤1
Вопрос с собеседования 2026: «Как вы организуете память в мультиагентной системе?»
Если вы отвечаете «просто передам контекст в промпт», вы, скорее всего, не получите оффер на позицию AI Engineer. Современные системы требуют работы с векторными БД, чекпоинтами в графах и RAG.
Подтяните хард-скиллы на нашем обновленном курсе «Разработка AI-агентов».
Что в программе:
— Паттерн ReAct и архитектура агентов;
— Работа с
— Инструменты AgentOps для мониторинга.
Практика с код-ревью и дипломный проект, который не стыдно показать на собеседовании.
Записаться
Если вы отвечаете «просто передам контекст в промпт», вы, скорее всего, не получите оффер на позицию AI Engineer. Современные системы требуют работы с векторными БД, чекпоинтами в графах и RAG.
Подтяните хард-скиллы на нашем обновленном курсе «Разработка AI-агентов».
Что в программе:
— Паттерн ReAct и архитектура агентов;
— Работа с
LangChain и LangGraph ;— Инструменты AgentOps для мониторинга.
Практика с код-ревью и дипломный проект, который не стыдно показать на собеседовании.
Записаться
Вы обучаете модель k-NN на наборе данных, где количество признаков (столбцов) внезапно увеличилось с 10 до 1000, при этом количество строк осталось прежним. Как это практически отразится на работе алгоритма k-NN?
Anonymous Quiz
1%
Модель станет работать быстрее, так как данных для сравнения стало больше
69%
Расстояния между всеми точками станут почти одинаковыми, и понятие "ближайший сосед" потеряет смысл
16%
Точность модели вырастет, так как 1000 признаков дают более детальное описание объектов
14%
Алгоритм k-NN автоматически выберет 10 лучших признаков и проигнорирует остальные
❤1
При построении дерева решений (Decision Tree) без ограничений, оно может расти до тех пор, пока в каждом листе не окажется ровно по одному объекту из обучающей выборки. К какому фундаментальному последствию для характеристик модели это приводит?
Anonymous Quiz
10%
У модели будет низкое смещение (low bias) и низкая дисперсия (low variance)
15%
У модели будет высокое смещение (high bias) и высокая дисперсия (high variance)
58%
У модели будет очень низкое смещение (low bias), но очень высокая дисперсия (high variance)
16%
У модели будет очень высокое смещение (high bias), но очень низкая дисперсия (low variance)
❤1
Вы обучаете нейронную сеть и замечаете, что на графике Train Loss сначала стабильно падает, а затем начинает резко колебаться или даже расти. При этом точность перестает улучшаться.
Какое изменение, скорее всего, поможет стабилизировать процесс?
Какое изменение, скорее всего, поможет стабилизировать процесс?
Anonymous Quiz
80%
Уменьшить скорость обучения (Learning Rate)
2%
Увеличить количество эпох обучения
11%
Отключить все слои Dropout
7%
Убрать слои нормализации (например, Batch Normalization)
👍2
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘 Pro версия является ТОП-1 опенсорсом в мире (см. модели с лицензиями MIT, Apache 2.0 в лидерборде)
🔘 Lite версия (2B параметров) лучше первой версии Sora
🔘 На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд: lmarena
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘 Open Source Kandinsky 5.0: github и hf
🚀 Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
При работе с RNN для обработки длинных последовательностей часто возникает проблема, из-за которой модель «забывает» информацию, полученную в самом начале последовательности.
Какое архитектурное решение было разработано для борьбы с этой проблемой?
Какое архитектурное решение было разработано для борьбы с этой проблемой?
Anonymous Quiz
2%
Перцептрон (Multilayer Perceptron)
88%
Долгая краткосрочная память (Long Short-Term Memory, LSTM)
7%
Сверточный слой (Convolutional Layer)
2%
Полносвязный слой (Dense Layer)