Площадь под ROC-кривой (AUC-ROC) для классификатора равна 0.50. Что это означает?
Anonymous Quiz
1%
Модель является идеальным классификатором.
3%
Модель работает лучше, чем случайное угадывание.
9%
Это означает, что Precision и Recall равны 0.50.
86%
Модель работает не лучше, чем случайное угадывание.
❤1
В задаче бинарной классификации, что произойдет с метрикой Recall (Полнота) модели, если мы значительно понизим порог классификации (threshold)?
Anonymous Quiz
20%
Recall уменьшится, Precision (Точность) увеличится.
7%
Обе метрики (Recall и Precision) увеличатся.
69%
Recall увеличится, Precision (Точность) уменьшится.
4%
Обе метрики (Recall и Precision) уменьшатся.
❤1
Вы работаете с категориальным признаком City (Город), который содержит более 1000 уникальных значений. Какой из перечисленных методов кодирования чаще всего используется в Data Science для работы с высококардинальными категориальными признаками
Anonymous Quiz
21%
Label Encoding
29%
Target Encoding (Mean Encoding)
35%
Frequency Encoding (Count Encoding)
16%
One-Hot Encoding
👍3
Какой из перечисленных ниже сценариев наиболее явно указывает на то, что ваша модель машинного обучения страдает от сильного переобучения (overfitting)?
Anonymous Quiz
1%
Высокая точность (95%) на обучающей выборке и высокая точность (93%) на тестовой выборке.
1%
Низкая точность (60%) на обучающей выборке и низкая точность (58%) на тестовой выборке.
95%
Высокая точность (98%) на обучающей выборке и низкая точность (65%) на тестовой выборке.
3%
Низкая точность (65%) на обучающей выборке и высокая точность (98%) на тестовой выборке.
👍3
Почему вас валят на собесах по ML?
Чаще всего не из-за незнания
Мы перезапустили курс с живыми вебинарами, чтобы закрыть эти пробелы. Глубокое погружение в линейную алгебру.
Ближайшие темы (Hard Skills):
— Матрицы: ранг, обратимость, линейные преобразования и решение СЛАУ.
— Линейная регрессия: реализация МНК с нуля в
— SVD и Eigenvalues: смысл собственных векторов, снижение размерности и построение рек. систем.
Вы научитесь не просто «тюнить параметры», а понимать физический смысл операций.
Вход в поток до 9 декабря.
https://clc.to/LojFzw
Чаще всего не из-за незнания
fit/predict , а из-за непонимания математики, которая стоит за этими методами.Мы перезапустили курс с живыми вебинарами, чтобы закрыть эти пробелы. Глубокое погружение в линейную алгебру.
Ближайшие темы (Hard Skills):
— Матрицы: ранг, обратимость, линейные преобразования и решение СЛАУ.
— Линейная регрессия: реализация МНК с нуля в
NumPy vs scikit-learn , интерпретация коэффициентов.— SVD и Eigenvalues: смысл собственных векторов, снижение размерности и построение рек. систем.
Вы научитесь не просто «тюнить параметры», а понимать физический смысл операций.
Вход в поток до 9 декабря.
https://clc.to/LojFzw
Вы обучаете модель Логистической регрессии, и она показывает низкую точность как на обучающей, так и на тестовой выборках. Вы решаете добавить L2. Какого результата следует ожидать?
Anonymous Quiz
15%
Точность модели на обеих выборках увеличится, так как регуляризация борется с недообучением.
67%
Точность, скорее всего, уменьшится или останется прежней, т.к. модель уже страдает от смещения.
8%
Разрыв между точностью на обучающей и тестовой выборках увеличится, указывая на переобучение.
10%
Модель начнет использовать только самые важные признаки (Feature Selection), что не связано с L2.