🖤 ЧЕРНАЯ ПЯТНИЦА: СКИДКА 40%
Что общего между Black Friday и подготовкой к собесам? Оба случаются раз в год, и оба нельзя пропустить! 😎
🔥 Курсы со скидкой 40% до конца ноября:
🐍 Python
📐 Математика
🤖 AI
🔢 Алгоритмы и структуры
Пока другие покупают кофемашины и телевизоры, инвестируй в себя📈
Что общего между Black Friday и подготовкой к собесам? Оба случаются раз в год, и оба нельзя пропустить! 😎
🔥 Курсы со скидкой 40% до конца ноября:
🐍 Python
📐 Математика
🤖 AI
🔢 Алгоритмы и структуры
Пока другие покупают кофемашины и телевизоры, инвестируй в себя📈
Почему стандартная k-fold кросс-валидация плохо подходит для временных рядов?
Anonymous Quiz
8%
Потому что данные могут быть не IID (независимыми и одинаково распределёнными)
90%
Потому что нарушается временной порядок и происходит утечка данных из будущего
1%
Потому что k слишком маленькое
1%
Потому что нельзя использовать метрику AUC
👍1
Если при кросс-валидации модель показывает очень разные результаты на разных фолдах, а на тесте — низкую ошибку, что это может значить?
Anonymous Quiz
12%
Недостаток данных
49%
Сильная зависимость модели от случайных разбиений данных
31%
Модель сильно переобучена на один из фолдов
8%
Модель недообучена
👍2❤1
Почему комбинация методов калибровки (например, Temperature Scaling + Isotonic Regression) может ухудшить итоговую калибровку?
Anonymous Quiz
6%
Потому что методы несовместимы по математике
47%
Потому что вторая калибровка заново масштабирует логиты
30%
Потому что каждая трансформация может переобучиться на ограниченной валидационной выборке
17%
Потому что избыточная гладкость ухудшает дискретизацию вероятностей
📊 Задача с собеседования
Если не понимаете с какой стороны подступиться к задаче, то пора подтянуть математику.
🎓 Именно этому посвящен курс экспресс-курс «Математика для Data Science» от Proglib Academy:
— работа с векторами и матрицами;
— линейная регрессия и метод наименьших квадратов;
— вероятности, распределения, статистика;
— и многое другое.
⏳ Старт: 4 декабря
🔥 Скидка: 40% до конца ноября
👉 Подключиться к курсу
Имеются данные о продажах за последние 12 месяцев. Требуется оценить наличие линейной зависимости между количеством заключённых сделок и объёмом выручки, а также построить прогноз выручки при достижении 150 сделок.
Если не понимаете с какой стороны подступиться к задаче, то пора подтянуть математику.
🎓 Именно этому посвящен курс экспресс-курс «Математика для Data Science» от Proglib Academy:
— работа с векторами и матрицами;
— линейная регрессия и метод наименьших квадратов;
— вероятности, распределения, статистика;
— и многое другое.
⏳ Старт: 4 декабря
🔥 Скидка: 40% до конца ноября
👉 Подключиться к курсу
Почему добавление слишком большого momentum-параметра β в стохастическом градиенте может ухудшить обучение при очень шумных данных?
Anonymous Quiz
66%
Потому что накопленные скорости усиливают шум в направлении обновлений
11%
Потому что momentum уменьшает размер шага
16%
Потому что β влияет на регуляризацию
8%
Потому что градиенты перестают зависеть от потерь
❤1
Почему средняя AUC по схемам One-vs-One может быть выше, чем One-vs-Rest, даже при тех же данных?
Anonymous Quiz
13%
One-vs-One использует меньше данных
41%
One-vs-One игнорирует редкие классы, что делает задачу легче
3%
One-vs-One всегда лучше по теории
42%
One-vs-Rest вычисляет AUC только по одному классу
Почему дрейф данных может улучшить общую метрику, но ухудшить fairness?
Anonymous Quiz
7%
Fairness всегда ухудшается
2%
Новые данные всегда проще
89%
Улучшение для majority класса может “перекрыть” ухудшение для minority класса
2%
Общая метрика и fairness — одно и то же
Почему избыточный pre-pruning может ухудшить способность дерева разделять данные на важных малых подгруппах?
Anonymous Quiz
3%
Дерево перестаёт быть бинарным
14%
Pre-pruning уменьшает impurity
80%
Pre-pruning отбрасывает потенциально полезные поздние разветвления
4%
Pre-pruning увеличивает количество листьев
❤1
Почему boosting может ухудшать устойчивость к шумным меткам?
Anonymous Quiz
4%
Boosting использует L1-регуляризацию
26%
Boosting всегда уменьшает bias
61%
Boosting усиливает вес самых трудных примеров, включая ошибочные
9%
Boosting не использует стохастичность
Почему две модели с одинаковой AUC могут иметь радикально разное качество при фиксированном пороге?
Anonymous Quiz
34%
AUC учитывает только плотность ошибок, но не их порядок
1%
AUC интегрирует производные
16%
AUC игнорирует низкие FPR
49%
AUC не учитывает форму распределения предсказаний
❤1