2. Однако тьюнинг только Batch Norm может быть недостаточен без оптимизации других частей модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
21%
K-means
76%
User-Based Collaborative Filtering
2%
Decision Tree
1%
Naive Bayes
🔥1
Anonymous Quiz
31%
Dropout
49%
Batch Normalization
15%
Ensemble Learning
6%
Gradient Clipping
💊3🔥1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
51%
Bagging
22%
Boosting
14%
Pruning
13%
Cross-Validation
Anonymous Quiz
6%
Линейная регрессия
63%
Логистическая регрессия
21%
K-means
9%
PCA
🤔1
Высокая систематическая ошибка (bias) уменьшает сложность модели, но снижает точность, а высокая дисперсия (variance) приводит к переобучению. Баланс между ними важен для оптимальной работы модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2
Anonymous Quiz
11%
Ridge Regression
24%
Lasso Regression
20%
Elastic Net
44%
All of the above
Anonymous Quiz
6%
Линейная регрессия
73%
Изолирующий лес
4%
Логистическая регрессия
18%
PCA
🔥1
Это статистический график, показывающий распределение данных:
1. Ящик (Box) – показывает межквартильный размах (между Q1 и Q3).
2. Линия внутри ящика – медиана (Q2).
3. "Усы" – представляют диапазон данных без выбросов.
4. Точки за пределами усов – выбросы.
Boxplot полезен для визуализации асимметрии, выбросов и распределения данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
54%
Random Forest Feature Importance
15%
LASSO Regression
3%
Gradient Boosting
28%
Principal Component Analysis
🔥1
Anonymous Quiz
4%
Decision Tree
87%
Линейная регрессия
6%
RNN
3%
Автоэнкодеры
1. Они эффективны на высоких объёмах данных благодаря низкой вычислительной сложности.
2. Хорошо интерпретируемы, что важно в задачах с требованием объяснимости.
3. Используются в случаях, когда признаки предварительно масштабированы и очищены.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
41%
Bagging
41%
Boosting
15%
Stacking
2%
Dropout
💊5
Anonymous Quiz
40%
Bagging
37%
Boosting
11%
Stacking
12%
Random Forest
💊1
AdaBoost, Gradient Boosting, XGBoost, CatBoost и LightGBM. Они различаются производительностью и подходами к построению деревьев.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1
Anonymous Quiz
70%
SMOTE
22%
PCA
5%
K-means
4%
Логистическая регрессия
Anonymous Quiz
65%
Bagging
20%
Stacking
13%
Boosting
3%
Dropout
💊15
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Anonymous Quiz
65%
StandardScaler
20%
MinMaxScaler
6%
RobustScaler
9%
Normalizer
💊10