1. Они эффективны на высоких объёмах данных благодаря низкой вычислительной сложности.
2. Хорошо интерпретируемы, что важно в задачах с требованием объяснимости.
3. Используются в случаях, когда признаки предварительно масштабированы и очищены.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
42%
Bagging
42%
Boosting
13%
Stacking
2%
Dropout
💊2
Anonymous Quiz
41%
Bagging
35%
Boosting
11%
Stacking
13%
Random Forest
AdaBoost, Gradient Boosting, XGBoost, CatBoost и LightGBM. Они различаются производительностью и подходами к построению деревьев.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
72%
SMOTE
19%
PCA
5%
K-means
4%
Логистическая регрессия
Anonymous Quiz
63%
Bagging
20%
Stacking
13%
Boosting
4%
Dropout
💊12
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Anonymous Quiz
63%
StandardScaler
21%
MinMaxScaler
8%
RobustScaler
9%
Normalizer
💊7
Anonymous Quiz
74%
Gini Importance
9%
Gradient Descent
7%
Mean Squared Error
9%
Cross-Validation
1. Высокое значение IV говорит о сильной связи между признаком и целевой переменной.
2. Часто используется в кредитном скоринге для выбора наиболее значимых признаков.
3. Значения IV помогают определить, какие признаки следует включить в модель, а какие можно исключить.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
5%
Линейная регрессия
59%
Полиномиальная регрессия
24%
Градиентный бустинг
12%
K-ближайших соседей
💊12
Anonymous Quiz
77%
pivot_table
8%
groupby
10%
merge
4%
concat
🔥1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
46%
Bagging
41%
Boosting
11%
Gradient Descent
2%
Pruning
Anonymous Quiz
62%
SGD
26%
SGD
3%
v3. K-means
8%
DBSCAN
💊20
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
65%
Метод главных компонент (PCA)
13%
Линейная дискриминантная анализа (LDA)
22%
Т-распределенная стохастическая соседская эмуляМетод ближайших соседей (k-NN)ция (t-SNE)
Anonymous Quiz
0%
Линейная регрессия
2%
K-means
91%
N-grams
7%
Логистическая регрессия
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
1%
Логистическая регрессия
2%
Метод опорных векторов
96%
Наивный байесовский классификатор
0%
Случайный лес