Anonymous Quiz
85%
MSE
6%
K-means
1%
PCA
8%
Логистическая регрессия
💊2
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
49%
Lasso Regression
2%
k-NN
17%
AdaBoost
32%
PCA
💊1
Anonymous Quiz
92%
PCA (Principal Component Analysis)
2%
Linear Regression
4%
K-Nearest Neighbors
3%
Decision Trees
- Accuracy: доля верных предсказаний.
- Precision: точность предсказаний класса.
- Recall: полнота предсказаний класса.
- F1-score: сбалансированная метрика точности и полноты.
- ROC-AUC: качество модели при разных порогах.
2. Для регрессии:
- MSE: среднеквадратичная ошибка.
- MAE: средняя абсолютная ошибка.
- R²: объясненная доля дисперсии.
3. Для кластеризации:
- Silhouette Score: качество разделения кластеров.
- Dunn Index: компактность и разделенность кластеров.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
3%
Logistic Regression
13%
RNN
82%
ARIMA
2%
Naive Bayes
🤔2
Anonymous Quiz
9%
L1-регуляризация
18%
L2-регуляризация
53%
Обрезка деревьев
20%
Случайные леса
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
54%
PCA
19%
LDA
17%
NMF
10%
T-SNE
Anonymous Quiz
6%
Accuracy
4%
Precision
7%
Recall
82%
F1-score
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
11%
Метод Ньютона
77%
Градиентный спуск
10%
Метод опорных векторов
2%
K-means
Anonymous Quiz
37%
Bagging
43%
Boosting
12%
Stacking
8%
Gradient Descent
👍2
1. Precision@K и Recall@K для точности и полноты рекомендаций.
2. NDCG для оценки релевантности на основе позиций элементов.
3. Coverage — доля уникальных рекомендованных элементов.
4. Оценка на основе A/B-тестов или пользовательских метрик, таких как удержание.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
53%
PCA
28%
PCA
8%
NMF
11%
T-SNE
💊11
Anonymous Quiz
86%
isna
8%
dropna
5%
fillna
1%
notna
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
74%
Dropout
20%
Batch Normalization
5%
Gradient Clipping
1%
Momentum
💊6
Anonymous Quiz
34%
PCA
10%
LDA
24%
Isomap
33%
T-SNE
Высокая систематическая ошибка (bias) уменьшает сложность модели, но снижает точность, а высокая дисперсия (variance) приводит к переобучению. Баланс между ними важен для оптимальной работы модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3