Anonymous Quiz
74%
Dropout
20%
Batch Normalization
5%
Gradient Clipping
1%
Momentum
💊6
Anonymous Quiz
34%
PCA
10%
LDA
24%
Isomap
32%
T-SNE
Высокая систематическая ошибка (bias) уменьшает сложность модели, но снижает точность, а высокая дисперсия (variance) приводит к переобучению. Баланс между ними важен для оптимальной работы модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Anonymous Quiz
72%
K-means
24%
DBSCAN
1%
Decision Tree
2%
Naive Bayes
Anonymous Quiz
6%
Decision Tree
8%
TF-IDF
5%
Автоэнкодеры
81%
User-Based Collaborative Filtering
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
39%
K-Fold Cross-Validation
35%
Leave-One-Out
16%
Bootstrapping
11%
Holdout Validation
Anonymous Quiz
3%
K-means
6%
Random Forest
84%
SMOTE
7%
Naive Bayes
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
60%
Bagging
29%
Boosting
5%
Stacking
5%
Gradient Descent
Anonymous Quiz
51%
Bagging
22%
Boosting
18%
Stacking
8%
Dropout
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
11%
Градиентный бустинг
5%
Бэггинг
81%
Feature Importance
3%
K-ближайших соседей
Anonymous Quiz
87%
ROC-кривая
7%
K-means
3%
PCA
4%
Логистическая регрессия
💊2
1. В SQL — фильтрует строки, соответствующие критериям.
2. В NumPy — выбирает элементы массива по условию или заменяет значения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
7%
Линейная регрессия
69%
DBSCAN
14%
PCA
10%
AdaBoost
Anonymous Quiz
6%
Градиентный спуск
20%
Стохастический градиентный спуск
74%
Random Search
0%
K-means
🤔2
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
17%
RandomUnderSampler
64%
SMOTE
15%
CrossValidation
4%
PCA
Anonymous Quiz
8%
Gradient Descent
17%
Forward Selection
64%
Permutation Importance
10%
Backpropagation