Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
73%
Dropout
20%
Batch Normalization
5%
Gradient Clipping
1%
Momentum
💊6
Anonymous Quiz
35%
PCA
11%
LDA
23%
Isomap
32%
T-SNE
Высокая систематическая ошибка (bias) уменьшает сложность модели, но снижает точность, а высокая дисперсия (variance) приводит к переобучению. Баланс между ними важен для оптимальной работы модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Anonymous Quiz
73%
K-means
23%
DBSCAN
2%
Decision Tree
2%
Naive Bayes
Anonymous Quiz
6%
Decision Tree
8%
TF-IDF
5%
Автоэнкодеры
81%
User-Based Collaborative Filtering
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
38%
K-Fold Cross-Validation
37%
Leave-One-Out
15%
Bootstrapping
10%
Holdout Validation
Anonymous Quiz
3%
K-means
8%
Random Forest
82%
SMOTE
8%
Naive Bayes
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
58%
Bagging
30%
Boosting
5%
Stacking
7%
Gradient Descent
Anonymous Quiz
50%
Bagging
24%
Boosting
19%
Stacking
8%
Dropout
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
10%
Градиентный бустинг
6%
Бэггинг
80%
Feature Importance
4%
K-ближайших соседей
Anonymous Quiz
87%
ROC-кривая
7%
K-means
3%
PCA
3%
Логистическая регрессия
💊2
1. В SQL — фильтрует строки, соответствующие критериям.
2. В NumPy — выбирает элементы массива по условию или заменяет значения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
7%
Линейная регрессия
70%
DBSCAN
14%
PCA
9%
AdaBoost
Anonymous Quiz
6%
Градиентный спуск
21%
Стохастический градиентный спуск
72%
Random Search
1%
K-means
🤔2
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
16%
RandomUnderSampler
65%
SMOTE
15%
CrossValidation
4%
PCA