Anonymous Quiz
6%
Decision Tree
8%
TF-IDF
5%
Автоэнкодеры
81%
User-Based Collaborative Filtering
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
38%
K-Fold Cross-Validation
37%
Leave-One-Out
15%
Bootstrapping
10%
Holdout Validation
Anonymous Quiz
3%
K-means
8%
Random Forest
81%
SMOTE
8%
Naive Bayes
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
58%
Bagging
30%
Boosting
6%
Stacking
7%
Gradient Descent
Anonymous Quiz
50%
Bagging
23%
Boosting
20%
Stacking
7%
Dropout
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
10%
Градиентный бустинг
6%
Бэггинг
80%
Feature Importance
4%
K-ближайших соседей
Anonymous Quiz
87%
ROC-кривая
7%
K-means
3%
PCA
3%
Логистическая регрессия
💊2
1. В SQL — фильтрует строки, соответствующие критериям.
2. В NumPy — выбирает элементы массива по условию или заменяет значения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
7%
Линейная регрессия
71%
DBSCAN
14%
PCA
9%
AdaBoost
Anonymous Quiz
6%
Градиентный спуск
21%
Стохастический градиентный спуск
72%
Random Search
1%
K-means
🤔2
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
17%
RandomUnderSampler
64%
SMOTE
15%
CrossValidation
4%
PCA
Anonymous Quiz
8%
Gradient Descent
18%
Forward Selection
65%
Permutation Importance
9%
Backpropagation
2. Сложности с применением в рекуррентных сетях: последовательность данных может вызывать проблемы с нормализацией.
3. Увеличение вычислительных затрат: дополнительные параметры и операции замедляют обучение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
5%
K-Means
32%
Random Forest
23%
Naive Bayes
40%
Decision Tree
🤔1
Anonymous Quiz
26%
Бэггинг
70%
Стеккинг
2%
K-means
2%
Т-SNE
Это вероятность получить значение настолько же экстремальное, как наблюдаемое, при условии, что оно принадлежит общему распределению.
Чем меньше p-value, тем выше вероятность, что точка — выброс.
Значение зависит от метода (Grubbs, Dixon, Z-score и др.). Обычно, если p < 0.05, точка может считаться выбросом.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1