2. Сложности с применением в рекуррентных сетях: последовательность данных может вызывать проблемы с нормализацией.
3. Увеличение вычислительных затрат: дополнительные параметры и операции замедляют обучение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
6%
K-Means
30%
Random Forest
24%
Naive Bayes
40%
Decision Tree
🤔1
Anonymous Quiz
28%
Бэггинг
69%
Стеккинг
2%
K-means
2%
Т-SNE
Это вероятность получить значение настолько же экстремальное, как наблюдаемое, при условии, что оно принадлежит общему распределению.
Чем меньше p-value, тем выше вероятность, что точка — выброс.
Значение зависит от метода (Grubbs, Dixon, Z-score и др.). Обычно, если p < 0.05, точка может считаться выбросом.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
77%
SMOTE
4%
K-means
7%
PCA
12%
Random Forest
Anonymous Quiz
90%
Normalization
2%
K-means
7%
PCA
1%
Логистическая регрессия
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
62%
Bagging
29%
Boosting
6%
Stacking
3%
Gradient Descent
Anonymous Quiz
35%
Cross-validation
4%
Bootstrap
58%
Train-Test Split
3%
A/B Testing
💊5
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
6%
Линейная регрессия
84%
Градиентный бустинг
9%
K-ближайших соседей
1%
Логистическая регрессия
Anonymous Quiz
20%
Dropout
71%
Batch Normalization
3%
Early Stopping
7%
Gradient Clipping
🤔1
Это ситуация, когда признаки сильно коррелируют друг с другом.
- Это вызывает нестабильность линейных моделей, так как коэффициенты могут становиться большими и неинтерпретируемыми.
- Решения: удаление зависимых признаков, PCA, L1-регуляризация (Lasso).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
5%
Convolutional Neural Networks (CNN)
3%
Latent Dirichlet Allocation (LDA)
0%
Time Series Analysis
92%
Natural Language Processing (NLP)
💊3
Anonymous Quiz
18%
Boosting
36%
Bagging
38%
Stacking
8%
Gradient Descent
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
21%
Градиентный спуск
30%
RMSProp
10%
Метод Ньютона
40%
Адам
💊1
Anonymous Quiz
41%
Bagging
22%
Boosting
29%
Stacking
8%
Gradient Descent
💊1
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
12%
Bagging
15%
Dropout
68%
Data Augmentation
5%
Boosting
💊20