2. Сложности с применением в рекуррентных сетях: последовательность данных может вызывать проблемы с нормализацией.
3. Увеличение вычислительных затрат: дополнительные параметры и операции замедляют обучение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
5%
K-Means
32%
Random Forest
23%
Naive Bayes
40%
Decision Tree
🤔1
Anonymous Quiz
27%
Бэггинг
70%
Стеккинг
2%
K-means
2%
Т-SNE
Это вероятность получить значение настолько же экстремальное, как наблюдаемое, при условии, что оно принадлежит общему распределению.
Чем меньше p-value, тем выше вероятность, что точка — выброс.
Значение зависит от метода (Grubbs, Dixon, Z-score и др.). Обычно, если p < 0.05, точка может считаться выбросом.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
76%
SMOTE
5%
K-means
6%
PCA
13%
Random Forest
Anonymous Quiz
89%
Normalization
2%
K-means
7%
PCA
1%
Логистическая регрессия
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
63%
Bagging
27%
Boosting
7%
Stacking
3%
Gradient Descent
Anonymous Quiz
32%
Cross-validation
4%
Bootstrap
60%
Train-Test Split
4%
A/B Testing
💊5
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
5%
Линейная регрессия
85%
Градиентный бустинг
9%
K-ближайших соседей
1%
Логистическая регрессия
Anonymous Quiz
21%
Dropout
71%
Batch Normalization
2%
Early Stopping
6%
Gradient Clipping
🤔1
Это ситуация, когда признаки сильно коррелируют друг с другом.
- Это вызывает нестабильность линейных моделей, так как коэффициенты могут становиться большими и неинтерпретируемыми.
- Решения: удаление зависимых признаков, PCA, L1-регуляризация (Lasso).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
5%
Convolutional Neural Networks (CNN)
4%
Latent Dirichlet Allocation (LDA)
0%
Time Series Analysis
91%
Natural Language Processing (NLP)
💊3
Anonymous Quiz
19%
Boosting
35%
Bagging
38%
Stacking
8%
Gradient Descent
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
19%
Градиентный спуск
29%
RMSProp
10%
Метод Ньютона
42%
Адам
Anonymous Quiz
42%
Bagging
20%
Boosting
30%
Stacking
8%
Gradient Descent
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
11%
Bagging
15%
Dropout
68%
Data Augmentation
6%
Boosting
💊20
Anonymous Quiz
17%
K-средние
63%
DBSCAN
11%
Иерархическая кластеризация
9%
T-SNE