Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
6%
Линейная регрессия
85%
Градиентный бустинг
9%
K-ближайших соседей
1%
Логистическая регрессия
Anonymous Quiz
20%
Dropout
71%
Batch Normalization
3%
Early Stopping
6%
Gradient Clipping
🤔1
Это ситуация, когда признаки сильно коррелируют друг с другом.
- Это вызывает нестабильность линейных моделей, так как коэффициенты могут становиться большими и неинтерпретируемыми.
- Решения: удаление зависимых признаков, PCA, L1-регуляризация (Lasso).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
4%
Convolutional Neural Networks (CNN)
4%
Latent Dirichlet Allocation (LDA)
0%
Time Series Analysis
92%
Natural Language Processing (NLP)
💊3
Anonymous Quiz
19%
Boosting
36%
Bagging
38%
Stacking
7%
Gradient Descent
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
19%
Градиентный спуск
29%
RMSProp
11%
Метод Ньютона
41%
Адам
Anonymous Quiz
41%
Bagging
21%
Boosting
30%
Stacking
7%
Gradient Descent
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
11%
Bagging
15%
Dropout
68%
Data Augmentation
6%
Boosting
💊20
Anonymous Quiz
16%
K-средние
65%
DBSCAN
10%
Иерархическая кластеризация
8%
T-SNE
Adam часто используется из-за адаптивного шага обучения. SGD предпочтителен для больших данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
12%
Градиентный спуск
20%
Стохастический градиентный спуск
11%
RMSProp
57%
Адам
Anonymous Quiz
21%
K-means
19%
DBSCAN
36%
Gaussian Mixture Models
24%
Hierarchical Clustering
RNN обрабатывает данные последовательно и хорошо работает с временными рядами или текстами, но страдает от проблем с градиентами и плохо масштабируется. CNN извлекает локальные признаки через свёртки, изначально предназначен для изображений, но может применяться к тексту. Трансформер использует механизм внимания, обрабатывает всё параллельно и учитывает контекст целиком, что делает его эффективным в работе с языком и последовательностями.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
💊1
Anonymous Quiz
62%
Bagging
28%
Boosting
4%
Gradient Descent
6%
Cross-Validation
🔥1
Anonymous Quiz
64%
Бэггинг
19%
Градиентный бустинг
13%
Случайные леса
3%
Стеккинг
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
41%
PCA
50%
T-SNE
7%
LDA
2%
NMF