Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
52%
PCA
22%
LDA
23%
T-SNE
3%
T-SNE
Anonymous Quiz
30%
Bootstrap Aggregating
11%
Principal Component Analysis
52%
K-fold Cross Validation
6%
Random Subsampling
👍1💊1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
5%
K-ближайших соседей
1%
Линейная регрессия
94%
Convolutional Neural Networks (CNN)
0%
Логистическая регрессия
Anonymous Quiz
5%
Алгоритм регрессии
77%
Метод кластеризации
11%
Метод классификации
8%
Метод уменьшения размерности
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
4%
K-ближайших соседей
1%
Линейная регрессия
92%
Convolutional Neural Networks (CNN)
2%
Логистическая регрессия
Anonymous Quiz
33%
Dropout в тестовом режиме
24%
Batch Normalization
21%
L1-регуляризация
21%
Min-Max Scaling
Это центральное значение упорядоченного ряда.
- Если количество элементов нечетное, медиана – это средний элемент.
- Если четное, медиана – среднее двух центральных значений.
Медиана менее чувствительна к выбросам, чем среднее (Mean).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
💊1
Anonymous Quiz
28%
PCA
9%
LDA
44%
NMF
19%
T-SNE
Anonymous Quiz
28%
PCA
18%
LDA
48%
NMF
6%
T-SNE
Классификация определяет категории, а регрессия – непрерывные значения. Например, классификация предсказывает класс, а регрессия – числовой результат.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
49%
Кросс-валидация
7%
Гиперпараметрическая оптимизация
45%
Регуляризация
0%
Аугментация данных
💊5
Anonymous Quiz
1%
Decision Tree
84%
TF-IDF
11%
Naive Bayes
4%
K-means
Это ансамблевый метод, который комбинирует множество слабых моделей (обычно деревьев решений) для улучшения качества предсказаний:
1. Первая модель предсказывает исходные данные, а остатки ошибок передаются следующей.
2. Каждое новое дерево обучается на ошибках предыдущих, уменьшая отклонения.
3. Градиентный спуск минимизирует ошибку, выбирая оптимальные веса.
4. Итоговое предсказание – это взвешенная сумма предсказаний всех деревьев.
Градиентный бустинг хорошо работает с нелинейными зависимостями и устойчив к выбросам.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
4%
Точность
64%
F1-score
28%
ROC AUC
4%
Каппа коэффициент
Anonymous Quiz
19%
Ridge регрессия
37%
Lasso регрессия
17%
Elastic Net
26%
Principal Component Analysis (PCA)
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
25%
Т-тест
21%
Z-тест
29%
Фишер тест
25%
Манна-Уитни
Anonymous Quiz
2%
Линейная регрессия
12%
K-means
25%
Логистическая регрессия
61%
Наивный байесовский классификатор