1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
10%
Логистическая регрессия
4%
Линейная регрессия
28%
Метод ближайших соседей
58%
Метод опорных векторов с ядром (SVM)
🤔1
Anonymous Quiz
31%
Ensemble Learning
25%
Gradient Descent
34%
Regularization
9%
Feature Selection
💊3
1. Цепочки: каждый элемент хеш-таблицы содержит список (или другую структуру данных), который может хранить несколько элементов с одинаковым хешем.
2. Открытая адресация: при коллизии происходит последовательный поиск следующей свободной ячейки по определенному алгоритму (линейное пробирование, квадратичное пробирование, двойное хеширование).
3. Перехеширование: при высоком уровне заполненности хеш-таблицы, таблица может быть перестроена с новым размером и новой хеш-функцией для уменьшения количества коллизий.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
2%
Линейная регрессия
9%
Логистическая регрессия
86%
Decision Tree
3%
K-means
💊3
Anonymous Quiz
6%
Dropout
13%
Batch Normalization
74%
Boosting
7%
Regularization
💊5
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
33%
Lasso
33%
Ridge
18%
PCA
17%
Elastic Net
💊3
Anonymous Quiz
31%
Dropout
48%
Batch Normalization
14%
Gradient Clipping
7%
Data Augmentation
AdaBoost, Gradient Boosting, XGBoost, CatBoost и LightGBM. Они различаются производительностью и подходами к построению деревьев.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
4%
Random Sampling
78%
Feature Importances
10%
AdaBoost
8%
Cross-Validation
Anonymous Quiz
14%
R-squared
29%
Cross-Validation
31%
AIC (Akaike Information Criterion)
26%
F1-Score
Это SQL-функции, выполняющиеся по окну строк, но не сворачивающие их в одно значение.
- Используются с OVER().
- Примеры: ROW_NUMBER(), RANK(), LEAD(), LAG(), SUM() OVER(), AVG() OVER().
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
65%
Лассо-регрессия
20%
Ридж-регрессия
9%
SVM
6%
Кросс-валидация
Anonymous Quiz
42%
PCA
42%
t-SNE
10%
LDA
6%
MDS
💊1
Это статистический график, показывающий распределение данных:
1. Ящик (Box) – показывает межквартильный размах (между Q1 и Q3).
2. Линия внутри ящика – медиана (Q2).
3. "Усы" – представляют диапазон данных без выбросов.
4. Точки за пределами усов – выбросы.
Boxplot полезен для визуализации асимметрии, выбросов и распределения данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Anonymous Quiz
14%
Точность модели
82%
Площадь под кривой ROC
1%
Временную сложность алгоритма
4%
Количество ошибок модели
Anonymous Quiz
81%
StandardScaler
8%
MinMaxScaler
1%
RobustScaler
10%
Normalizer
2. Однако тьюнинг только Batch Norm может быть недостаточен без оптимизации других частей модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1💊1
Anonymous Quiz
4%
KNN
81%
PCA
4%
Decision Tree
11%
SVM
🤔1