Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
24%
Т-тест
21%
Z-тест
30%
Фишер тест
25%
Манна-Уитни
Anonymous Quiz
3%
Линейная регрессия
13%
K-means
23%
Логистическая регрессия
62%
Наивный байесовский классификатор
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
77%
PCA
18%
t-SNE
2%
Random Forest
4%
KMeans
💊4
Anonymous Quiz
24%
Линейная регрессия
20%
K-ближайших соседей
47%
Метод опорных векторов с ядром
9%
Логистическая регрессия
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
4%
K-средние
19%
DBSCAN
76%
Иерархическая кластеризация
1%
T-SNE
Anonymous Quiz
47%
Cross-validation
34%
Bootstrap Aggregating
11%
Gradient Descent
8%
Hyperparameter Tuning
Используются модели multi-output, которые обучаются на несколько целевых переменных, например, через отдельные выходные слои в нейросети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
7%
Линейная регрессия
86%
ARIMA
5%
Случайный лес
2%
K-means
Anonymous Quiz
1%
Decision Tree
13%
K-Nearest Neighbors
72%
Support Vector Machine
15%
Naive Bayes
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
11%
Логистическая регрессия
4%
Линейная регрессия
24%
Метод ближайших соседей
61%
Метод опорных векторов с ядром (SVM)
🤔1
🚀 Phystech.Genesis зовёт тебя на Data Science конкурс по археологии!
Проверь навыки на реальных данных: разработай ПО для поиска объектов в рельефе по данным аэрофотосъёмки, спутниковых снимков и лазерного сканирования.
Почему стоит участвовать?
• Работа над социально значимой задачей – технологии, которые помогут археологам.
• Сообщество специалистов: знакомство с компаниями и экспертами CV/ML.
🔥 Призовой фонд – 5 000 000 ₽.
Кого ждем?
💻 Команды 2-5 человек уровня Middle и выше в области ML/CV.
📌 Формат: онлайн на DS-платформе Phystech.Genesis.
Участвовать могут как физические лица, так и компании.
⏳ Подай заявку до 14 октября по ссылке.
Проверь навыки на реальных данных: разработай ПО для поиска объектов в рельефе по данным аэрофотосъёмки, спутниковых снимков и лазерного сканирования.
Почему стоит участвовать?
• Работа над социально значимой задачей – технологии, которые помогут археологам.
• Сообщество специалистов: знакомство с компаниями и экспертами CV/ML.
🔥 Призовой фонд – 5 000 000 ₽.
Кого ждем?
💻 Команды 2-5 человек уровня Middle и выше в области ML/CV.
📌 Формат: онлайн на DS-платформе Phystech.Genesis.
Участвовать могут как физические лица, так и компании.
⏳ Подай заявку до 14 октября по ссылке.
Anonymous Quiz
33%
Ensemble Learning
27%
Gradient Descent
31%
Regularization
9%
Feature Selection
💊3
1. Цепочки: каждый элемент хеш-таблицы содержит список (или другую структуру данных), который может хранить несколько элементов с одинаковым хешем.
2. Открытая адресация: при коллизии происходит последовательный поиск следующей свободной ячейки по определенному алгоритму (линейное пробирование, квадратичное пробирование, двойное хеширование).
3. Перехеширование: при высоком уровне заполненности хеш-таблицы, таблица может быть перестроена с новым размером и новой хеш-функцией для уменьшения количества коллизий.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
3%
Линейная регрессия
8%
Логистическая регрессия
85%
Decision Tree
4%
K-means
💊2
Anonymous Quiz
7%
Dropout
12%
Batch Normalization
77%
Boosting
4%
Regularization
💊5
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2