Data Science | Тесты
2.55K subscribers
26 photos
388 links
Cайт easyoffer.ru
Реклама @easyoffer_adv
ВП @easyoffer_vp

Вопросы собесов t.iss.one/+RQVnIJT__Z42ZWUy
Вакансии t.iss.one/+Ir52wMvyEgo5YWIy
Download Telegram
🤔 Какой метод используется для классификации текстовых данных с учетом частотных характеристик слов?
Anonymous Quiz
1%
Decision Tree
84%
TF-IDF
11%
Naive Bayes
4%
K-means
🤔 Как работает градиентный бустинг регрессор?

Это ансамблевый метод, который комбинирует множество слабых моделей (обычно деревьев решений) для улучшения качества предсказаний:
1. Первая модель предсказывает исходные данные, а остатки ошибок передаются следующей.
2. Каждое новое дерево обучается на ошибках предыдущих, уменьшая отклонения.
3. Градиентный спуск минимизирует ошибку, выбирая оптимальные веса.
4. Итоговое предсказание – это взвешенная сумма предсказаний всех деревьев.
Градиентный бустинг хорошо работает с нелинейными зависимостями и устойчив к выбросам.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод используется для оценки модели с дисбалансированными данными?
Anonymous Quiz
4%
Точность
63%
F1-score
29%
ROC AUC
5%
Каппа коэффициент
🤔 Какой метод применяется для борьбы с мультиколлинеарностью в регрессии?
Anonymous Quiz
18%
Ridge регрессия
38%
Lasso регрессия
17%
Elastic Net
28%
Principal Component Analysis (PCA)
🤔 Зачем нужен self super?

self указывает на текущий экземпляр класса, а super позволяет обращаться к методам родительского класса, избегая дублирования кода.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод статистики используется для проверки гипотезы об однородности дисперсий?
Anonymous Quiz
24%
Т-тест
21%
Z-тест
29%
Фишер тест
26%
Манна-Уитни
🤔 Какой алгоритм часто используется для классификации текстовых данных?
Anonymous Quiz
3%
Линейная регрессия
13%
K-means
24%
Логистическая регрессия
61%
Наивный байесовский классификатор
🤔 Какие подходы понижения размерности известны?

Основные подходы понижения размерности включают метод главных компонент (PCA), сингулярное разложение (SVD), t-SNE и UMAP. PCA снижает размерность данных, находя новые оси, которые объясняют наибольшую дисперсию данных. t-SNE и UMAP используются для визуализации данных в пространстве низкой размерности, сохраняя их топологическую структуру. Эти методы позволяют уменьшить количество признаков при сохранении важной информации.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
🤔 Какой метод используется для снижения размерности данных?
Anonymous Quiz
79%
PCA
17%
t-SNE
2%
Random Forest
3%
KMeans
💊4
🤔 Какой метод машинного обучения хорошо работает с линейно неразделимыми данными?
Anonymous Quiz
25%
Линейная регрессия
20%
K-ближайших соседей
46%
Метод опорных векторов с ядром
9%
Логистическая регрессия
🤔 Как работают несимметрические метрики?

Несимметрические метрики в контексте машинного обучения оценивают модель, акцентируя внимание на одном классе или типе ошибки больше, чем на других. Это особенно полезно в случаях, когда стоимость одного типа ошибки значительно выше другого. Примером несимметричной метрики является F1-score, который более чувствителен к классам с меньшим числом образцов или когда важно сбалансировать точность и полноту.

Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод машинного обучения используется для кластеризации данных на основе иерархической структуры?
Anonymous Quiz
4%
K-средние
19%
DBSCAN
76%
Иерархическая кластеризация
1%
T-SNE
🤔 Какой метод оценки моделей снижает смещение и дисперсию?
Anonymous Quiz
48%
Cross-validation
35%
Bootstrap Aggregating
9%
Gradient Descent
8%
Hyperparameter Tuning
🤔 Как решить задачу, где присутствует одновременно два target – один categorical, другой continuous?

Используются модели multi-output, которые обучаются на несколько целевых переменных, например, через отдельные выходные слои в нейросети.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой алгоритм часто используется для прогнозирования временных рядов?
Anonymous Quiz
7%
Линейная регрессия
85%
ARIMA
5%
Случайный лес
2%
K-means
🤔 Какой алгоритм машинного обучения использует метод ядровых функций?
Anonymous Quiz
1%
Decision Tree
13%
K-Nearest Neighbors
71%
Support Vector Machine
16%
Naive Bayes
🤔 Почему в нейронных сетях нельзя инициализировать веса нулями?

1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод машинного обучения используется для задач классификации, когда классы плохо разделимы линейно?
Anonymous Quiz
10%
Логистическая регрессия
4%
Линейная регрессия
22%
Метод ближайших соседей
63%
Метод опорных векторов с ядром (SVM)
🤔1
🚀 Phystech.Genesis зовёт тебя на Data Science конкурс по археологии!

Проверь навыки на реальных данных: разработай ПО для поиска объектов в рельефе по данным аэрофотосъёмки, спутниковых снимков и лазерного сканирования.

Почему стоит участвовать?
• Работа над социально значимой задачей – технологии, которые помогут археологам.
• Сообщество специалистов: знакомство с компаниями и экспертами CV/ML.
🔥 Призовой фонд – 5 000 000 ₽.

Кого ждем?
💻 Команды 2-5 человек уровня Middle и выше в области ML/CV.

📌 Формат: онлайн на DS-платформе Phystech.Genesis.
Участвовать могут как физические лица, так и компании.

Подай заявку до 14 октября по ссылке.
🤔 Какой метод уменьшает смещение при оценке модели?
Anonymous Quiz
35%
Ensemble Learning
23%
Gradient Descent
30%
Regularization
12%
Feature Selection
💊3