Small Data Science for Russian Adventurers
11.3K subscribers
307 photos
3 videos
13 files
708 links
БЕЗ ЧУЖОЙ РЕКЛАМЫ Авторский канал Александра Дьяконова (dyakonov.org)
машинное (machine learning) и
глубокое обучение (deep learning)
анализ данных (data mining)
наука о данных (data science)
ИИ (artificial intelligence)
математика (math)
и др.
ЕСТЬ ЧАТ;)
Download Telegram
#экзамены
На экзаменах по курсу ML в OzonMasters сегодня я всем задавал практически один и тот же набор вопросов (это по частям классического ML - до нейронок):

1. L2-регуляризация, говорят она борется с какой-то вырожденностью: что вырождено, по каким причинам, почему L2-регуляризация с этим справляется?
2. Назовите критерии расщепления при построении решающих деревьях в задаче классификации, можно ли их сравнить (в каких случаях один предпочтительнее остальных).
3. В задаче бинарной классификации 2 объекта имеют метку 1, 3 – метку 0, построили алгоритм с Accuracy < 1, какая максимальная F1-мера может у него быть?
4. Перечислите известные методы отбора признаков (можно начать с групп методов).
5. Есть два алгоритма кластеризации: k-means, mean shift. Приведите пример задачи, с которой первый справляется лучше. И задачи, с которой второй справляется лучше.
6. Отличия CatBoost от XGBoost и LightGBM.
7. Когда Extreme Random Trees предпочтительнее Random Forest?
👍105🤯52🔥10🤔1🤮1