Какой из следующих методов может быть использован для улучшения работы дерева решений на несбалансированных данных?
#junior
#junior
Anonymous Quiz
34%
Использование ансамблевых методов, таких как случайный лес (random forest)
9%
Увеличение размера обучающей выборки
45%
Использование взвешенных функций ошибки
11%
Использование алгоритмов обрезки дерева
👍13❤2🥰1
В PyTorch функции потерь могут быть реализованы путем создания подкласса класса
nn.Module
и переопределения метода forward
. Метод forward
принимает на вход прогнозируемый выход и фактический выход и возвращает значение потерь.Приведем пример кода:
import torch
import torch.nn as nn
class CustomLoss(nn.Module):
def __init__(self):
super(MyLoss, self).__init__()
def forward(self, output, target):
loss = ... # compute the loss
return loss
Теперь, чтобы использовать функцию потерь, необходимо инициализировать ее и передать в качестве аргумента параметру
criterion
оптимизатора в цикле обучения.
model = ...
optimizer = ...
criterion = CustomLoss()
# цикл обучения
for epoch in range(num_epochs):
optimizer.zero_grad()
outputs = model(data)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
...
#pytorch #junior
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥5
— Сигмоида
Нелинейна по своей природе, поэтому комбинация таких функций производит тоже нелинейную функцию. Так что она хорошо подходит для комбинации слоёв. Чаще всего применяется в задачах бинарной классификации, где нужно предсказать вероятность принадлежности к одному из 2 классов.
— Tanh
Гиперболический тангенс — это скорректированная сигмоидная функция. Стоит отметить, что градиент тангенциальной функции больше, чем у сигмоиды; она растёт быстрее. Активное используется в рекуррентных сетях, вероятностных моделях и т.д.
— ReLU
Имеет низкую вычислительную сложность, устойчива к переобучению. Область допустимых значений ReLu —
[0, inf)
, то есть активация может "взорваться" от больших значений. Широко применяется в глубоких нейронных сетях благодаря простоте и отсутствию затухающего градиента — Leaky ReLU
Модификация ReLU, призвана решить проблему "умирающей ReLU". Используется в нейронных сетях для введения нелинейности в выходные данные каждого нейрона.
#junior
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31❤4🔥4