LeakyReLU
Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.
Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.
Разбираемся с тем, что такое softmax и как эта функция работает на простом примере.
Оптимистичная инициализация оценочного вознаграждения Q заставляет даже жадный алгоритм исследовать альтернативные действия, что в долгосрочной перспективе приводит к лучшим результатам по сравнению с ε-жадным методом.
В нестационарной задаче многорукого бандита эффективность ε-жадного алгоритма снижается, но её можно восстановить, увеличив количество шагов и заменив изменяющийся коэффициент обновления на постоянный.
ε-жадный алгоритм балансирует между исследованием и использованием знаний для решения проблемы многорукого бандита, помогая находить оптимальную стратегию вознаграждения.
Как среднеквадратичная ошибка (MSE) оценивает качество модели и как её использовать для сравнения предсказаний.
Как PReLU улучшает ReLU, добавляя обучаемые параметры для отрицательных значений, и как это влияет на обучение нейросетей.
Почему в глубоких нейросетях возникают проблемы вымывания градиента и градиентного взрыва, как они связаны с последовательным умножением весов и почему это мешает обучению.
Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.
Пошаговый разбор свёрточной нейросети: как изображение проходит через несколько сверточных слоев, изменяя размерность, и как финальный слой формирует предсказание.