LeakyReLU
Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.
Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.
Как PReLU улучшает ReLU, добавляя обучаемые параметры для отрицательных значений, и как это влияет на обучение нейросетей.
Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.