LeakyReLU

Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.

October 5, 2019 · 168 words

PReLU

Как PReLU улучшает ReLU, добавляя обучаемые параметры для отрицательных значений, и как это влияет на обучение нейросетей.

May 18, 2018 · 376 words

ReLU

Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.

April 19, 2018 · 173 words