LeakyReLU

Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.

октября 5, 2019 · 168 слов

PReLU

Как PReLU улучшает ReLU, добавляя обучаемые параметры для отрицательных значений, и как это влияет на обучение нейросетей.

мая 18, 2018 · 376 слов

ReLU

Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.

апреля 19, 2018 · 173 слова