Adam

Adam — оптимизационный алгоритм, который сочетает идеи градиентного спуска с моментом и RMSprop, автоматически адаптируя скорость обучения и корректируя смещение градиента.

марта 14, 2018 · 186 слов

Rmsprop

Как алгоритм RMSprop улучшает градиентный спуск, используя усредненный квадрат градиента для адаптивного выбора шага и ускорения сходимости.

марта 12, 2018 · 128 слов

Gradiend Descent With Momentum

Как ускорить градиентный спуск и уменьшить колебания с помощью метода Momentum, используя экспоненциально взвешенные средние градиентов.

марта 12, 2018 · 160 слов

Градиентный спуск

Как градиентный спуск использует производные и шаг обучения для нахождения минимума функции и оптимизации параметров модели.

февраля 24, 2018 · 142 слова