Adam

Adam — оптимизационный алгоритм, который сочетает идеи градиентного спуска с моментом и RMSprop, автоматически адаптируя скорость обучения и корректируя смещение градиента.

марта 14, 2018 · 186 слов

Rmsprop

Как алгоритм RMSprop улучшает градиентный спуск, используя усредненный квадрат градиента для адаптивного выбора шага и ускорения сходимости.

марта 12, 2018 · 128 слов

Gradiend Descent With Momentum

Как ускорить градиентный спуск и уменьшить колебания с помощью метода Momentum, используя экспоненциально взвешенные средние градиентов.

марта 12, 2018 · 160 слов

Градиентный спуск

Как градиентный спуск использует производные и шаг обучения для нахождения минимума функции и оптимизации параметров модели.

февраля 24, 2018 · 142 слова

L2 Regularization

Как L2-регуляризация помогает бороться с переобучением, добавляя штраф за большие веса модели и улучшая её обобщающую способность.

февраля 24, 2018 · 50 слов

Logistic Regression Cost Function

Как функция потерь и функция стоимости помогают обучать логистическую регрессию, минимизируя ошибку предсказания и обеспечивая выпуклость оптимизационной задачи.

февраля 24, 2018 · 314 слов

логистическая регрессия

Как логистическая регрессия использует сигмоиду для вероятностного предсказания и решения задач бинарной классификации.

февраля 21, 2018 · 1 слово