Adam

Adam — оптимизационный алгоритм, который сочетает идеи градиентного спуска с моментом и RMSprop, автоматически адаптируя скорость обучения и корректируя смещение градиента.

March 14, 2018 · 186 words

Rmsprop

Как алгоритм RMSprop улучшает градиентный спуск, используя усредненный квадрат градиента для адаптивного выбора шага и ускорения сходимости.

March 12, 2018 · 128 words

Gradiend Descent With Momentum

Как ускорить градиентный спуск и уменьшить колебания с помощью метода Momentum, используя экспоненциально взвешенные средние градиентов.

March 12, 2018 · 160 words

Градиентный спуск

Как градиентный спуск использует производные и шаг обучения для нахождения минимума функции и оптимизации параметров модели.

February 24, 2018 · 142 words

L2 Regularization

Как L2-регуляризация помогает бороться с переобучением, добавляя штраф за большие веса модели и улучшая её обобщающую способность.

February 24, 2018 · 50 words

Logistic Regression Cost Function

Как функция потерь и функция стоимости помогают обучать логистическую регрессию, минимизируя ошибку предсказания и обеспечивая выпуклость оптимизационной задачи.

February 24, 2018 · 314 words

логистическая регрессия

Как логистическая регрессия использует сигмоиду для вероятностного предсказания и решения задач бинарной классификации.

February 21, 2018 · 251 words