Математическое ожидание

Как вычислить математическое ожидание для дискретных и непрерывных случайных величин и почему оно является средним значением при бесконечном числе наблюдений.

февраля 25, 2018 · 105 слов

Градиентный спуск

Как градиентный спуск использует производные и шаг обучения для нахождения минимума функции и оптимизации параметров модели.

февраля 24, 2018 · 142 слова

L2 Regularization

Как L2-регуляризация помогает бороться с переобучением, добавляя штраф за большие веса модели и улучшая её обобщающую способность.

февраля 24, 2018 · 50 слов

Logistic Regression Cost Function

Как функция потерь и функция стоимости помогают обучать логистическую регрессию, минимизируя ошибку предсказания и обеспечивая выпуклость оптимизационной задачи.

февраля 24, 2018 · 314 слов

R-квадрат

Как коэффициент детерминации помогает оценить качество линейной модели, почему его значение варьируется от 0 до 1 и что означает отрицательное значение.

февраля 24, 2018 · 142 слова

Плотность распределения вероятностей

Плотность распределения вероятностей показывает, как распределена вероятность значений непрерывной случайной величины, и позволяет вычислять вероятность попадания в заданный интервал.

февраля 24, 2018 · 190 слов

Интерквартильный размах

Как найти интерквартильный размах выборки, определить границы выбросов и почему он полезен для анализа разброса данных.

февраля 24, 2018 · 238 слов

логистическая регрессия

Как логистическая регрессия использует сигмоиду для вероятностного предсказания и решения задач бинарной классификации.

февраля 21, 2018 · 1 слово

Теорема Байеса

Как применить теорему Байеса на примере автобусов, чтобы вычислить вероятность того, что случайно выбранный новый автобус следует по определенному маршруту.

февраля 21, 2018 · 395 слов

ЦПТ и распределение выборочных средних

Статья объясняет центральную предельную теорему (ЦПТ) и показывает, как распределение выборочных средних приближается к нормальному по мере увеличения размера подвыборки.

февраля 17, 2018 · 92 слова