биномиальное распределение

Как биномиальное распределение помогает оценить вероятность определённого числа успехов в серии экспериментов с двумя исходами.

November 28, 2018 · 288 words

геометрический алгоритм Монте-Карло интегрирования

Геометрический метод Монте-Карло приближённо вычисляет интегралы, используя случайные точки внутри ограничивающей области.

October 27, 2018 · 439 words

MSE

Как среднеквадратичная ошибка (MSE) оценивает качество модели и как её использовать для сравнения предсказаний.

June 16, 2018 · 174 words

Правило Стёрджеса

Как правило Стёрджеса помогает определить количество интервалов в гистограмме, почему оно подходит для небольших выборок и какие альтернативные методы используются для больших данных.

June 12, 2018 · 228 words

PReLU

Как PReLU улучшает ReLU, добавляя обучаемые параметры для отрицательных значений, и как это влияет на обучение нейросетей.

May 18, 2018 · 376 words

вымывание и взрыв градиента

Почему в глубоких нейросетях возникают проблемы вымывания градиента и градиентного взрыва, как они связаны с последовательным умножением весов и почему это мешает обучению.

May 17, 2018 · 371 words

elimination и permutation матрицы

Как elimination и permutation матрицы используются для приведения матрицы к треугольному виду, упрощая вычисления в линейной алгебре.

May 1, 2018 · 250 words

ReLU

Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.

April 19, 2018 · 173 words

Пример простой CNN

Пошаговый разбор свёрточной нейросети: как изображение проходит через несколько сверточных слоев, изменяя размерность, и как финальный слой формирует предсказание.

April 11, 2018 · 189 words

Слой CNN

Как сверточный слой CNN преобразует входное изображение, применяя фильтры, добавляя смещения и используя нелинейные функции активации для формирования многоканального представления.

April 10, 2018 · 147 words