ReLU

Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.

апреля 19, 2018 · 173 слова

Пример простой CNN

Пошаговый разбор свёрточной нейросети: как изображение проходит через несколько сверточных слоев, изменяя размерность, и как финальный слой формирует предсказание.

апреля 11, 2018 · 189 слов

Слой CNN

Как сверточный слой CNN преобразует входное изображение, применяя фильтры, добавляя смещения и используя нелинейные функции активации для формирования многоканального представления.

апреля 10, 2018 · 147 слов

Свёртка и слои

Как свёртка применяется к цветным изображениям, как фильтры обрабатывают отдельные цветовые каналы и как формируется многослойное представление в нейросетях.

апреля 9, 2018 · 176 слов

Stride

Как шаг свертки (stride) влияет на размер выходного изображения, ускоряет обработку и уменьшает вычислительную сложность в сверточных нейросетях.

апреля 9, 2018 · 170 слов

Padding

Как padding помогает сохранить размер изображения при свертке, предотвращает потерю краевой информации и влияет на тип свертки (valid или same).

апреля 7, 2018 · 293 слова

Adam

Adam — оптимизационный алгоритм, который сочетает идеи градиентного спуска с моментом и RMSprop, автоматически адаптируя скорость обучения и корректируя смещение градиента.

марта 14, 2018 · 186 слов

Rmsprop

Как алгоритм RMSprop улучшает градиентный спуск, используя усредненный квадрат градиента для адаптивного выбора шага и ускорения сходимости.

марта 12, 2018 · 128 слов

Gradiend Descent With Momentum

Как ускорить градиентный спуск и уменьшить колебания с помощью метода Momentum, используя экспоненциально взвешенные средние градиентов.

марта 12, 2018 · 160 слов

Доверительный интервал

Как с помощью доверительного интервала оценить истинное значение параметра в генеральной совокупности, даже если доступны только выборочные данные.

марта 12, 2018 · 358 слов