ReLU
Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.
Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.
Пошаговый разбор свёрточной нейросети: как изображение проходит через несколько сверточных слоев, изменяя размерность, и как финальный слой формирует предсказание.
Как сверточный слой CNN преобразует входное изображение, применяя фильтры, добавляя смещения и используя нелинейные функции активации для формирования многоканального представления.
Как свёртка применяется к цветным изображениям, как фильтры обрабатывают отдельные цветовые каналы и как формируется многослойное представление в нейросетях.
Как шаг свертки (stride) влияет на размер выходного изображения, ускоряет обработку и уменьшает вычислительную сложность в сверточных нейросетях.
Как padding помогает сохранить размер изображения при свертке, предотвращает потерю краевой информации и влияет на тип свертки (valid или same).
Adam — оптимизационный алгоритм, который сочетает идеи градиентного спуска с моментом и RMSprop, автоматически адаптируя скорость обучения и корректируя смещение градиента.
Как алгоритм RMSprop улучшает градиентный спуск, используя усредненный квадрат градиента для адаптивного выбора шага и ускорения сходимости.
Как ускорить градиентный спуск и уменьшить колебания с помощью метода Momentum, используя экспоненциально взвешенные средние градиентов.
Как с помощью доверительного интервала оценить истинное значение параметра в генеральной совокупности, даже если доступны только выборочные данные.