<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Оптимизация on мои наблюдения</title><link>https://shiji.site/ru/tags/%D0%BE%D0%BF%D1%82%D0%B8%D0%BC%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F/</link><description>Recent content in Оптимизация on мои наблюдения</description><generator>Hugo -- 0.146.0</generator><language>ru-ru</language><lastBuildDate>Thu, 23 Mar 2023 21:02:02 +0300</lastBuildDate><atom:link href="https://shiji.site/ru/tags/%D0%BE%D0%BF%D1%82%D0%B8%D0%BC%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F/index.xml" rel="self" type="application/rss+xml"/><item><title>выпуклое множество</title><link>https://shiji.site/ru/post/2023/convex-set/</link><pubDate>Thu, 23 Mar 2023 21:02:02 +0300</pubDate><guid>https://shiji.site/ru/post/2023/convex-set/</guid><description>Разбираемся с тем, что такое выпуклое множество и чем оно отличается от аффинного</description></item><item><title>аффинная оболочка</title><link>https://shiji.site/ru/post/2023/affine-hull/</link><pubDate>Tue, 21 Mar 2023 20:40:49 +0300</pubDate><guid>https://shiji.site/ru/post/2023/affine-hull/</guid><description>В статье рассматривается понятие аффинной оболочки.</description></item><item><title>аффинная комбинация точек</title><link>https://shiji.site/ru/post/2023/affine-combination-of-points/</link><pubDate>Tue, 21 Mar 2023 12:36:11 +0300</pubDate><guid>https://shiji.site/ru/post/2023/affine-combination-of-points/</guid><description>В статье рассматривается, что такое аффинная комбинация точек.</description></item><item><title>теорема об аффинном множестве</title><link>https://shiji.site/ru/post/2023/affine-set-theorem/</link><pubDate>Mon, 20 Mar 2023 22:07:06 +0300</pubDate><guid>https://shiji.site/ru/post/2023/affine-set-theorem/</guid><description>В статье рассматривается важное свойство аффинного множества: если из него вычесть любую точку, то получится одно и то же линейное подпространство.</description></item><item><title>аффинное множество</title><link>https://shiji.site/ru/post/2023/affine-set/</link><pubDate>Mon, 20 Mar 2023 21:56:02 +0300</pubDate><guid>https://shiji.site/ru/post/2023/affine-set/</guid><description>В статье рассматривается, что такое аффинное множество</description></item><item><title>LeakyReLU</title><link>https://shiji.site/ru/post/2019/leakyrelu/</link><pubDate>Sat, 05 Oct 2019 18:26:07 +0300</pubDate><guid>https://shiji.site/ru/post/2019/leakyrelu/</guid><description>Разбираемся, что представляет из себя функция LeakyReLU и чем она отличается от обычной ReLU.</description></item><item><title>PReLU</title><link>https://shiji.site/ru/post/2018/prelu/</link><pubDate>Fri, 18 May 2018 08:35:54 +0300</pubDate><guid>https://shiji.site/ru/post/2018/prelu/</guid><description>Как PReLU улучшает ReLU, добавляя обучаемые параметры для отрицательных значений, и как это влияет на обучение нейросетей.</description></item><item><title>ReLU</title><link>https://shiji.site/ru/post/2018/relu/</link><pubDate>Thu, 19 Apr 2018 20:57:41 +0300</pubDate><guid>https://shiji.site/ru/post/2018/relu/</guid><description>Почему ReLU стала стандартной активационной функцией в нейросетях, как она ускоряет обучение по сравнению с tanh, и какие преимущества даёт в глубоких моделях.</description></item><item><title>Adam</title><link>https://shiji.site/ru/post/2018/adam/</link><pubDate>Wed, 14 Mar 2018 12:43:41 +0300</pubDate><guid>https://shiji.site/ru/post/2018/adam/</guid><description>Adam — оптимизационный алгоритм, который сочетает идеи градиентного спуска с моментом и RMSprop, автоматически адаптируя скорость обучения и корректируя смещение градиента.</description></item><item><title>Rmsprop</title><link>https://shiji.site/ru/post/2018/rmsprop/</link><pubDate>Mon, 12 Mar 2018 12:36:29 +0300</pubDate><guid>https://shiji.site/ru/post/2018/rmsprop/</guid><description>Как алгоритм RMSprop улучшает градиентный спуск, используя усредненный квадрат градиента для адаптивного выбора шага и ускорения сходимости.</description></item><item><title>Gradiend Descent With Momentum</title><link>https://shiji.site/ru/post/2018/gradiend-descent-with-momentum/</link><pubDate>Mon, 12 Mar 2018 12:11:53 +0300</pubDate><guid>https://shiji.site/ru/post/2018/gradiend-descent-with-momentum/</guid><description>Как ускорить градиентный спуск и уменьшить колебания с помощью метода Momentum, используя экспоненциально взвешенные средние градиентов.</description></item><item><title>Градиентный спуск</title><link>https://shiji.site/ru/post/2018/gradient-descent/</link><pubDate>Sat, 24 Feb 2018 23:01:17 +0300</pubDate><guid>https://shiji.site/ru/post/2018/gradient-descent/</guid><description>Как градиентный спуск использует производные и шаг обучения для нахождения минимума функции и оптимизации параметров модели.</description></item></channel></rss>