Публикации по теме 'gradient-descent'


Введение в машинное обучение с линейной регрессией и градиентной приличной частью 2
Введение в машинное обучение с линейной регрессией и подходящим градиентом, часть 2 Продолжая предыдущее руководство, мы остановились на изучении того, как прогнозировать цены на графике с использованием параметров m и c, если вы не проверяли его, поймите предыдущий учебник , поэтому, переходя к более сложным вещам, мы, очевидно, переходим к это в систему, поэтому мы определенно хотим иметь возможность делать это без рисования графика, поэтому нам нужно выбрать значение m и c, при..

Почему градиентный спуск не сочетается с немасштабированными элементами?
Вы когда-нибудь интересовались этой известной аксиомой: « Всегда масштабируйте свои функции»? Что ж, читайте дальше, чтобы получить быстрое графическое и интуитивно понятное объяснение! Мотивация Я уверен, что все мы видели эту популярную аксиому в машинном обучении: Всегда масштабируйте свои функции перед обучением! Хотя большинство из нас осознают ее практическую важность, не многие из нас осознают ее основные математические причины. В этом суперкоротком блоге я объяснил, что..

Упрощение оптимизации: исследование AdaGrad
Давайте начнем понимать концепцию AdaGrad с краткого обзора одного из самых важных алгоритмов оптимизации в глубоком обучении - градиентного спуска. Именно при регулировании гиперпараметров градиентного спуска мы будем использовать концепцию AdaGrad или адаптивного градиентного метода. Короче говоря, градиентный спуск - это процедура нахождения правильного набора значений (то есть ϴ оптимального) для минимизации функции стоимости J (). θt+1 = θt — α(∂L∕∂θt) Таким образом, как..