Свързани публикации 'gradient-descent'


Въведение в машинното обучение с линейна регресия и приличен градиент, част 2
Въведение в машинното обучение с линейна регресия и приличен градиент, част 2 Продължавайки от предишния урок, спряхме да научим как да прогнозираме цените от графика, използвайки параметрите m и c, ако не сте го проверили, вземете предишния урок , така че преминавайки към по-трудни неща, които очевидно 🙄 се надяваме да обърнем това в система, така че определено искаме да можем да направим това без да чертаем графика, така че трябва да изберем стойност на m и c, където общата грешка..

Защо Gradient Descent не се сближава с немащабирани функции?
Чувствали ли сте се някога любопитни относно тази добре позната аксиома: „ Винаги мащабирайте функциите си“? Е, прочетете, за да получите бързо графично и интуитивно обяснение! Мотивация Сигурен съм, че всички ние сме виждали тази популярна аксиома в машинното обучение: Винаги мащабирайте функциите си преди обучение! Въпреки че повечето от нас знаят нейното практическо значение, не много от нас са наясно с основни математически причини. В този супер кратък блог обясних какво се..

Опростяване на оптимизацията : Проучване на AdaGrad
Нека започнем да разбираме концепцията на AdaGrad с кратък преглед на един от най-важните алгоритми за оптимизация в дълбокото обучение — Gradient Descent. Ще използваме концепцията за AdaGrad или метода на адаптивния градиент при регулирането на хиперпараметрите на Gradient Descent. Градиентно спускане, накратко, е процедурата за намиране на правилния набор от стойности на ϴ (т.е. ϴ оптимално) за минимизиране на функцията на разходите J(ϴ). θt+1 = θt — α(∂L∕∂θt) По този начин,..