Свързани публикации 'gradient-descent'


Методи за математическа оптимизация за машинно обучение
*Тази статия има 2 части (текстов документ и примери за код), примерите за код за методите са достъпни на тази връзка: https://github.com/alevalve/Optimization_ML_Methods Въведение Математиката е област, която присъства във всеки аспект от човешкия живот. От началото на първите математически теореми, създадени от Архимед, Платон, Питагор до най-новите математици като Нютон и Лайбниц. Въпреки това, от последните 3 века до днес, математиката е ключов играч в развитието на нови..

Самообучаващи се компютри и ваксината срещу COVID-19, която получавате
Тази статия обяснява механиката на машинното обучение и как то е уникално позиционирано, за да помогне при откриването на лекарства. Не, ваксината срещу COVID не е трик за имплантируеми микрочипове или средство да ни превърнат в генетично модифицирани организми. Но той има по-малко зловещ, по-завладяващ механизъм с изкуствен интелект в основата си. Преди да навляза в подробностите за разработването на ваксина, трябва да отговоря на един основен въпрос. Как се учат машините? Този..

Дълбока невронна мрежа: Разпространение напред и назад
В тази статия ще разгледам стъпките, включени в решаването на проблем с двоична класификация, използвайки дълбока невронна мрежа, имаща L слоеве. Ако сте нов в невронните мрежи, бих ви предложил първо да прегледате тази статия , където съм обсъждал невронна мрежа с единичен неврон. Входните данни X са с размер (n𝕩, m), където n𝕩 е броят на характеристиките, а m е броят на пробите. Резултатът Y е с размер (1, m). Броят на невроните в слой l се означава с n⁽ˡ⁾. Ще използваме..

Решение на упражненията [Глава-4: Модели на обучение]…
Глава-4: Модели на обучение 1. Какъв алгоритъм за обучение на линейна регресия можете да използвате, ако имате набор за обучение с милиони функции? Както подходът на нормалното уравнение, така и подходът на декомпозиция на единична стойност (SVD) стават много бавни, когато броят на характеристиките нараства (напр. 100 000). Въпреки това, Gradient Descent се мащабира добре с броя на функциите; обучението на модел на линейна регресия, когато има стотици хиляди характеристики, е..

Алгоритъм за градиентно спускане за деца: Най-интуитивното обяснение
Представете си, че имате голям хълм и искате да стигнете дъното. Градиентното спускане е като намиране на най-добрия начин за слизане по хълма стъпка по стъпка. Сега нека поговорим за различните видове градиентно спускане: ⭕Групово градиентно спускане: Представете си, че имате група приятели и всички искате да се спуснете по хълма заедно. При групово спускане с градиент разглеждате целия хълм, изчислявате наклона (колко е стръмен) във всички посоки и след това правите голяма..

Мащабиране на вашите функции
Мащабирането е важен процес на инженеринг на функции. С помощта на мащабиране се опитваме да приведем данните си в същия диапазон. Някои видове методи за мащабиране са: · Минимално-максимална скала : (диапазон от 0 до 1) X = (X-min от X) / Диапазон · Стандартизация : (Диапазон -3 и 3) Z = (X-средно на X)/ (Стандартно отклонение на X) · Десетично мащабиране (диапазон от -1 до 1) X = X /(10^d) d = Брой цифри тоест за стойност да речем 4997, d= 4 следователно X/ (10⁴)..

Градиентно спускане в машинното обучение
Кратко и ясно въведение Какво е градиент? Нека започнем с очевидния първи въпрос: какво точно е градиент? Ако отдавна не сте ходили на курс по смятане през третия семестър (моят случай) или изобщо не сте запознати с математиката, ще дам кратко обяснение. Ако вече сте запознати с концепциите, моля, пропуснете напред. Градиент означава промяната във всички тегла по отношение на промяната в грешката. Може също да изглежда просто като наклон на функция. Колкото по-висок е..