Свързани публикации 'gradient-descent'
Методи за математическа оптимизация за машинно обучение
*Тази статия има 2 части (текстов документ и примери за код), примерите за код за методите са достъпни на тази връзка: https://github.com/alevalve/Optimization_ML_Methods
Въведение
Математиката е област, която присъства във всеки аспект от човешкия живот. От началото на първите математически теореми, създадени от Архимед, Платон, Питагор до най-новите математици като Нютон и Лайбниц.
Въпреки това, от последните 3 века до днес, математиката е ключов играч в развитието на нови..
Самообучаващи се компютри и ваксината срещу COVID-19, която получавате
Тази статия обяснява механиката на машинното обучение и как то е уникално позиционирано, за да помогне при откриването на лекарства.
Не, ваксината срещу COVID не е трик за имплантируеми микрочипове или средство да ни превърнат в генетично модифицирани организми. Но той има по-малко зловещ, по-завладяващ механизъм с изкуствен интелект в основата си. Преди да навляза в подробностите за разработването на ваксина, трябва да отговоря на един основен въпрос.
Как се учат машините?
Този..
Дълбока невронна мрежа: Разпространение напред и назад
В тази статия ще разгледам стъпките, включени в решаването на проблем с двоична класификация, използвайки дълбока невронна мрежа, имаща L слоеве. Ако сте нов в невронните мрежи, бих ви предложил първо да прегледате тази статия , където съм обсъждал невронна мрежа с единичен неврон.
Входните данни X са с размер (n𝕩, m), където n𝕩 е броят на характеристиките, а m е броят на пробите. Резултатът Y е с размер (1, m).
Броят на невроните в слой l се означава с n⁽ˡ⁾.
Ще използваме..
Решение на упражненията [Глава-4: Модели на обучение]…
Глава-4: Модели на обучение
1. Какъв алгоритъм за обучение на линейна регресия можете да използвате, ако имате набор за обучение с милиони функции?
Както подходът на нормалното уравнение, така и подходът на декомпозиция на единична стойност (SVD) стават много бавни, когато броят на характеристиките нараства (напр. 100 000). Въпреки това, Gradient Descent се мащабира добре с броя на функциите; обучението на модел на линейна регресия, когато има стотици хиляди характеристики, е..
Алгоритъм за градиентно спускане за деца: Най-интуитивното обяснение
Представете си, че имате голям хълм и искате да стигнете дъното. Градиентното спускане е като намиране на най-добрия начин за слизане по хълма стъпка по стъпка.
Сега нека поговорим за различните видове градиентно спускане:
⭕Групово градиентно спускане: Представете си, че имате група приятели и всички искате да се спуснете по хълма заедно. При групово спускане с градиент разглеждате целия хълм, изчислявате наклона (колко е стръмен) във всички посоки и след това правите голяма..
Мащабиране на вашите функции
Мащабирането е важен процес на инженеринг на функции.
С помощта на мащабиране се опитваме да приведем данните си в същия диапазон.
Някои видове методи за мащабиране са:
· Минимално-максимална скала : (диапазон от 0 до 1)
X = (X-min от X) / Диапазон
· Стандартизация : (Диапазон -3 и 3)
Z = (X-средно на X)/ (Стандартно отклонение на X)
· Десетично мащабиране (диапазон от -1 до 1)
X = X /(10^d)
d = Брой цифри
тоест за стойност да речем 4997, d= 4
следователно X/ (10⁴)..
Градиентно спускане в машинното обучение
Кратко и ясно въведение
Какво е градиент?
Нека започнем с очевидния първи въпрос: какво точно е градиент? Ако отдавна не сте ходили на курс по смятане през третия семестър (моят случай) или изобщо не сте запознати с математиката, ще дам кратко обяснение. Ако вече сте запознати с концепциите, моля, пропуснете напред.
Градиент означава промяната във всички тегла по отношение на промяната в грешката. Може също да изглежда просто като наклон на функция. Колкото по-висок е..