Многовариантна линейна регресия

Линейната регресия с множество променливи се нарича „Многовариантна линейна регресия“

Нотация, използвана за уравнение.

Хипотезна функция за многомерна линейна регресия.

hθ(x)=θ0+θ1x1+θ2x2+θ3x3+⋯+θnxn

Градиентно спускане за многовариантна линейна регресия

Мащабиране на функции

Уверете се, че функциите са в същия мащаб, това се нарича нормализиране.

Тъй като градиентното спускане ще отнеме много време, за да достигне глобалния минимум. поради изкривената си форма.

Вкарайте всяка функция в приблизително диапазон от [-1,1]

Средната нормализация включва изваждане на средната стойност за входна променлива от стойностите за тази входна променлива, което води до нова средна стойност за входната променлива, равна само на нула. За да приложите и двете от тези техники, коригирайте входните си стойности, както е показано в тази формула:

Където μi е средната стойност на всички стойности за функция (i), а si е диапазонът от стойности (max — min), или si​ е стандартното отклонение.

Уверете се, че градиентното спускане работи правилно!!

стойността на функцията на разходите намалява след всяка итерация

Автоматичен тест за конвергенция!!

Създаването на нова характеристика от две функции може да помогне на линейната регресия да изгради правилно модела.

Полиномна регресия

Функцията на хипотезата не трябва да е линейна, ако не пасва на модела

можем да променим поведението на кривата, за да я направим квадратна, кубична.

ако изберете да изберете функция по този начин, тогава мащабирането на функциите става по-важно

Нормално уравнение

Приличен градиент е един от начините за минимизиране. А нормалното уравнение е друг начин. В нормалното уравнение ние минимизираме J, като вземаме неговата производна по отношение на тита J. и я настройваме на нула. Това премахва итерацията.