Какво означава написаното по-горе?
Добре... изслушай ме!
Нещата, които сте научили в училище… не са безполезни!
Това може да е противоречиво нещо да се каже, тъй като повечето ученици обичат да викат училищата, че ни учат на „безполезни математически неща“ вместо на „данъци и как да станеш квадрилионер за една седмица“. Но е доста вярно.
Тъй като изучавам все повече и повече за областта на машинното обучение, благодаря за нещата, които научих в училище за първи път през целия си живот!
Едно такова нещо, което училището ми помогна да разбера, беше линейната регресия.
Може би си мислите: „Какво? Кога са преподавали линейна регресия в училище?”. Което... е доста основателен въпрос. Не ни учеха „Линейна регресия“, а Уравнението за права линия.
Ако разбирате какво означава y = mx + bтогава сте на половината път в разбирането какво е линейна регресия.
Линейната регресия не е нищо друго освен поставяне на права линия през куп данни, за да се предвидят нови стойности.
Мда! Това е! Това е всичко, за да разберем какво прави линейната регресия. Това е още един от онези „фантастично звучащи термини, които в действителност са доста прости“.
Линейната регресия идва под чадъра на алгоритмите за регресия и е най-простият от всички тях. Но не го подценявайте само защото е основно.
Линейната регресия се предлага в два вкуса - Vanilla и Butterscotch.
Имам предвид Проста линейна регресия и Множествена линейна регресия.
Вкусове на линейната регресия
Както казах по-горе, линейната регресия се предлага в два варианта, Обикновена линейна регресия и Множествена линейна регресия. Нека разгледаме и двете едно по едно и да разберем защо са различни.
Проста линейна регресия
Както подсказва името, простата линейна регресия е по-простият от двата варианта.
Нарича се „прост“, защото използва само една променлива за прогнозиране на нови резултати.
Горното уравнение е уравнението за проста линейна регресия. Ако се вгледате внимателно, усещането няма да се различава много от уравнението в Изображение 1.Единствената промяна тук е в името на променливите.
c (отсечка)е променена на beta_0, а m (наклон) е променена на beta_1.
x1 тук е основната променлива, която ще използваме, за да прогнозираме y, а beta_1е наклонът на линията, направен чрез начертаване на x1 срещу y.
Множествена линейна регресия
Както подсказва името, този вариант използва множество променливи за прогнозиране на нови стойности.
Горното уравнение е уравнението за множествена линейна регресия. Ако се вгледате внимателно, усещането няма да се различава много от уравнението в Изображение 3.Единствената промяна тук е, че към уравнението са добавени още няколко члена.
x1, x2, x3,и така нататък са всички променливи, които ще използваме за прогнозиране на y и beta_1, beta_2, beta_3,и така нататък са наклонът на линията, получен чрез начертаване на тези променливисрещу y.
(Той сериозно ли копира описанието на Простата линейна регресия, направи няколко промени и ги постави тук?)
(Да... той го направи!)
Как да изчислим бета?
Сега, след като знаете уравненията и за двата вкуса, може да имате въпроса „Как да изчисля тези бета?“.
Е, закопчай Buckaroo, защото ще отидем на цяло влакче в увеселителен парк, за да изчислим тези бета версии.
В това пътуване ще научите за методи като OLS (обикновени най-малки квадрати) и градиентно спускане.
(Ако искате да знаете какво е Gradient Descent, щракнете тук. Този човек написа доста готина статия, така че бих искал той да получи няколко впечатления...)
Източници -
- Изображение 1-https://cdn.kastatic.org/googleusercontent/ovqBFMBrGMZ1PfJ6XMADhigWzTDP5AaEmaEIAnNKjwiOlLuGd46fET8QeRqB9LZ9XVpvoX85lbz0YIYsV-98UTCs
- Изображение 2- https://i2.wp.com/miro.medium.com/max/1400/1*Cw5ZSYDkIFpmhBwr-hN84A.png
- Изображение 3- Направено от автора с помощта на този уебсайт.
- Изображение 4- Направено от автора с помощта на този уебсайт.