Какво означава написаното по-горе?

Добре... изслушай ме!

Нещата, които сте научили в училище… не са безполезни!

Това може да е противоречиво нещо да се каже, тъй като повечето ученици обичат да викат училищата, че ни учат на „безполезни математически неща“ вместо на „данъци и как да станеш квадрилионер за една седмица“. Но е доста вярно.

Тъй като изучавам все повече и повече за областта на машинното обучение, благодаря за нещата, които научих в училище за първи път през целия си живот!

Едно такова нещо, което училището ми помогна да разбера, беше линейната регресия.

Може би си мислите: „Какво? Кога са преподавали линейна регресия в училище?”. Което... е доста основателен въпрос. Не ни учеха „Линейна регресия“, а Уравнението за права линия.

Ако разбирате какво означава y = mx + bтогава сте на половината път в разбирането какво е линейна регресия.

Линейната регресия не е нищо друго освен поставяне на права линия през куп данни, за да се предвидят нови стойности.

Мда! Това е! Това е всичко, за да разберем какво прави линейната регресия. Това е още един от онези „фантастично звучащи термини, които в действителност са доста прости“.

Линейната регресия идва под чадъра на алгоритмите за регресия и е най-простият от всички тях. Но не го подценявайте само защото е основно.

Линейната регресия се предлага в два вкуса - Vanilla и Butterscotch.

Имам предвид Проста линейна регресия и Множествена линейна регресия.

Вкусове на линейната регресия

Както казах по-горе, линейната регресия се предлага в два варианта, Обикновена линейна регресия и Множествена линейна регресия. Нека разгледаме и двете едно по едно и да разберем защо са различни.

Проста линейна регресия

Както подсказва името, простата линейна регресия е по-простият от двата варианта.

Нарича се „прост“, защото използва само една променлива за прогнозиране на нови резултати.

Горното уравнение е уравнението за проста линейна регресия. Ако се вгледате внимателно, усещането няма да се различава много от уравнението в Изображение 1.Единствената промяна тук е в името на променливите.

c (отсечка)е променена на beta_0, а m (наклон) е променена на beta_1.

x1 тук е основната променлива, която ще използваме, за да прогнозираме y, а beta_1е наклонът на линията, направен чрез начертаване на x1 срещу y.

Множествена линейна регресия

Както подсказва името, този вариант използва множество променливи за прогнозиране на нови стойности.

Горното уравнение е уравнението за множествена линейна регресия. Ако се вгледате внимателно, усещането няма да се различава много от уравнението в Изображение 3.Единствената промяна тук е, че към уравнението са добавени още няколко члена.

x1, x2, x3,и така нататък са всички променливи, които ще използваме за прогнозиране на y и beta_1, beta_2, beta_3,и така нататък са наклонът на линията, получен чрез начертаване на тези променливисрещу y.

(Той сериозно ли копира описанието на Простата линейна регресия, направи няколко промени и ги постави тук?)

(Да... той го направи!)

Как да изчислим бета?

Сега, след като знаете уравненията и за двата вкуса, може да имате въпроса „Как да изчисля тези бета?“.

Е, закопчай Buckaroo, защото ще отидем на цяло влакче в увеселителен парк, за да изчислим тези бета версии.

В това пътуване ще научите за методи като OLS (обикновени най-малки квадрати) и градиентно спускане.

(Ако искате да знаете какво е Gradient Descent, щракнете тук. Този човек написа доста готина статия, така че бих искал той да получи няколко впечатления...)

Източници -

  1. Изображение 1-https://cdn.kastatic.org/googleusercontent/ovqBFMBrGMZ1PfJ6XMADhigWzTDP5AaEmaEIAnNKjwiOlLuGd46fET8QeRqB9LZ9XVpvoX85lbz0YIYsV-98UTCs
  2. Изображение 2- https://i2.wp.com/miro.medium.com/max/1400/1*Cw5ZSYDkIFpmhBwr-hN84A.png
  3. Изображение 3- Направено от автора с помощта на този уебсайт.
  4. Изображение 4- Направено от автора с помощта на този уебсайт.