За линейни данни, двуизмерни данни, което означава, че наборът от данни има два обекта, единият е функция, а другият е етикет. Връзката между двете може да се изведе чрез прост линеен (регресионен) модел. Това ще ни спести известно време, за да разгледаме тенденциите наведнъж.

Сега ние определяме ефективността на модел въз основа на загубата, която е претърпял за правене на прогнози за данните. Колкото по-малка е загубата, толкова по-добър е моделът. Загубата може да бъде положителна или отрицателна. Това е основно разликата между прогнозираната и истинската стойност за даден модел. Ето статистическото уравнение за изчисляване на загубите-

Графиките по-долу показват сравнението на загубите между двата модела. Ще изберем модела отдясно поради тенденцията му да прогнозира по-точно и по този начин да намали загубата.

Намаляване на загубата

Това се обсъжда в два подхода -

Подход 1

По-рано обсъдихме как да изчислим загубата. Сега ще обсъдим как да намалим загубата, като изберем параметрите, които са най-ефективни.

Като цяло предприемаме определени стъпки, за да достигнем минимума на кривата на загубата. В зависимост от скоростта на обучение (размер на стъпката спрямо броя на стъпките), размерът на стъпката може да варира. Въз основа на принципа на Златокоска за ML, целта трябва да бъде да се предприемат разумен (оптимален) брой стъпки за достигане на минимума (долната част за някои от изпъкналите ML проблеми; CASE -1) на кривата на загубите.

Като се има предвид, че повечето от проблемите на ML не са изпъкнали (CASE-2), което означава, че когато проблемите са представени графично, техните форми варират много), трябва да използваме „стохастичен градиентен низход“, за да намалим изчислителната тежест и да постигнем по-бързи итерации. Фигурите по-долу дефинират изпъкнали и неизпъкнали проблеми. Това може да се постигне чрез вземане на проба от партидата (да кажем една проба от 10 000 проби), като по този начин се намалява изчислителното изчисление на градиента върху всички данни и ни спестява известно време.

Подход 2

При този подход моделът прогнозира загубата с някои необичайни предположения. Моделът приема една или повече характеристики като входни данни и прави прогнози за изчисляване на загубата. Тъй като загубата се изчислява и актуализира във функцията за прогнозиране на модела, стойностите продължават да се доближават до минималните стойности за кривата на загубата.

Отново, целта на този подход е да продължи итерацията и обучението, докато алгоритъмът открие параметрите и се достигне най-ниската стойност за функцията на загубата. И когато това се случи, обикновено се казва, че моделът е конвергирал (състояние, при което няма/малка промяна в обучението и загуба на валидиране с промяна в итерациите).

Ето „връзка“, за да практикувате някои визуализации, за да изчислите скоростта на обучение в TensorFlow.