Компромис от отклонение и отклонение и разграничаване на MSE

Средната квадратна грешка или MSE се използва по време на множество етапи на регресионен анализ. Тази множественост (в дефиницията и употребата) причинява неяснота, когато се обсъжда точната роля на MSE в регресионен проблем.

В основата си MSE е съставен момент от втори ред на отклонения между емпирично и теоретично наблюдение. Това звучи абсурдно неразбираемо и е така, но формалността се дължи на споменатата по-горе множественост.

При регресия, оценител 𝜗 се използва за оценка на оценка и 𝜃 картографиране на случайна променлива x към прогнозирано ŷ, приближаващо наблюдавано y. Всеки оценител 𝜗 има свързана целева функция, наречена функция на загуба, когато е минимизирана, и функция на възнаграждение, когато е максимизирана. MSE се прилага като мярка за ефективността на 𝜗, метрика за ефективността на ŷ и като функция на загубата.

MSE като мярка за ефективност за 𝜗 се определя като очакваната стойност на грешка e = (𝜗- 𝜃)

Като функция на загуба се използва MSE, минимизиране на остатъците от ŷ: e = (y - ŷ)

За да направим това, задаваме производната равна на нула.

От горното извеждане ние демонстрираме компромис с отклонение като следствие от минимизирането на MSE като функция на загубата. Компромисът на отклонението от отклонението често се определя като недостатък или проблем; в действителност това е характеристика и причината MSE да бъде избрана като функция на загубата. MSE ни позволява да оптимизираме и двете характеристики в нашите данни (пристрастност и вариация) и да измерваме колко добре ще се обобщи нашият модел.