Компромис от отклонение и отклонение и разграничаване на MSE
Средната квадратна грешка или MSE се използва по време на множество етапи на регресионен анализ. Тази множественост (в дефиницията и употребата) причинява неяснота, когато се обсъжда точната роля на MSE в регресионен проблем.
В основата си MSE е съставен момент от втори ред на отклонения между емпирично и теоретично наблюдение. Това звучи абсурдно неразбираемо и е така, но формалността се дължи на споменатата по-горе множественост.
При регресия, оценител 𝜗 се използва за оценка на оценка и 𝜃 картографиране на случайна променлива x към прогнозирано ŷ, приближаващо наблюдавано y. Всеки оценител 𝜗 има свързана целева функция, наречена функция на загуба, когато е минимизирана, и функция на възнаграждение, когато е максимизирана. MSE се прилага като мярка за ефективността на 𝜗, метрика за ефективността на ŷ и като функция на загубата.
MSE като мярка за ефективност за 𝜗 се определя като очакваната стойност на грешка e = (𝜗- 𝜃)
Като функция на загуба се използва MSE, минимизиране на остатъците от ŷ: e = (y - ŷ)
За да направим това, задаваме производната равна на нула.
От горното извеждане ние демонстрираме компромис с отклонение като следствие от минимизирането на MSE като функция на загубата. Компромисът на отклонението от отклонението често се определя като недостатък или проблем; в действителност това е характеристика и причината MSE да бъде избрана като функция на загубата. MSE ни позволява да оптимизираме и двете характеристики в нашите данни (пристрастност и вариация) и да измерваме колко добре ще се обобщи нашият модел.