Моделът на линейна дискриминация (известен още като: Линеен дискриминантен анализ/LDA) е изобретен от сър Роналд Фишър през 1936 г. Той е свързан с дисперсионния анализ (ANOVA) и регресията.
Въпреки че е прост и класически линеен модел, който вече не е толкова популярен в сравнение с други сложни модели за машинно обучение, математическият подход зад този модел обаче е очарователен.

Нека се потопим в него.

Класификация и намаляване на размерите

Какво е класификация?

Намаляването на размерите обикновено се счита за стъпка на предварителна обработка при конструирането на класификационен модел.
Не е необходимо да запомняме всеки детайл от Батман, за да кажем, че той не е Капитан Америка.
Вместо това можем просто да разпознаем че цветовата схема на Капитан Америка е червено и синьо, но Батман вместо това е черен.
Когато проектираме модел за машинно обучение, бихме искали също така да улавя основните „уникални идентификатори“ между два класа, за да избегнем пренастройването. Способността за обобщение следва принципа на бръснача на Окамс.

Бръсначът на Окамс: „ обектите не трябва да се умножават извън необходимостта

Нека да разгледаме този пример. Има няколко червени и черни точки в двумерни координатни системи. Оста X и Y се използва за прекодиране на местоположението им в пространството.
Използвайки принципа на бръснача на Окамс, бихме могли да използваме само една ос, за да запишем тези точки, което е достатъчно, за да постигнем нашата цел (класификация).

Тъй като стойностите на X и Y са съответно проекциите на тези точки върху една ос, можем да използваме Find one axis за новата базова линия на проекцията.

Тази ос Z не е кандидатът, тъй като червените и черните проекции са групирани заедно.

Дизайн на приложения и интеграция на данни

Монолитната архитектура е традиционно, самостоятелно приложение. Той е много лесен за внедряване и сравнително лесен за разработване. Уредът за балансиране на натоварването може да бъде разгърнат за увеличаване на мащабируемостта.

Недостатъкът на монолитната архитектура обаче също е значителен.
Имайки предвид, че имаме 500 клиента, взаимодействащи с нашето приложение за електронна търговия, 200 от тях добавят артикули към количката за пазаруване. 50 от тях намират кода за отстъпка и накрая са направени 75 поръчки.
С балансиращото натоварване приложението може да бъде мащабирано, за да обслужва пиковото търсене на 500 клиента. Всички тези 500 екземпляра ще осигурят потребителски интерфейс, продуктов каталог, количка за пазаруване, отстъпки и услуги за поръчки, въпреки че в крайна сметка се нуждаем само от 50 услуги за отстъпки и 75 услуги за поръчки.
Тези дублирани услуги въвеждат ненужно забавяне, режийна комуникация и използване на ресурси .

Около 2011 г. беше създадена модерната микросервизна архитектура, която има за цел да разреши това тясно място.
Идеята е много проста. Бизнес логиката е разделена на различни функционални компоненти. Тези функционални компоненти се наричат ​​микроуслуги. В гореспоменатия ни пример само 200 услуги за пазарска количка, 50 услуги за отстъпки и 75 услуги за поръчки ще се завъртят, за да обслужват нуждите на клиентите.
Това е високоефективна и добре организирана архитектура.

„ Свързването “ описва връзките между модулите, а „ сближаването “ описва връзките в тях.

В микроуслугата свързаният код на същия модул/клас е свързан възможно най-близо, докато кодът между различни модули/класове трябва да бъде независим, доколкото е възможно.

Свързване и кохезив в линейния дискриминационен модел

Сега може да сте любопитни, защо това има нещо общо с линейния дискриминационен модел?
Нека намерим дефиницията за свързване и кохезия в LDA.

Силно кохезивна

Тъй като Cohesive се отнася до тесните връзки в рамките на класа, ние искаме червените точки след проекцията да се групират заедно и да бъдат същите като сините точки.

Дисперсията е мярка за дисперсия, която отчита разпространението на всички точки от данни в набор от данни.

Математически дисперсията може да илюстрира нашите цели. По принцип искаме дисперсията на всеки клас да е възможно най-малка, което представлява всички точки, събиращи се към неговия център (средно).

Силно кохезивно означава, че искаме дисперсията както на клас 1 (червени точки), така и на клас 2 (сини точки) да бъде възможно най-голяма.

Слабо свързани

Разстоянието между два класа, след проекти, представлява връзката между тези два класа. Искаме това разстояние да е възможно най-голямо, така че повдигаме разстоянието на квадрат, за да игнорираме отрицателната стойност след приспадането.

Крайна целева функция

Комбинирайки тези две цели заедно, можем да формираме нашата крайна целева функция, която постига едновременно сближаване и свързване.

Като минимизираме тази целева функция, можем да постигнем нашата основна цел.

Първоначално публикувано на https://github.com.

Първоначално gitbook на адрес https://gitbook.com.