„Последната ми бележка“ разгледа сигмоидната функция като важен начин за моделите да превърнат входовете в изход между 1 и 0 за неща като прогнозиране и класификация.

Тази седмица ще разгледаме класификационните модели.

Класификация: „Какво е това нещо?“

Класификационните модели имат за цел да определят какво е нещо (кой клас нещо е?).

За да покажем как работят, ще разгледаме прост пример с 2 характеристики на нещото, което се опитваме да класифицираме (x1 и x2) и 3 класа/типа неща, които биха могли да бъдат (клас #1, клас #2 , или клас #3).

За всеки от тези класове нашият класификационен модел ще има три различни хипотетични функции (по една за всеки клас), които ще дадат вероятност нещо да е класът на тази функция.

Първата функция на хипотезата изчислява вероятност нещо да е клас #1, втората функция на хипотеза изчислява вероятност нещо да е клас #2, а третата функция на хипотеза е изчисляване на вероятност нещо да е клас #3.

След това всяка от тези функции се обучава отделно, за да предвиди дали нещо принадлежи към нейния специфичен клас неща.

Когато всяка хипотезна функция е обучена, можем да използваме нашия набор от хипотетични функции, за да предвидим към кой клас неща принадлежи ново нещо.

За да направите това:

  1. Всяка функция приема характеристиките на новото нещо и извежда вероятност, че то принадлежи към своя специфичен клас.
  2. Която и хипотезна функция да й дава най-висока вероятност, това е класът, който нашият класификационен модел ще избере като наша прогноза за кой клас принадлежи новото нещо.

Да кажем, че функция на хипотеза #1 изчислява 41% вероятност новото нещо да принадлежи към клас #1, функция на хипотеза #2 изчислява 73% вероятност новото нещо да принадлежи към клас #2, а функция на хипотеза #3 изчислява 22% вероятност новото нещо да принадлежи към клас #3. Тъй като функция на хипотеза №2 изчислява най-високата вероятност въз основа на характеристиките на новото нещо, нашият модел ще предвиди, че новото нещо е нещо от клас №2.

Припомняне и прецизност

При разработването на класификационни модели два ключови показателя са помняне и прецизност.

Извикване е броят на истинските положителни резултати, разделен на броя на всички положителни резултати (фалшиви отрицателни + истински положителни). С други думи, припомнянето измерва какъв процент от населението на определен тип нещо вашият модел идентифицира като този тип нещо? Можете да си представите ситуации, в които бихте искали висок показател за изземване, като класифициране на дефектни части при производството на самолети.

Прецизността е броят на истинските положителни резултати, разделен на броя на истинските положителни + фалшивите положителни резултати. С други думи, прецизността измерва какъв процент от нещата, класифицирани от вашия модел като принадлежащи към определен клас, всъщност принадлежат към този клас?

И двата показателя обикновено са важни. Ако се фокусирате само върху извикването, можете просто да направите модел, който винаги извежда 100% вероятност и никога няма да пропусне дефектна част от самолета, но също така никога няма да построите самолет, защото всяка част ще бъде класифицирана като дефектна.

Модели за класификация с повече входове и изходи

В нашия илюстративен пример по-горе използвахме само 2 характеристики в нашия класификационен модел, но (и вероятно сте го забелязали) класификационните модели в машинното обучение могат да използват безкраен брой характеристики.

И накрая, в нашия пример нашият модел използва отделни хипотетични функции за всеки клас неща и всяка функция даде само един изход (т.е. вероятността нещо да е специфичен клас неща на тази функция), но по-късно, когато разгледаме невронните мрежи , ще видите, че една невронна мрежа може да има множество изходи и така може да върши работата на множество отделни функции, като има един изход за клас #1, друг изход за клас #2 и т.н.

Следва:

Следващата ми бележка ще разгледа проблема с пренастройването на моделите за машинно обучение и най-добрата практика за избягването му.

Минали публикации в тази серия:

  1. „Към разбиране на високо ниво на машинното обучение“
  2. „Изграждане на интуиция около контролирано машинно обучение с градиентно спускане“
  3. „Помагане на моделите за контролирано обучение да учат по-добре и по-бързо“
  4. Сигмоидната функция като концептуално въведение към функциите за активиране и хипотеза