SVM — достаточно простой классификатор, целью которого является создание гиперплоскости для классификации данных. И лучшим гиперпланом будет тот, который оставляет максимальный отрыв от обоих классов.

Наша цель не в том, чтобы снова говорить о теории SVM, но мы поймем различные методы классификации и их результаты, когда они будут применены. Итак, сначала я буду работать с данными Social_Network_Ads.csv, чтобы классифицировать погоду, купленную клиентом или нет, а затем проверить точность с помощью путаницы_матрицы. .

https://github.com/halfbloodprince16/Machine-Learning-Algorithms/blob/master/SVM_AdsData.py

Проверьте код по моим ссылкам на git выше.
Теперь давайте посмотрим
1. Линейный классификатор, т.е. classifier = SVC(kernel='linear',random_state=0).
Итак, согласно нашей матрице путаницы мы получили 66 + 24 = 90 правильных и 8 + 2 = 10 неправильных прогнозов и точность 90%.

2. Полиномиальная классификация, т. е.: классификатор = SVC (ядро = «поли», случайное_состояние = 0).

Точность = 86%

3. Классификатор сигмовидной функции: т.е. kernel=’sigmoid’
Точность = 74%

Итак, мы увидели три разные классификации одних и тех же данных. Есть еще одна причина, по которой линейная модель дает точность 90%, потому что наши данные представлены в линейной форме, поэтому линейная классификация лучше всего подходит для этой модели.
Спасибо.