Свързани публикации 'knn'
Сравняване на алгоритми за машинно обучение
В тази публикация се опитвам да сравня ефективността на различни класификатори за машинно обучение, предоставени от библиотеката Scikit Learn. Опитвам се да сравня ефективността на K-най-близките съседи, многослойния персептрон, дървото на решенията и машините за поддържащи вектори при класифициране на набор от данни за диабет, който изтеглих от Kaggle.
Данните
Наборът от данни, който използвам тук, е наборът от данни за диабета на индианците Pima от Kaggle . Нека първо да..
Мащабиране на вашите функции
Мащабирането е важен процес на инженеринг на функции.
С помощта на мащабиране се опитваме да приведем данните си в същия диапазон.
Някои видове методи за мащабиране са:
· Минимално-максимална скала : (диапазон от 0 до 1)
X = (X-min от X) / Диапазон
· Стандартизация : (Диапазон -3 и 3)
Z = (X-средно на X)/ (Стандартно отклонение на X)
· Десетично мащабиране (диапазон от -1 до 1)
X = X /(10^d)
d = Брой цифри
тоест за стойност да речем 4997, d= 4
следователно X/ (10⁴)..
KNN (K най-близки съседи)
K Теория за най-близките съседи
Алгоритъмът на k-най-близкия съсед (KNN) е непараметричен алгоритъм за контролирано обучение, който е лесен за конструиране. Въпреки че може да се използва за решаване както на проблеми с класификацията , така и с регресията , най-често се използва в бизнеса за решаване на трудности с класификацията.
В този алгоритъм ще търсим подобни наблюдения, които са най-близо до очакваните точки от данни. Когато моделът прогнозира нова точка от данни, той търси в..
Изследване на алгоритъм за k-най-близки съседи (k-NN): Изчерпателно ръководство с персонализиране
Въведение
Алгоритъмът k-най-близки съседи (k-NN) е популярен и интуитивен алгоритъм за машинно обучение, използван както за задачи за класификация, така и за регресия. Той работи на принципа, че подобни точки от данни са склонни да споделят общи свойства. В тази статия ще се задълбочим в алгоритъма k-NN стъпка по стъпка и ще проучим различни персонализации, които могат да бъдат приложени за подобряване на неговата производителност.
Стъпка 1: Разбиране на алгоритъма k-NN Алгоритъмът k-NN..
K Най-близки съседи — Обяснение и изпълнение
Въведение
K Nearest Neighbors е алгоритъм за контролирано обучение , базиран на предположението, че точките в околността (т.е. най-близките точки) принадлежат към един и същи клас.
Следователно, предвид положително цяло число k и тестово наблюдение, KNN идентифицира k най-близките точки и след това може да направи изводи въз основа на тези най-близки цели.
Забележете, че може да се използва както за проблеми с класификация , така и за регресия . По-специално, за..
Как да изградите KNN от нулата в Python
... добре, поне без KNeighborsClassifier на sklearn.
k-Най-близки съседи
k-Nearest Neighbors (KNN) е контролиран алгоритъм за машинно обучение, който може да се използва или за задачи за регресия, или за класификация. KNN е непараметрична, което означава, че алгоритъмът не прави предположения относно основните разпределения на данните. Това е в контраст с техника като линейната регресия, която е параметрична и изисква от нас да намерим функция, която описва връзката между зависимите..
Основи на машинното обучение, част 5- KNN (K най-близки съседи)
В тази статия ще говорим за много известен алгоритъм за машинно обучение, който се използва както за класификация, така и за регресия.
„Птиците от перушина се събират заедно“
Алгоритъмът KNN работи при предположението, че данните с подобни входове ще имат подобни изходи. Алгоритъмът KNN предполага, че подобни неща съществуват в непосредствена близост. С други думи, подобни неща са по-близо едно до друго.
Сега въпросът е как да се измерват приликите между точките?
Има много..