Свързани публикации 'knn'


Сравняване на алгоритми за машинно обучение
В тази публикация се опитвам да сравня ефективността на различни класификатори за машинно обучение, предоставени от библиотеката Scikit Learn. Опитвам се да сравня ефективността на K-най-близките съседи, многослойния персептрон, дървото на решенията и машините за поддържащи вектори при класифициране на набор от данни за диабет, който изтеглих от Kaggle. Данните Наборът от данни, който използвам тук, е наборът от данни за диабета на индианците Pima от Kaggle . Нека първо да..

Мащабиране на вашите функции
Мащабирането е важен процес на инженеринг на функции. С помощта на мащабиране се опитваме да приведем данните си в същия диапазон. Някои видове методи за мащабиране са: · Минимално-максимална скала : (диапазон от 0 до 1) X = (X-min от X) / Диапазон · Стандартизация : (Диапазон -3 и 3) Z = (X-средно на X)/ (Стандартно отклонение на X) · Десетично мащабиране (диапазон от -1 до 1) X = X /(10^d) d = Брой цифри тоест за стойност да речем 4997, d= 4 следователно X/ (10⁴)..

KNN (K най-близки съседи)
K Теория за най-близките съседи Алгоритъмът на k-най-близкия съсед (KNN) е непараметричен алгоритъм за контролирано обучение, който е лесен за конструиране. Въпреки че може да се използва за решаване както на проблеми с класификацията , така и с регресията , най-често се използва в бизнеса за решаване на трудности с класификацията. В този алгоритъм ще търсим подобни наблюдения, които са най-близо до очакваните точки от данни. Когато моделът прогнозира нова точка от данни, той търси в..

Изследване на алгоритъм за k-най-близки съседи (k-NN): Изчерпателно ръководство с персонализиране
Въведение Алгоритъмът k-най-близки съседи (k-NN) е популярен и интуитивен алгоритъм за машинно обучение, използван както за задачи за класификация, така и за регресия. Той работи на принципа, че подобни точки от данни са склонни да споделят общи свойства. В тази статия ще се задълбочим в алгоритъма k-NN стъпка по стъпка и ще проучим различни персонализации, които могат да бъдат приложени за подобряване на неговата производителност. Стъпка 1: Разбиране на алгоритъма k-NN Алгоритъмът k-NN..

K Най-близки съседи — Обяснение и изпълнение
Въведение K Nearest Neighbors е алгоритъм за контролирано обучение , базиран на предположението, че точките в околността (т.е. най-близките точки) принадлежат към един и същи клас. Следователно, предвид положително цяло число k и тестово наблюдение, KNN идентифицира k най-близките точки и след това може да направи изводи въз основа на тези най-близки цели. Забележете, че може да се използва както за проблеми с класификация , така и за регресия . По-специално, за..

Как да изградите KNN от нулата в Python
... добре, поне без KNeighborsClassifier на sklearn. k-Най-близки съседи k-Nearest Neighbors (KNN) е контролиран алгоритъм за машинно обучение, който може да се използва или за задачи за регресия, или за класификация. KNN е непараметрична, което означава, че алгоритъмът не прави предположения относно основните разпределения на данните. Това е в контраст с техника като линейната регресия, която е параметрична и изисква от нас да намерим функция, която описва връзката между зависимите..

Основи на машинното обучение, част 5- KNN (K най-близки съседи)
В тази статия ще говорим за много известен алгоритъм за машинно обучение, който се използва както за класификация, така и за регресия. „Птиците от перушина се събират заедно“ Алгоритъмът KNN работи при предположението, че данните с подобни входове ще имат подобни изходи. Алгоритъмът KNN предполага, че подобни неща съществуват в непосредствена близост. С други думи, подобни неща са по-близо едно до друго. Сега въпросът е как да се измерват приликите между точките? Има много..