Публикации по теме 'knn'
Сравнение алгоритмов машинного обучения
В этом посте я пытаюсь сравнить производительность различных классификаторов машинного обучения, предоставляемых библиотекой Scikit Learn. Я пытаюсь сравнить производительность K-ближайших соседей, многослойного персептрона, дерева решений и машин опорных векторов при классификации набора данных о диабете, который я скачал с Kaggle.
Данные
Набор данных, который я использую здесь, — это набор данных о диабете индейцев пима от Kaggle . Давайте сначала посмотрим на набор данных...
Масштабирование ваших функций
Масштабирование - важный процесс проектирования функций.
С помощью масштабирования мы стараемся привести наши данные в один и тот же диапазон.
Некоторые типы методов масштабирования:
· Шкала мин-макс : (от 0 до 1)
X = (X-мин. Из X) / Диапазон
· Стандартизация : (диапазон -3 и 3)
Z = (X-среднее X) / (Стандартное отклонение X)
· Десятичное масштабирование (от -1 до 1)
X = X /(10^d)
d = количество цифр
то есть для значения, скажем, 4997, d = 4
поэтому X / (10⁴) = 0,4..
KNN (K ближайших соседей)
K Теория ближайших соседей
Алгоритм k-ближайших соседей (KNN) — это непараметрический алгоритм обучения с учителем, который легко построить. Хотя его можно использовать для решения как задач классификации , так и регрессии , чаще всего он используется в бизнесе для решения проблем классификации.
В этом алгоритме мы будем искать похожие наблюдения, наиболее близкие к ожидаемым точкам данных. Когда модель предсказывает новую точку данных, она ищет в обучающем наборе ближайших соседей..
Изучение алгоритма k-ближайших соседей (k-NN): подробное руководство с настройкой
Введение
Алгоритм k-ближайших соседей (k-NN) — это популярный и интуитивно понятный алгоритм машинного обучения, используемый как для задач классификации, так и для задач регрессии. Он работает по принципу, согласно которому сходные точки данных, как правило, имеют общие свойства. В этой статье мы шаг за шагом углубимся в алгоритм k-NN и рассмотрим различные настройки, которые можно применить для повышения его производительности.
Шаг 1: Понимание алгоритма k-NN Алгоритм k-NN можно..
K Ближайшие соседи — Объяснение и реализация
Введение
K ближайших соседей — это алгоритм обучения под наблюдением , основанный на предположении, что точки в окрестности (то есть ближайшие точки) принадлежат к одному и тому же классу.
Таким образом, учитывая положительное целое число k и тестовое наблюдение, KNN определяет k ближайших точек, а затем может делать выводы на основе этих ближайших целей.
Обратите внимание, что его можно использовать как для задач классификации , так и для регрессии . В частности, для..
Как построить KNN с нуля на Python
… Ну, по крайней мере, без KNeighborsClassifier от sklearn.
k-Ближайшие соседи
k-Nearest Neighbours (KNN) - это контролируемый алгоритм машинного обучения, который можно использовать для задач регрессии или классификации. KNN не является параметрическим, что означает, что алгоритм не делает предположений о базовых распределениях данных. Это отличается от метода линейной регрессии, который является параметрическим и требует от нас найти функцию, описывающую взаимосвязь между..
Основы машинного обучения, часть 5 - KNN (K ближайших соседей)
В этой статье мы поговорим об очень известном алгоритме машинного обучения, который используется как для классификации, так и для регрессии.
"Рыбак рыбака слетается в стаю"
Алгоритм KNN работает на предположении, что данные, имеющие аналогичные входные данные, будут иметь аналогичные выходные данные. Алгоритм KNN предполагает, что подобные вещи существуют в непосредственной близости. Другими словами, подобные вещи ближе друг к другу.
Теперь вопрос в том, как измерить сходство..