Публикации по теме 'knn'


Сравнение алгоритмов машинного обучения
В этом посте я пытаюсь сравнить производительность различных классификаторов машинного обучения, предоставляемых библиотекой Scikit Learn. Я пытаюсь сравнить производительность K-ближайших соседей, многослойного персептрона, дерева решений и машин опорных векторов при классификации набора данных о диабете, который я скачал с Kaggle. Данные Набор данных, который я использую здесь, — это набор данных о диабете индейцев пима от Kaggle . Давайте сначала посмотрим на набор данных...

Масштабирование ваших функций
Масштабирование - важный процесс проектирования функций. С помощью масштабирования мы стараемся привести наши данные в один и тот же диапазон. Некоторые типы методов масштабирования: · Шкала мин-макс : (от 0 до 1) X = (X-мин. Из X) / Диапазон · Стандартизация : (диапазон -3 и 3) Z = (X-среднее X) / (Стандартное отклонение X) · Десятичное масштабирование (от -1 до 1) X = X /(10^d) d = количество цифр то есть для значения, скажем, 4997, d = 4 поэтому X / (10⁴) = 0,4..

KNN (K ближайших соседей)
K Теория ближайших соседей Алгоритм k-ближайших соседей (KNN) — это непараметрический алгоритм обучения с учителем, который легко построить. Хотя его можно использовать для решения как задач классификации , так и регрессии , чаще всего он используется в бизнесе для решения проблем классификации. В этом алгоритме мы будем искать похожие наблюдения, наиболее близкие к ожидаемым точкам данных. Когда модель предсказывает новую точку данных, она ищет в обучающем наборе ближайших соседей..

Изучение алгоритма k-ближайших соседей (k-NN): подробное руководство с настройкой
Введение Алгоритм k-ближайших соседей (k-NN) — это популярный и интуитивно понятный алгоритм машинного обучения, используемый как для задач классификации, так и для задач регрессии. Он работает по принципу, согласно которому сходные точки данных, как правило, имеют общие свойства. В этой статье мы шаг за шагом углубимся в алгоритм k-NN и рассмотрим различные настройки, которые можно применить для повышения его производительности. Шаг 1: Понимание алгоритма k-NN Алгоритм k-NN можно..

K Ближайшие соседи — Объяснение и реализация
Введение K ближайших соседей — это алгоритм обучения под наблюдением , основанный на предположении, что точки в окрестности (то есть ближайшие точки) принадлежат к одному и тому же классу. Таким образом, учитывая положительное целое число k и тестовое наблюдение, KNN определяет k ближайших точек, а затем может делать выводы на основе этих ближайших целей. Обратите внимание, что его можно использовать как для задач классификации , так и для регрессии . В частности, для..

Как построить KNN с нуля на Python
… Ну, по крайней мере, без KNeighborsClassifier от sklearn. k-Ближайшие соседи k-Nearest Neighbours (KNN) - это контролируемый алгоритм машинного обучения, который можно использовать для задач регрессии или классификации. KNN не является параметрическим, что означает, что алгоритм не делает предположений о базовых распределениях данных. Это отличается от метода линейной регрессии, который является параметрическим и требует от нас найти функцию, описывающую взаимосвязь между..

Основы машинного обучения, часть 5 - KNN (K ближайших соседей)
В этой статье мы поговорим об очень известном алгоритме машинного обучения, который используется как для классификации, так и для регрессии. "Рыбак рыбака слетается в стаю" Алгоритм KNN работает на предположении, что данные, имеющие аналогичные входные данные, будут иметь аналогичные выходные данные. Алгоритм KNN предполагает, что подобные вещи существуют в непосредственной близости. Другими словами, подобные вещи ближе друг к другу. Теперь вопрос в том, как измерить сходство..