机器学习十大经典算法之KNN最近邻算法


KNN简介

KNN(K-NearestNeighbor)是机器学习入门级的分类算法,很是简单。它实现将距离近的样本点划为同一类别;KNN中的K指的是近邻个数,也就是最近的K个点 ;根据它距离最近的K个点是什么类别来判断属于哪一个类别。html

KNN算法步骤

咱们有一堆样本点,类别已知,以下图左,蓝色为一类,黄色为另外一类。如今有个新样本点,也就是图中黑色的叉叉,须要判断它属于哪一类。node

KNN作的就是选出距离目标点黑叉叉距离最近的k个点,看这k个点的大多数颜色是什么颜色。这里的距离用欧氏距离来度量。git

给定两个样本 ,其中n表示特征数 ,X和Y两个向量间的欧氏距离(Euclidean Distance)表示为:github

当咱们设定k=1时,距离目标点最近的点是黄色,就认为目标点属于黄色那类。当k设为3时,咱们能够看到距离最近的三个点,有两个是蓝色,一个是黄色,所以认为目标点属于蓝色的一类。web

因此,K的选择不一样,获得的结果也会不一样。算法

K值选择

KNN的决策边界通常不是线性的,也就是说KNN是一种非线性分类器,以下图。微信

K越小越容易过拟合,当K=1时,这时只根据单个近邻进行预测,若是离目标点最近的一个点是噪声,就会出错,此时模型复杂度高,稳健性低,决策边界崎岖机器学习

可是若是K取的过大,这时与目标点较远的样本点也会对预测起做用,就会致使欠拟合,此时模型变得简单,决策边界变平滑编辑器

寻找最合适的K值,比较经典的方法是N折交叉验证
ide

上图展现的是5折交叉验证,也就是将已知样本集等分为5份,其中4份做为训练集,1份为验证集,作出5个模型

具体过程

将样本数据按照必定比例,拆分出训练用的数据和验证用的数据,好比6:4拆分出部分训练数据和验证数据,从选取一个较小的K值开始,不断增长K的值,而后计算验证集合的方差,最终找到一个比较合适的K值。

经过交叉验证计算方差后你大体会获得下面这样的图:

由上图可知,当你增大k的时候,通常错误率会先下降,由于有周围更多的样本能够借鉴了,分类效果会变好。但注意,和K-means不同,当K值更大的时候,错误率会更高。这也很好理解,好比说你一共就35个样本,当你K增大到30的时候,KNN基本上就没意义了。

因此选择K点的时候能够选择一个较大的临界K点,当它继续增大或减少的时候,错误率都会上升,好比图中的K=10。

PS:处理数据要先对其进行标准化

也能够采用标准差标准化

KNN优缺点

KNN的优势在于原理简单,容易实现,对于边界不规则数据的分类效果好于线性分类器。

缺点:

  • 要保存所有数据集,须要大量的存储空间;
  • 须要计算每一个未知点到所有已知点的距离,很是耗时;
  • 对于不平衡数据效果很差,须要进行改进;
  • 不适用于特征空间维度高的状况。

代码实现

伪代码

对测试样本点进行如下操做:

(1)计算已知类别数据集中的点与当前点之间的距离;

(2)按照距离递增次序排序;

(3)选取与当前点距离最小的k个点;

(4)肯定前k个点所在类别的出现频率;

(5)返回前k个点出现频率最高的类别做为当前点的预测分类。

具体实现

https://github.com/GreedyAIAcademy/Machine-Learning/tree/master/2.KNN

参考文章

https://www.cnblogs.com/listenfwind/p/10311496.html


本文分享自微信公众号 - 计算机视觉CV(jsjsjcv)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索