机器学习-简单介绍入门算法kNN

基于Peter Harrington所著《Machine Learning in Action》python

 

kNN,即k-NearestNeighbor算法,是一种最简单的分类算法,拿这个当机器学习、数据挖掘的入门实例是很是合适的。算法

 

简单的解释一下kNN的原理和目的:数组

假设有一种数据,每一条有两个特征值,这些数据总共有两大类,例如:机器学习

[ [1 , 1.1] , [ 1 , 1 ] , [0 , 0 ] , [0 , 0.1] ] 这四个数据(训练数据),种类分别为[ 'A' , 'A' , 'B' ,'B' ]。学习

如今给出一条数据X=[1.1 , 1.1],须要判断这条数据属于A仍是B,这时候就能够用kNN来判断。固然现实中每一个数据可能有不少个特征,总共也有不少分类,这里以最简单的方式来举例。测试

原理也很是简单,将上述训练数据放到坐标轴中,而后计算X到每一个训练数据的距离,从近到远作个排序,选取其中的前N条,判断其中是属于A类的数据多仍是B类的多,若是属于A类的多,那能够认为X属于A;反之亦然。spa

 

下面就用具体的代码来演示一下上面陈述的算法。(基于py,建议直接装anaconda,一劳永逸)rest

创建一个py文件,名称随意。code

先是建立训练数据,这里用py数组代替,实际多是一堆文本或其余格式blog

def createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) lables=['A','A','B','B'] return group,lables

group是训练数据,lables是group的分类数据。

 

kNN算法

 1 def classify0(inX,dataSet,labels,k):  2     dataSetSize = dataSet.shape[0]  3     diffMat=tile(inX,(dataSetSize,1))-dataSet  4     sqDiffMat=diffMat**2
 5     sqDistances= sqDiffMat.sum(axis=1)  6     distances = sqDistances**0.5
 7     sortedDistIndicies = distances.argsort()  8     classCount={}  9     for i in range(k): 10         voteIlabel = labels[sortedDistIndicies[i]] 11         classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
12     sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True) 13     return  sortedClassCount[0][0]

 

inX就是须要判断的数据X,dataSet就是上面构建出来的group,labels是group的分类,k是“从近到远作个排序,选取其中的前N条”中的N,这个会对结果的准确性有必定影响。

这里用如下测试数据结合kNN算法进行讲解。

group,labels = createDataSet() inX= [1.1,1.10] print(classify0(inX,group,labels,3))

 

第2行是计算dataSet的总行数,此时为4。下面3,4,5,6行就是计算inX到每一个训练数据的距离的,用的是欧式距离公式0ρ = sqrt( (x1-x2)^2+(y1-y2)^2 ),高中都学过。只是用矩阵和python的形式写出来可能一时很差看明白。

 

 

3 tile(inX,(dataSetSize,1)) 构建出一个每一行都是inX,有dateSetSize行的矩阵,具体数据以下:

[[ 1.1  ,1.1]
[ 1.1  ,1.1]
[ 1.1  ,1.1]
[ 1.1  ,1.1]]

再用这个矩阵减去dataSet,则会获得inX和每一个训练数据的x,y坐标上的差值。最终的diffMat以下,这就是inX对每一个训练数据的 x1-x2,y1-y2:

[[ 0.1  ,0. ]
[ 0.1  ,0.1]
[ 1.1  ,1.1]
[ 1.1  ,1. ]]

4就是对矩阵作个平方,获得结果以下,即(x1-x2)^2,(y1-y2)^2:

[[ 0.01  ,0. ]
[ 0.01  ,0.01]
[ 1.21  ,1.21]
[ 1.21  ,1. ]]

5就是把矩阵横向相加,获得结果就是(x1-x2)^2+(y1-y2)^2:

[ 0.01  ,0.02 , 2.42,  2.21]

6就是对5获得的(x1-x2)^2+(y1-y2)^2进行开根号,获得inX到每一个训练数据的距离,结果以下:

[ 0.1  ,       0.14142136 , 1.55563492 , 1.48660687]

 

7是对6作个排序,9-11就是选出和inX距离最近的前k个点,统计这k个点中有几个属于A,有几个属于B。在本例中,获得的sortedClassCount为:

 [('A', 2), ('B', 1)]

也就是和inX最近的三个点有两个属于A,一个B。这是,就能够认为inX是属于A类的了。

相关文章
相关标签/搜索