最基础的分类算法-k近邻算法 kNN简介及Jupyter基础实现及Python实现

k-Nearest Neighbors简介

对于该图来讲,x轴对应的是肿瘤的大小,y轴对应的是时间,蓝色样本表示恶性肿瘤,红色样本表示良性肿瘤,咱们先假设k=3,这个k先不考虑怎么获得,先假设这个k是经过程序员经验获得。程序员

 

假设此时来了一个新的样本绿色,咱们须要预测该样本的数据是良性仍是恶性肿瘤。咱们从训练样本中选择k=3个离新绿色样本最近的样本,以选取的样本点本身的结果进行投票,如图投票结果为蓝色:红色=3:0,因此预测绿色样本可能也是恶性肿瘤。算法

再好比app

 

此时来了一个新样本,咱们选取离该样本最近的三个样本点,根据他们自身的结果进行投票,如图获得蓝色:红色=1:2,那么咱们能够预测该绿色样本可能也是良性肿瘤。spa

基础代码实现

 

 1 #首先导入代码须要的package
 2 import numpy as np  3 import matplotlib  4 import matplotlib.pyplot as plt  5 #此处先使用咱们模拟的数据进行算法的入门模拟
 6 #特征点的集合
 7 raw_data_X = [[3.393533211, 2.331273381],  8               [3.110073483, 1.781539638],  9               [1.343808831, 3.368360954], 10               [3.582294042, 4.679179110], 11               [2.280362439, 2.866990263], 12               [7.423436942, 4.696522875], 13               [5.745051997, 3.533989803], 14               [9.172168622, 2.511101045], 15               [7.792783481, 3.424088941], 16               [7.939820817, 0.791637231] 17  ] 18 #0就表明良性肿瘤,1就表明恶性肿瘤
19 raw_data_y = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1] 20 #咱们使用raw_data_X和raw_data_y做为咱们的训练集
21 X_train = np.array(raw_data_X) #训练数据集的特征 22 Y_train = np.array(raw_data_y) #训练数据集的结果(标签) 23 #此时能够查看两个训练集数据输出显示
24 In[1]: X_train 25 '''
26 Out [1]:array([[3.39353321, 2.33127338], 27  [3.11007348, 1.78153964], 28  [1.34380883, 3.36836095], 29  [3.58229404, 4.67917911], 30  [2.28036244, 2.86699026], 31  [7.42343694, 4.69652288], 32  [5.745052 , 3.5339898 ], 33  [9.17216862, 2.51110105], 34  [7.79278348, 3.42408894], 35  [7.93982082, 0.79163723]]) 36 '''
37 In[2]: Y_train 38 '''
39 Out[2]:array([0, 0, 0, 0, 0, 1, 1, 1, 1, 1]) 40 '''
41 #咱们能够尝试绘制原训练集的散点图
42 plt.scatter(X_train[Y_train == 0, 0],X_train[Y_train == 0,1], color = "red") 43 plt.scatter(X_train[Y_train == 1, 0],X_train[Y_train == 1,1], color = "blue") 44 plt.show() #显示该散点图

 

 

训练集绘制的散点图如上图所示,红色的散点表示为良性肿瘤的样本,蓝色表示为恶性肿瘤的样本rest

1 #此时,来了一个新样本数据 x 
2 x = np.array([8.093607318,3.365731514]) 3 #将新来的样本点绘入图像中,先绘制原训练集散点图像,再使用绿色表示新样本点进行绘制
4 plt.plot(X_train[Y_train == 0, 0],X_train[Y_train == 0, 1], color = "red") 5 plt.plot(X_train[Y_train == 1, 0],X_train[Y_train == 1, 1], color = "blue") 6 plt.plot(x[0],x[1], color = "green") 7 plt.show()

带新样本点绘制的散点图如上图所示code

1 #此时咱们假设根据程序员经验选取 k = 6
2 k = 6
3 #而后咱们须要进行在原训练集中选取k个离新样本点最近的6个样本点
4 #两点之间的距离使用欧拉公式进行计算,

 

 1 #因此根据上图公式咱们能够进行计算全部训练集的样本点与新的绿色样本点的距离
 2 #此处须要使用到开平方根,因此导入相应package
 3 from math import sqrt  4 #使用distances进行存储全部距离值
 5 distances = []  6 # 由于全部的训练集的X Y 信息都存储在X_train中,因此咱们使用for循环进行遍历全部的样本点信息进行计算
 7 for x_train in X_train:  8     #使用d暂存距离
 9     d = sqrt(np.sum((x_train - x) ** 2)) 10     #使用append将距离d存到distances
11  distances.append(d) 12 #上面for循环部分也可以使用列表推导式进行简化代码
13 distances = [sqrt(np.sum((X_train - x) ** 2)) for x_train in X_train] 14 #此时咱们可以输出distances的值进行查看一下
15 In[3]: distances 16 Out[3]: [4.812566907609877, 17  5.229270827235305, 18  6.749798999160064, 19  4.6986266144110695, 20  5.83460014556857, 21  1.4900114024329525, 22  2.354574897431513, 23  1.3761132675144652, 24  0.3064319992975, 25  2.5786840957478887] 26 #此时咱们的distances里面存储全部的训练样本点与新样本点的距离
27 #由于咱们须要找到距离新样本点最近的k(此处k=6)个样本点,全部咱们须要对distances进行排序
28 #此处咱们使用np.argsort对其进行值的索引的排序,就不会对其值逻辑位置进行影响,使用nearest存储排序后的结果
29 nearest = np.argsort(distances) 30 #找到前6个索引对应的值对应的Y_train的值
31 topk_y = [Y_train[i] for i in nearest[:k]] 32 #此时咱们输出topk_y的值
33 In[4]: topk_y 34 Out[4]:[1, 1, 1, 1, 1, 0] 35 #咱们可以看到此时对应的topk_y中存储着离新样本点最近的k个训练样本点的结果(0/1 良性肿瘤/恶性肿瘤)
36 #而后咱们对结果进行“投票”操做,票数最多的结果做为新样本的预测结果(前面已经介绍)
37 #能够调用Collections包中的Counter方法对topk_y进行唱票统计
38 from Collections import Counter 39 votes = Counter(topk_y) 40 #此时咱们可以输出votes的值进行查看
41 In[4]: votes 42 Out[4]: Counter({1: 5, 0: 1}) 43 #咱们可以使用most_common(vaule)方法进行取最大票数的前value位
44 In[5]: votes.most_common(1) 45 Out[5]: [(1, 5)] 46 #查看该输出咱们可以获得
47 predict_y = votes.most_common(1)[0][0] 48 In[6]: predict_y 49 Out[6]: 1
50 #此时kNN算法结束,根据所获得的预测结果,咱们可以预测该新的样本多是恶性肿瘤

 

 Python实现

 1 import numpy as np  2 from math import sqrt  3 from collections import Counter  4 
 5 def kNN_classify(k, X_train, Y_train, x):  6     assert 1<= k <= X_train.shape[0],"k must be valid"
 7     assert X_train.shape[0] == Y_train.shape[0], "the size of X-train must equal to the size of Y_train"
 9     assert X_train.shape[1] == x.shape[0], "the feature number of x must be equal to X_train"
11 
12     distances = [sqrt(np.sum((X_train - x) ** 2)) for x_train in X_train] 13     nearest = np.argsort(distances) 14 
15     topk_y = [Y_train[i] for i in nearest[:k]] 16     votes = Counter(topk_y) 17 
18     return votes.most_common(1)[0][0]
相关文章
相关标签/搜索