在K近邻法(KNN)原理小结这篇文章,咱们讨论了KNN的原理和优缺点,这里咱们就从实践出发,对scikit-learn 中KNN相关的类库使用作一个小结。主要关注于类库调参时的一个经验总结。javascript
在scikit-learn 中,与近邻法这一大类相关的类库都在sklearn.neighbors包之中。KNN分类树的类是KNeighborsClassifier,KNN回归树的类是KNeighborsRegressor。除此以外,还有KNN的扩展,即限定半径最近邻分类树的类RadiusNeighborsClassifier和限定半径最近邻回归树的类RadiusNeighborsRegressor, 以及最近质心分类算法NearestCentroid。css
在这些算法中,KNN分类和回归的类参数彻底同样。限定半径最近邻法分类和回归的类的主要参数也和KNN基本同样。html
比较特别是的最近质心分类算法,因为它是直接选择最近质心来分类,因此仅有两个参数,距离度量和特征选择距离阈值,比较简单,所以后面就再也不专门讲述最近质心分类算法的参数。java
另外几个在sklearn.neighbors包中但不是作分类回归预测的类也值得关注。kneighbors_graph类返回用KNN时和每一个样本最近的K个训练集样本的位置。radius_neighbors_graph返回用限定半径最近邻法时和每一个样本在限定半径内的训练集样本的位置。NearestNeighbors是个大杂烩,它便可以返回用KNN时和每一个样本最近的K个训练集样本的位置,也能够返回用限定半径最近邻法时和每一个样本最近的训练集样本的位置,经常用在聚类模型中。python
本节对K近邻法和限定半径最近邻法类库参数作一个总结。包括KNN分类树的类KNeighborsClassifier,KNN回归树的类KNeighborsRegressor, 限定半径最近邻分类树的类RadiusNeighborsClassifier和限定半径最近邻回归树的类RadiusNeighborsRegressor。这些类的重要参数基本相同,所以咱们放到一块儿讲。git
参数 |
KNeighborsClassifier |
KNeighborsRegressor |
RadiusNeighborsClassifier |
RadiusNeighborsRegressor |
KNN中的K值n_neighbors |
K值的选择与样本分布有关,通常选择一个较小的K值,能够经过交叉验证来选择一个比较优的K值,默认值是5。若是数据是三维一下的,若是数据是三维或者三维如下的,能够经过可视化观察来调参。 | 不适用于限定半径最近邻法 | ||
限定半径最近邻法中的半radius |
不适用于KNN | 半径的选择与样本分布有关,能够经过交叉验证来选择一个较小的半径,尽可能保证每类训练样本其余类别样本的距离较远,默认值是1.0。若是数据是三维或者三维如下的,能够经过可视化观察来调参。 | ||
近邻权weights |
主要用于标识每一个样本的近邻样本的权重,若是是KNN,就是K个近邻样本的权重,若是是限定半径最近邻,就是在距离在半径之内的近邻样本的权重。能够选择"uniform","distance" 或者自定义权重。选择默认的"uniform",意味着全部最近邻样本权重都同样,在作预测时一视同仁。若是是"distance",则权重和距离成反比例,即距离预测目标更近的近邻具备更高的权重,这样在预测类别或者作回归时,更近的近邻所占的影响因子会更加大。固然,咱们也能够自定义权重,即自定义一个函数,输入是距离值,输出是权重值。这样咱们能够本身控制不一样的距离所对应的权重。 通常来讲,若是样本的分布是比较成簇的,即各种样本都在相对分开的簇中时,咱们用默认的"uniform"就能够了,若是样本的分布比较乱,规律很差寻找,选择"distance"是一个比较好的选择。若是用"distance"发现预测的效果的仍是很差,能够考虑自定义距离权重来调优这个参数。 |
|||
KNN和限定半径最近邻法使用的算法algorithm |
算法一共有三种,第一种是蛮力实现,第二种是KD树实现,第三种是球树实现。这三种方法在K近邻法(KNN)原理小结中都有讲述,若是不熟悉能够去复习下。对于这个参数,一共有4种可选输入,‘brute’对应第一种蛮力实现,‘kd_tree’对应第二种KD树实现,‘ball_tree’对应第三种的球树实现, ‘auto’则会在上面三种算法中作权衡,选择一个拟合最好的最优算法。须要注意的是,若是输入样本特征是稀疏的时候,不管咱们选择哪一种算法,最后scikit-learn都会去用蛮力实现‘brute’。 我的的经验,若是样本少特征也少,使用默认的 ‘auto’就够了。 若是数据量很大或者特征也不少,用"auto"建树时间会很长,效率不高,建议选择KD树实现‘kd_tree’,此时若是发现‘kd_tree’速度比较慢或者已经知道样本分布不是很均匀时,能够尝试用‘ball_tree’。而若是输入样本是稀疏的,不管你选择哪一个算法最后实际运行的都是‘brute’。 |
|||
中止建子树的叶子节点阈值leaf_size |
这个值控制了使用KD树或者球树时, 中止建子树的叶子节点数量的阈值。这个值越小,则生成的KD树或者球树就越大,层数越深,建树时间越长,反之,则生成的KD树或者球树会小,层数较浅,建树时间较短。默认是30. 这个值通常依赖于样本的数量,随着样本数量的增长,这个值必需要增长,不然不光建树预测的时间长,还容易过拟合。能够经过交叉验证来选择一个适中的值。 若是使用的算法是蛮力实现,则这个参数能够忽略。 |
|||
距离度量metric |
K近邻法和限定半径最近邻法类可使用的距离度量较多,通常来讲默认的欧式距离(即p=2的闵可夫斯基距离)就能够知足咱们的需求。可使用的距离度量参数有: a) 欧式距离 “euclidean”: $ \sqrt{\sum\limits_{i=1}^{n}(x_i-y_i)^2} $算法 b) 曼哈顿距离 “manhattan”: $ \sum\limits_{i=1}^{n}|x_i-y_i| $浏览器 c) 切比雪夫距离“chebyshev”: $ max|x_i-y_i| (i = 1,2,...n)$ e) 带权重闵可夫斯基距离 “wminkowski”: $ \sqrt[p]{\sum\limits_{i=1}^{n}(w*|x_i-y_i|)^p} $ 其中w为特征权重 f) 标准化欧式距离 “seuclidean”: 即对于各特征维度作了归一化之后的欧式距离。此时各样本特征维度的均值为0,方差为1. g) 马氏距离“mahalanobis”:\(\sqrt{(x-y)^TS^{-1}(x-y)}\) 其中,\(S^{-1}\)为样本协方差矩阵的逆矩阵。当样本分布独立时, S为单位矩阵,此时马氏距离等同于欧式距离 |
|||
距离度量附属参数p |
p是使用距离度量参数 metric 附属参数,只用于闵可夫斯基距离和带权重闵可夫斯基距离中p值的选择,p=1为曼哈顿距离, p=2为欧式距离。默认为2 | |||
距离度量其余附属参数metric_params |
通常都用不上,主要是用于带权重闵可夫斯基距离的权重,以及其余一些比较复杂的距离度量的参数。 | |||
并行处理任务数n_jobs |
主要用于多核CPU时的并行处理,加快创建KNN树和预测搜索的速度。通常用默认的-1就能够了,即全部的CPU核都参与计算。 | 不适用于限定半径最近邻法 | ||
异常点类别选择outlier_label | 不适用于KNN | 主要用于预测时,若是目标点半径内没有任何训练集的样本点时,应该标记的类别,不建议选择默认值 none,由于这样遇到异常点会报错。通常设置为训练集里最多样本的类别。 | 不适用于限定半径最近邻回归
3、使用KNeighborsClassifier作分类的实例完整代码见个人github: https://github.com/nickchen121/machinelearning/blob/master/classic-machine-learning/knn_classifier.ipynb 3.1 生成随机数据首先,咱们生成咱们分类的数据,代码以下: import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets.samples_generator import make_classification # X为样本特征,Y为样本类别输出, 共1000个样本,每一个样本2个特征,输出有3个类别,没有冗余特征,每一个类别一个簇 X, Y = make_classification(n_samples=1000, n_features=2, n_redundant=0, n_clusters_per_class=1, n_classes=3) plt.scatter(X[:, 0], X[:, 1], marker='o', c=Y) plt.show() 先看看咱们生成的数据图以下。因为是随机生成,若是你也跑这段代码,生成的随机数据分布会不同。下面是我某次跑出的原始数据图。 接着咱们用KNN来拟合模型,咱们选择K=15,权重为距离远近。代码以下: from sklearn import neighbors clf = neighbors.KNeighborsClassifier(n_neighbors = 15 , weights='distance') clf.fit(X, Y) 最后,咱们可视化一下看看咱们预测的效果如何,代码以下: from matplotlib.colors import ListedColormap cmap_light = ListedColormap(['#FFAAAA', '#AAFFAA', '#AAAAFF']) cmap_bold = ListedColormap(['#FF0000', '#00FF00', '#0000FF']) #确认训练集的边界 x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1 y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1 #生成随机数据来作测试集,而后做预测 xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02), np.arange(y_min, y_max, 0.02)) Z = clf.predict(np.c_[xx.ravel(), yy.ravel()]) # 画出测试集数据 Z = Z.reshape(xx.shape) plt.figure() plt.pcolormesh(xx, yy, Z, cmap=cmap_light) # 也画出全部的训练集数据 plt.scatter(X[:, 0], X[:, 1], c=Y, cmap=cmap_bold) plt.xlim(xx.min(), xx.max()) plt.ylim(yy.min(), yy.max()) plt.title("3-Class classification (k = 15, weights = 'distance')" ) 生成的图以下,能够看到大多数数据拟合不错,仅有少许的异常点不在范围内。 以上就是使用scikit-learn的KNN相关类库的一个总结,但愿能够帮到朋友们。
(欢迎转载,转载请注明出处。欢迎沟通交流: 微信:nickchen121) |