支持向量机高斯核调参小结

在支持向量机(如下简称SVM)的核函数中,高斯核(如下简称RBF)是最经常使用的,从理论上讲, RBF必定不比线性核函数差,可是在实际应用中,却面临着几个重要的超参数的调优问题。若是调的很差,可能比线性核函数还要差。因此咱们实际应用中,能用线性核函数获得较好效果的都会选择线性核函数。若是线性核很差,咱们就须要使用RBF,在享受RBF对非线性数据的良好分类效果前,咱们须要对主要的超参数进行选取。本文咱们就对scikit-learn中 SVM RBF的调参作一个小结。python

1、SVM RBF 主要超参数概述    

    若是是SVM分类模型,这两个超参数分别是惩罚系数\(C\)和RBF核函数的系数\(\gamma\)。固然若是是nu-SVC的话,惩罚系数\(C\)代替为分类错误率上限nu, 因为惩罚系数\(C\)和分类错误率上限nu起的做用等价,所以本文只讨论带惩罚系数C的分类SVM。git

    惩罚系数\(C\)即咱们在以前原理篇里讲到的松弛变量的系数。它在优化函数里主要是平衡支持向量的复杂度和误分类率这二者之间的关系,能够理解为正则化系数。当\(C\)比较大时,咱们的损失函数也会越大,这意味着咱们不肯意放弃比较远的离群点。这样咱们会有更加多的支持向量,也就是说支持向量和超平面的模型也会变得越复杂,也容易过拟合。反之,当\(C\)比较小时,意味咱们不想理那些离群点,会选择较少的样原本作支持向量,最终的支持向量和超平面的模型也会简单。scikit-learn中默认值是1。github

    另外一个超参数是RBF核函数的参数\(\gamma\)。回忆下RBF 核函数\(K(x, z) = exp(-\gamma||x-z||^2)\;\;\gamma>;0\)\(\gamma\)主要定义了单个样本对整个分类超平面的影响,当\(\gamma\)比较小时,单个样本对整个分类超平面的影响比较小,不容易被选择为支持向量,反之,当\(\gamma\)比较大时,单个样本对整个分类超平面的影响比较大,更容易被选择为支持向量,或者说整个模型的支持向量也会多。scikit-learn中默认值是\(\frac{1}{样本特征数}\)数组

    若是把惩罚系数\(C\)和RBF核函数的系数\(\gamma\)一块儿看,当\(C\)比较大, \(\gamma\)比较大时,咱们会有更多的支持向量,咱们的模型会比较复杂,容易过拟合一些。若是\(C\)比较小 , \(\gamma\)比较小时,模型会变得简单,支持向量的个数会少。微信

    以上是SVM分类模型,咱们再来看看回归模型。dom

 

    SVM回归模型的RBF核比分类模型要复杂一点,由于此时咱们除了惩罚系数\(C\)和RBF核函数的系数\(\gamma\)以外,还多了一个损失距离度量\(\epsilon\)。若是是nu-SVR的话,损失距离度量\(\epsilon\)代替为分类错误率上限nu,因为损失距离度量\(\epsilon\)和分类错误率上限nu起的做用等价,所以本文只讨论带距离度量\(\epsilon\)的回归SVM。函数

    对于惩罚系数\(C\)和RBF核函数的系数\(\gamma\),回归模型和分类模型的做用基本相同。对于损失距离度量\(\epsilon\),它决定了样本点到超平面的距离损失,当\(\epsilon\)比较大时,损失\(|y_i - w \bullet \phi(x_i ) -b| - \epsilon\)较小,更多的点在损失距离范围以内,而没有损失,模型较简单,而当\(\epsilon\)比较小时,损失函数会较大,模型也会变得复杂。scikit-learn中默认值是0.1。优化

    若是把惩罚系数\(C\),RBF核函数的系数\(\gamma\)和损失距离度量\(\epsilon\)一块儿看,当\(C\)比较大, \(\gamma\)比较大,\(\epsilon\)比较小时,咱们会有更多的支持向量,咱们的模型会比较复杂,容易过拟合一些。若是\(C\)比较小 , \(\gamma\)比较小,\(\epsilon\)比较大时,模型会变得简单,支持向量的个数会少。spa

2、SVM RBF 主要调参方法

    对于SVM的RBF核,咱们主要的调参方法都是交叉验证。具体在scikit-learn中,主要是使用网格搜索,即GridSearchCV类。固然也可使用cross_val_score类来调参,可是我的以为没有GridSearchCV方便。本文咱们只讨论用GridSearchCV来进行SVM的RBF核的调参。code

     咱们将GridSearchCV类用于SVM RBF调参时要注意的参数有:

    1) estimator :即咱们的模型,此处咱们就是带高斯核的SVC或者SVR

    2) param_grid:即咱们要调参的参数列表。 好比咱们用SVC分类模型的话,那么param_grid能够定义为{"C":[0.1, 1, 10], "gamma": [0.1, 0.2, 0.3]},这样咱们就会有9种超参数的组合来进行网格搜索,选择一个拟合分数最好的超平面系数。

    3) cv: S折交叉验证的折数,即将训练集分红多少份来进行交叉验证。默认是3,。若是样本较多的话,能够适度增大cv的值。

    网格搜索结束后,咱们能够获得最好的模型estimator, param_grid中最好的参数组合,最好的模型分数。

    下面我用一个具体的分类例子来观察SVM RBF调参的过程

3、一个SVM RBF分类调参的例子

    这里咱们用一个实例来说解SVM RBF分类调参。推荐在ipython notebook运行下面的例子。

    完整代码参看个人github:https://github.com/nickchen121/machinelearning/blob/master/classic-machine-learning/svm_classifier.ipynb

    首先咱们载入一些类的定义。

import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets, svm
from sklearn.svm import SVC
from sklearn.datasets import make_moons, make_circles, make_classification
%matplotlib inline

    接着咱们生成一些随机数据来让咱们后面去分类,为了数据难一点,咱们加入了一些噪音。生成数据的同时把数据归一化

X, y = make_circles(noise=0.2, factor=0.5, random_state=1);
from sklearn.preprocessing import StandardScaler
X = StandardScaler().fit_transform(X)

    咱们先看看个人数据是什么样子的,这里作一次可视化以下:

from matplotlib.colors import ListedColormap
cm = plt.cm.RdBu
cm_bright = ListedColormap(['#FF0000', '#0000FF'])
ax = plt.subplot()

ax.set_title("Input data")
# Plot the training points
ax.scatter(X[:, 0], X[:, 1], c=y, cmap=cm_bright)
ax.set_xticks(())
ax.set_yticks(())
plt.tight_layout()
plt.show()

    生成的图以下, 因为是随机生成的因此若是你跑这段代码,生成的图可能有些不一样。

 

    好了,如今咱们要对这个数据集进行SVM RBF分类了,分类时咱们使用了网格搜索,在C=(0.1,1,10)和gamma=(1, 0.1, 0.01)造成的9种状况中选择最好的超参数,咱们用了4折交叉验证。这里只是一个例子,实际运用中,你可能须要更多的参数组合来进行调参。

from sklearn.model_selection import GridSearchCV
grid = GridSearchCV(SVC(), param_grid={"C":[0.1, 1, 10], "gamma": [1, 0.1, 0.01]}, cv=4)
grid.fit(X, y)
print("The best parameters are %s with a score of %0.2f"
      % (grid.best_params_, grid.best_score_))

    最终的输出以下:

The best parameters are {'C': 10, 'gamma': 0.1} with a score of 0.91

    也就是说,经过网格搜索,在咱们给定的9组超参数中,C=10, Gamma=0.1 分数最高,这就是咱们最终的参数候选。

    到这里,咱们的调参举例就结束了。不过咱们能够看看咱们的普通的SVM分类后的可视化。这里咱们把这9种组合各个训练后,经过对网格里的点预测来标色,观察分类的效果图。代码以下:

x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max,0.02),
                     np.arange(y_min, y_max, 0.02))

for i, C in enumerate((0.1, 1, 10)):
    for j, gamma in enumerate((1, 0.1, 0.01)):
        plt.subplot()       
        clf = SVC(C=C, gamma=gamma)
        clf.fit(X,y)
        Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])

        # Put the result into a color plot
        Z = Z.reshape(xx.shape)
        plt.contourf(xx, yy, Z, cmap=plt.cm.coolwarm, alpha=0.8)

        # Plot also the training points
        plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.coolwarm)

        plt.xlim(xx.min(), xx.max())
        plt.ylim(yy.min(), yy.max())
        plt.xticks(())
        plt.yticks(())
        plt.xlabel(" gamma=" + str(gamma) + " C=" + str(C))
        plt.show()

    生成的9个组合的效果图以下:


 

     以上就是SVM RBF调参的一些总结,但愿能够帮到朋友们。

 

(欢迎转载,转载请注明出处。欢迎沟通交流: 微信:nickchen121)

相关文章
相关标签/搜索