GridSearchCV,它存在的意义就是自动调参,只要把参数输进去,就能给出最优化的结果和参数。可是这个方法适合于小数据集,一旦数据的量级上去了,很可贵出结果。这个时候就是须要动脑筋了。数据量比较大的时候能够使用一个快速调优的方法——坐标降低。它实际上是一种贪心算法:拿当前对模型影响最大的参数调优,直到最优化;再拿下一个影响最大的参数调优,如此下去,直到全部的参数调整完毕。这个方法的缺点就是可能会调到局部最优而不是全局最优,可是省时间省力,巨大的优点面前,仍是试一试吧,后续能够再拿bagging再优化。python
一般算法不够好,须要调试参数时必不可少。好比SVM的惩罚因子C,核函数kernel,gamma参数等,对于不一样的数据使用不一样的参数,结果效果可能差1-5个点,sklearn为咱们提供专门调试参数的函数grid_search。算法
参数说明数组
class sklearn.model_selection.GridSearchCV(estimator, param_grid, scoring=None, fit_params=None, n_jobs=1, iid=True, refit=True, cv=None, verbose=0, pre_dispatch=‘2*n_jobs’, error_score=’raise’, return_train_score=’warn’)dom
(1) estimator函数
选择使用的分类器,而且传入除须要肯定最佳的参数以外的其余参数。每个分类器都须要一个scoring参数,或者score方法:estimator=RandomForestClassifier(min_samples_split=100,min_samples_leaf=20,max_depth=8,max_features='sqrt',random_state=10),性能
(2) param_grid学习
须要最优化的参数的取值,值为字典或者列表,例如:param_grid =param_test1,param_test1 = {'n_estimators':range(10,71,10)}。测试
(3) scoring=None优化
模型评价标准,默认None,这时须要使用score函数;或者如scoring='roc_auc',根据所选模型不一样,评价准则不一样。字符串(函数名),或是可调用对象,须要其函数签名形如:scorer(estimator, X, y);若是是None,则使用estimator的偏差估计函数。spa
(4) fit_params=None
(5) n_jobs=1
n_jobs: 并行数,int:个数,-1:跟CPU核数一致, 1:默认值
(6) iid=True
iid:默认True,为True时,默认为各个样本fold几率分布一致,偏差估计为全部样本之和,而非各个fold的平均。
(7) refit=True
默认为True,程序将会以交叉验证训练集获得的最佳参数,从新对全部可用的训练集与开发集进行,做为最终用于性能评估的最佳模型参数。即在搜索参数结束后,用最佳参数结果再次fit一遍所有数据集。
(8) cv=None
交叉验证参数,默认None,使用三折交叉验证。指定fold数量,默认为3,也能够是yield训练/测试数据的生成器。
(9) verbose=0, scoring=None
verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每一个子模型都输出。
(10) pre_dispatch=‘2*n_jobs’
指定总共分发的并行任务数。当n_jobs大于1时,数据将在每一个运行点进行复制,这可能致使OOM,而设置pre_dispatch参数,则能够预先划分总共的job数量,使数据最多被复制pre_dispatch次
(11) error_score=’raise’
(12) return_train_score=’warn’
若是“False”,cv_results_属性将不包括训练分数
回到sklearn里面的GridSearchCV,GridSearchCV用于系统地遍历多种参数组合,经过交叉验证肯定最佳效果参数。
目的
经过训练集的训练求出所需模型的最佳参数。
import pandas as pd from sklearn.model_selection import GridSearchCV,train_test_split from sklearn.linear_model import LogisticRegression from sklearn.metrics import precision_score,recall_score,f1_score,roc_auc_score,roc_curve import matplotlib.pyplot as plt import warnings warnings.filterwarnings('ignore')#处理警告 data = pd.read_excel('文件路径') data = pd.DataFrame(data) X = data.iloc[:,:-1] Y = data.iloc[:,-1] trainx,testx,trainy,testy = train_test_split(X,Y,test_size=1/3,random_state=3)#random_state至关于随机种子 best_ting = { 'max_iter':[20,40,60,100], 'C':[0.01,0.1,1,10] } # 使用测试集对模型进行验证,并利用GridSearchCV技术对逻辑回归模型进行超参调优, #网格搜索最优超参数 best_g = GridSearchCV(LogisticRegression(),best_ting,cv=5) best_g.fit(trainx,trainy) print(best_g.best_params_)#输出最优参数 best_model = LogisticRegression(max_iter=20,C=10) best_model.fit(trainx,trainy) best_H = best_model.predict(testx) best_yH = best_model.predict_proba(testx) # 并输出测试数据集的精确率、召回率、F1值、AUC值,画出ROC曲线 print('精准率:',precision_score(testy,best_H)) print('召回率:',recall_score(testy,best_H)) print('F1率:',f1_score(testy,best_H)) print('AUC:',roc_auc_score(testy,best_yH[:,-1])) fpr,tpr,theta = roc_curve(testy,best_yH[:,-1]) print('fpr=\n',fpr) print('tpr=\n',tpr) print('theta=\n',theta) #画出ROC曲线 plt.plot(fpr,tpr) plt.show()
主要用来计算ROC面积的
''
sklearn.metrics.roc_curve(y_true, y_score, pos_label=None, sample_weight=None, drop_intermediate=True)
输入:其中y_true为真实标签,y_score为预测几率,或称为置信度。pos_label为正类样本标签,通常为1。
输出:fpr(假正率、1-特效性)、tpr(真正率、灵敏度)、thresholds(阈值)
假正率 = 预测为正类的负样本/全部负类样本,越小越好。
真正率 = 预测为正类的正样本/全部正类样本,越大越好。
'''
#这个还有些不理解,在学习中..
修改于2019-07-1219:28:34
仝渊涛