机器学习通常的数据集会划分为两个部分:算法
划分比例:api
想一下以前作的特征工程的步骤?数组
咱们把特征工程的接口称之为转换器,其中转换器调用有这么几种形式dom
在sklearn中,估计器(estimator)是一个重要的角色,是一类实现了算法的API机器学习
若是一个样本在特征空间中的k个最类似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。性能
两个样本的距离能够经过以下公式计算,又叫欧式距离学习
假设咱们有如今几部电影测试
其中? 号电影不知道类别,如何去预测?咱们能够利用K近邻算法的思想spa
def knn_iris(): """ KNN算法对鸢尾花进行分类 """
#获取数据
iris=load_iris() #划分数据集
x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=3) #特征工程:标准化
transfer=StandardScaler() x_train=transfer.fit_transform(x_train) x_test = transfer.transform(x_test) #KNN算法预估器
estimator=KNeighborsClassifier(n_neighbors=3) estimator.fit(x_train,y_train) #模型评估
#方法1:直接比对真实值和预测值
y_predict=estimator.predict(x_test) print("y_predict:\n",y_predict) print("直接比对真实值和预测值:\n",y_test==y_predict) #方法2:计算准确率
score=estimator.score(x_test,y_test) print("准确率为:\n",score) return None
结果为:code
k值取很小:容易受到异常点的影响
k值取很大:受到样本均衡的问题
距离计算上面,时间复杂度高
交叉验证目的:为了让被评估的模型更加准确可信
交叉验证:将拿到的训练数据,分为训练和验证集。如下图为例:将数据分红5份,其中一份做为验证集。而后通过5次(组)的测试,每次都更换不一样的验证集。即获得5组模型的结果,取平均值做为最终结果。又称5折交叉验证。
咱们以前知道数据分为训练集和测试集,可是为了让从训练获得模型结果更加准确。作如下处理
一般状况下,有不少参数是须要手动指定的(如k-近邻算法中的K值),这种叫超参数。可是手动过程繁杂,因此须要对模型预设几种超参数组合。每组超参数都采用交叉验证来进行评估。最后选出最优参数组合创建模型。
def knn_iris_gscv(): """ KNN算法对鸢尾花进行分类,添加网格搜索和交叉验证 """
#获取数据
iris=load_iris() #划分数据集
x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=36) #特征工程:标准化
transfer=StandardScaler() x_train=transfer.fit_transform(x_train) x_test = transfer.transform(x_test) #KNN算法预估器
estimator=KNeighborsClassifier() #加上网格搜索与交叉验证
param_dict={"n_neighbors":[1,3,5,7,9,11]} estimator=GridSearchCV(estimator,param_grid=param_dict,cv=10) estimator.fit(x_train,y_train) #模型评估
#方法1:直接比对真实值和预测值
y_predict=estimator.predict(x_test) print("y_predict:\n",y_predict) print("直接比对真实值和预测值:\n",y_test==y_predict) #方法2:计算准确率
score=estimator.score(x_test,y_test) print("准确率为:\n",score) print("最佳参数:\n", estimator.best_params_) print("最佳结果:\n", estimator.best_score_) print("最佳估计器:\n", estimator.best_estimator_) print("每次交叉验证的结果为:\n", estimator.cv_results_) return None
结果为: