关于k-NN算法的总结及我的理解

k-NN算法的三要素:k值的选择,距离度量,分类决策规则。web k值的选择: k值选的太小,训练偏差会很小,但测试偏差会对应增长,这是明显的过拟合现象。k值选的过大,训练偏差过大,测试偏差也会很大,明显的欠拟合现象。 K近邻法不具备显示的学习过程,也就是没有显示的训练过程,怎么会有训练偏差呢?其实从原理上仍是挺容易理解的,K近邻法肯定后k值大小,距离度量和分类决策以后,数据集自己就可使用该模型进
相关文章
相关标签/搜索