k近邻算法中k值得选择

k值得选择会对k近邻的结果产生重大的影响  若是选择较小的K值,就至关于用较小的邻域中的训练实例进行预测,“学习”的近似偏差会减少,只有输入实例较近的训练实例才会对预测结果起做用。但缺点是“学习”的估计偏差会增大,预测结果会对近邻实例点很是敏感。若是邻近的实例点恰巧是噪声,预测就会出错。换句话说,k值得减少就意味着总体模型很是复杂,容易发生过拟合  若是选择较大的k值,就至关于用较大邻域中的训练实
相关文章
相关标签/搜索