机器学习笔记——k-近邻算法(一)(摘抄于《机器学习实战》)

k-近邻算法

k-近邻算法(kNN),它的工做原理是:存在一个样本数
据集合,也称做训练样本集,而且样本集中每一个数据都存在标签,即咱们知道样本集中每一数据
与所属分类的对应关系。输入没有标签的新数据后,将新数据的每一个特征与样本集中数据对应的
特征进行比较,而后算法提取样本集中特征最类似数据(最近邻)的分类标签。通常来讲,咱们
只选择样本数据集中前k个最类似的数据,这就是k-近邻算法中k的出处,一般k是不大于20的整数。
最后,选择k个最类似数据中出现次数最多的分类,做为新数据的分类。
 

k-近邻算法的通常流程

(1) 收集数据:能够使用任何方法。
(2) 准备数据:距离计算所须要的数值,最好是结构化的数据格式。
(3) 分析数据:能够使用任何方法。
(4) 训练算法:此步骤不适用于k-近邻算法。
(5) 测试算法:计算错误率。
(6) 使用算法:首先须要输入样本数据和结构化的输出结果,而后运行k-近邻算法断定输
入数据分别属于哪一个分类,最后应用对计算出的分类执行后续的处理。
 
 
 

后期学完会努力更新笔记

相关文章
相关标签/搜索