随机森林的简单理解

集成学习:算法

经过构建多个分类器来完成学习任务,将多个分类器组合,会得到比单一分类器,更好的泛化能力。学习

集成学习有两类 Boosting 和Bagging基础

Boosting:个体分类器之间存在强依赖关系,必须串行生成的序列化方法扩展

Bagging:个体分类器之间不存在依赖关系,能够同时生成的并行方法序列化

Bagging和随机森林:并行

Bagging的表明是随机森林,Bagging的流程是用自助采样法从数据集中获得若干个采样集,基于每个采样集训练出一个个体分类器,在将个体分类器组合。方法

 

随机森林用于分类:数据

随机森林是采用n个决策树分类,将分类结果简单投票获得最终结果。集合

对决策树的集成:di

  • 采样差别:从含m个样本的数据集中获得采样集,是有放回采样采样,获得含有m个样本的采样集用于训练,保证采样集之间有重复但不彻底同样。
  • 特征选择差别:每一个决策树的k个分类特征是在全部特征中随机选择(随机森林随机性的体现

随机森林的参数:

  • 决策树的个数m(490不到500)
  • 决策树的特征个数k(大约8个)
  • 随机森林的深度
  • 每颗树的深度 不到10
随机森林是Bagging的一个扩展。 随机森林在以决策树为基学习器构建Bagging集成的基础上,进一步在决策树的训练过程当中引入随机属性选择(引入随机特征选择)。传统决策树在选择划分属性时在当前节点的属性结合(n个属性),利用信息论的知识选取一个最优属性;而在随机森林中, 对决策树的每一个节点,先从该节点的属性集合中随机选取包含k个属性的子属性集,而后选择最优属性用于划分。这里的参数k控制了随机性的引入程度。若k=n, 则是通常的决策树;k=1, 则是随机选择一个属性进行划分。 随机森林对用作构建树的数据作了限制,使的生成的决策树之间没有关联,提高算法效果。
相关文章
相关标签/搜索