集成学习算法之boosting、bagging和随机森林算法原理

集成学习的定义 集成学习的主要思路是先通过一定的规则生成多个学习器,再采用某种集成策略进行组合,最后综合判断输出最终结果。一般而言,通常所说的集成学习中的多个学习器都是同质的"弱学习器"。基于该弱学习器,通过样本集扰动、输入特征扰动、输出表示扰动、算法参数扰动等方式生成多个学习器,进行集成后获得一个精度较好的"强学习器"。 举例说明:以三分类问题为例,假如有 N 个分类器相互独立,错误率都为 P
相关文章
相关标签/搜索