模型集成Ensemble的理解(Bagging/ Boosting/ Adaboost/ Gradient Boosing/ Stacking)

本文主要参考台湾大学李宏毅ML课程,加之自己的理解所写 1. Bagging 一个复杂的模型可能会导致:高方差,怎么办? 多找几个这样的模型,组合取平均,这样结果就会好很多 放回式抽样,这样可以获得几笔不同的数据集:DataSet->n*DataSet 使用这几笔数据训练不同的分类器 在测试集中,再使用上述几个分类器,投票(分类)/ 取平均(回归) 对Decision Tree使用Bagging—
相关文章
相关标签/搜索