决策树、Bagging、随机森林、Boosting、AdaBoost、GBDT、XGBoost

一、决策树    1、决策树的优势和缺点html     优势:node 决策树算法中学习简单的决策规则创建决策树模型的过程很是容易理解, 决策树模型能够可视化,很是直观 应用范围广,可用于分类和回归,并且很是容易作多类别的分类 可以处理数值型和连续的样本特征     缺点:git 很容易在训练数据中生成复杂的树结构,形成过拟合(overfitting)。剪枝能够缓解过拟合的负做用,经常使用方法是
相关文章
相关标签/搜索