GBDT与XGBoost

文章目录 GBDT与XGBoost 一、GBDT canci GBDT与XGBoost 介绍过梯度下降法与牛顿法, GBDT与XGBoost就与这两种方法有关 boosting(GBDT、XGBoost)是一个加法模型 可解释性强 可处理混合类型特征 具体伸缩不变性(不用归一化特征) 有特征组合的作用 可自然地处理缺失值 对异常点鲁棒 有特征选择作用 可扩展性强,容易并行 缺点: 缺乏平滑性(回归
相关文章
相关标签/搜索