面试问题总结----GBDT&LightGBM&Xgboost

1.信息熵 信息增益 信息增益率 基尼系数 在信号中每种信号出现的可能为pi (对应到最简单的二分类为 0 出现的可能为p0,1出现的可能为p1) 咱们使用-log pi 来表示这种不肯定性 ,那么对于全部信号的不肯定性 很明显须要使用他们的指望来表示 即 -∑pilog(pi) 称为信息熵web 信息增益就是选取某一特征做为树模型的分裂条件以后 将原始数据分为若干部分 若干部分的信息熵之和相比于
相关文章
相关标签/搜索