决策树

决策树简介 非参数学习算法 天然可解多分类问题 也可解决回归问题 非常好的解释性 信息熵 熵在信息论中代表,随机变量不确定度的度量。 熵越大,数据的不确定性越高;熵越小,数据的不确定性越低。 H = − ∑ i = 1 k p i l o g ( p i ) H = -\sum\limits_{i=1}^kp_ilog(p_i) H=−i=1∑k​pi​log(pi​) 其中 p i p_i pi
相关文章
相关标签/搜索