Python ML

决策树(Decision Tree):得到有终止块的流程图 前言: 信息熵的来源,1是概率的单调减函数;2是对于相互独立的随机变量,同时观察两个变量的信息量和分别观察的结果相同,即h(x+y) = h(x) + h(y),因此设计了h = -log(P(x)),而这个对数的底通常是2,《数学之美》上认为是一般的判断规律是二分法的缘故。进一步,一个事件总的信息量就是每一种可能的情况的信息量乘以它们发
相关文章
相关标签/搜索