数学之美笔记(五)

为什么80%的码农都做不了架构师?>>>    一条信息的信息量与它的不确定性有着直接的关系。从某个角度来看,信息量就等于不确定性的多少。 信息熵即信息量,是对信息的量化度量。 对于任意一个随机变量X,它的熵的定义为:H(X)=—Σ P(x)logP(x)。变量的不确定性越大,熵越大。 信息是消除系统不确定性的唯一方法(在没有获得任何信息前,一个系统就像是一个黑盒子,引入信息,就可以了解黑盒子系统
相关文章
相关标签/搜索