信息论在统计物理(热力学)、计算机科学(科尔莫戈罗夫复杂度或算法复杂度)、统计推断(奥卡姆剃刀,最简洁的解释最佳)以及几率和统计(关于最优化假设检验与估计的偏差指数)等学科中都具备奠定性的贡献。以下图html
这个小节,咱们简要介绍信息论及其关联的思想的前因后果,提纲挈领地给出一个总的框架。算法
香农(shannon)证实了只要通讯速率低于信道容量,总可使偏差几率接近于零。同时,香农还进一步讨论了诸如音乐和语音等随机信号都有一个不可再下降的复杂度。听从热力学的习惯,他将这个临界复杂度命名为熵,而且讨论了当信源的熵小于信道容量时,能够实现渐进无偏差通讯。网络
若是将全部可能的通讯方案当作一个集合,那么信息论描绘了这个集合的两个临界值:框架
综上,全部调制方案和数据压缩方案都必须介于这两个临界值之间。机器学习
信息论从理论上提供了可以达到这些临界值的通讯方案,可是要注意的是,最佳方案当然很好,但从计算的角度看,它们每每是不切实际的。惟一缘由是,只有使用简单的调制与解调方案时才具备计算可行性。函数
科尔莫戈罗夫、Chaitin、Solomonoff指出,一组数据串的复杂度能够定义为计算该数据串所需的最短二进制程序的长度。所以,复杂度就是最小描述长度。学习
利用这种方式定义的复杂度是通用的,即与具体的计算机无关,所以该定义具备至关重要的意义。科尔莫戈罗夫复杂度的定义为描述复杂度的理论奠基了基础。优化
更使人激动的是,若是序列服从熵为H的分布,那么该序列的科尔莫戈罗夫复杂度K近似等于香侬熵H。因此信息论与 科尔莫戈罗夫复杂度两者有着很是紧密的联系。编码
算法复杂度与计算复杂度两者之间存在微妙的互补关系:spa
两者是沿着各自的轴的最小化问题,同时沿两条轴进行最小化的工做几乎没有。
熵与热力学第二定律都诞生于统计力学。对于孤立系统,熵永远增长。根据热力学第二定律,永动机是不存在的。
信息论中的基本量,熵、相对熵、互信息,定义成几率分布的泛函数。它们中的任何一个量都能刻画随机变量长序列的行为特征,使得咱们可以估计稀有事件的几率(大误差理论),而且在假设检验中找到最佳的偏差指数。
渐进均分性(AEP)证实绝大部分序列是典型的,它们的样本熵接近于H,所以咱们能够把注意力集中在大约2nH个典型序列上。在大误差理论中,考虑任何一个由分布构成的集合,若是真是分布到这个集合最近元的相对熵距离为D,那么它的几率大约为2-nD。
信息论从相对熵的角度度量了不用随机变量几率分布之间的偏差距离,这和数理统计中的拟合优度理论造成了统一。
奥卡姆居士威廉说过“因不宜超出果之因所需。”,即“最简单的解释是最佳的”。
Solomonoff和Chaitin颇有说服力地讨论了这样的推理:谁能得到适合处理数据的全部程序的加权组合,并能观察到下一步的输出值,谁就能获得万能的预测程序。
若是是这样,这个推理能够用来解决许多会用统计方法不能处理的问题,例如:
固然,这是一个理论上的完备预测器,这样的推理极度的不切实际。若是咱们按照这种推理来预测明天将要发生的事情,那么可能要花一百年时间。
在平稳的股票市场中重复投资会使财富以指数增加。财富的增加率与股票市场的熵率有对偶关系。股票市场中的优化投资理论与信息论的类似性是很是显著的。
当将一些较小型的计算机组装成较大型的计算机时,会受到计算和通讯的双重限制。计算受制于通讯速率,而通讯受制于计算速度,它们相互影响、相互制约。所以,通讯理论中全部以信息论为基础所开发的成果,都会对计算理论形成直接的影响。
在量子力学中,冯诺依曼(von Neumann)熵扮演了经典的香农-玻尔兹曼(Shannon-Boltzmann)熵
的角色。由此得到数据压缩和信道容量的量子力学形式。
考虑一个服从均匀分布且有32种可能结果的随机变量,为肯定一个结果,须要一个可以容纳32个不一样值的标识,所以,根据熵定理,用5比特的字符串足以描述这些标识,即:
在均匀分布的等概论情形下,全部结果都具备相同长度的表示。
接着考虑一个非均匀分布的例子,假定有8匹马参加的一场赛马比赛,设8匹马的获胜几率分布为(1/2,1/4,1/8,1/16,1/64,1/64,1/64,1/64),咱们能够计算出该场赛马的熵为:
下面来思考一个问题,如今须要将哪匹马会获胜的消息发出去,该怎么达到这个目标?
从机器学习的视角范畴来看,这本质上就是一个特征工程特征编码问题,即如何对随机变量进行向量化编码。
一个最简单直白的策略就是“one-hot独热编码”,即发出胜出马的编号,这样,对任何一匹马,描述须要3比特。
但其实咱们换一个思路想问题,从单次的随机试验视角中拉高到大量的重复随机试验集合中,咱们还能够有更高效的编码方式,一个很简单的道理:较少发生的事情给予相对较长的描述,而较常发生的事情给予相对较短的描述。
这样,从整体上来讲,咱们会得到一个更短的平均描述长度。例如,使用如下的一组二元字符串来表示8匹马:(0,10,110,1110,111100,111101,111110,111111)。此时,平均描述长度为2比特,比使用等长编码时所用的3比特小。
使用随机生成的编码方案,
通讯信道是一个系统,系统的输出信号按几率依赖于输入信号。该系统特征由一个转移几率矩阵p(y|x)决定,该矩阵决定在给定输入状况下,输出的条件几率分布。
对于输入信号为X和输出信号为Y的通讯信道,定义它的信道容量C为:
信道容量是可使用该信道发送信息的最大速率,并且在接收端以极低的偏差几率恢复出该信息。
下面有一些例子来讲明信道的速率和误码率等问题。
对于无噪声二元信道,二元输入信号在输出端精确地恢复出来,以下图所示:
在此信道中,任何传输的信号都会毫无偏差地被接受,所以,在每次传输中,能够将1比特的信息可靠地发送给接收端,从而信道容量为1比特,即
四字符信道以下图:
在该信道中,传输每一个输入字符时,可以正确地接受到该字符的几率为1/2,误报为它的下一个字符的几率也为1/2。若是将4个输入字符所有考虑进去,那么在接收端,仅凭单个输出结果根本不可能确切断定输入端是哪一个字符。
另外一方面,如何使用2个输入(例如1和3,或者2和4),咱们当即能够根据输出结果知道传输的是哪一个输入字符,因而,这种信道至关于一个无噪声信道,该信道上每传输一次能够毫无偏差地发送1比特信息,信道容量也一样等于1比特/传输。
抽象地思考一下,考虑一系列传输,任何信道看起来都会像此例同样,而且都可以识别出输入序列集合(马子集)的一个子集,其传输信息的方式是:对应于每一个码字的全部可能输出序列构成的集合近似不相交。此时,咱们能够观察输出序列,可以以极低的偏差几率识别出相应的输入码字。
随用随机生成的编码方案,香农证实了,若是码率不超过信道容量C(能够区分的输入信号个数的对数),就可以以任意小的偏差几率发送信息。
随机生成码的思想非同寻常,为简化难解问题打下了基础,由于在实际工程中,咱们没法老是100%获得一个最优编码方案,香农的近似无损通讯信道理论告诉咱们,在必定的偏差容忍度范畴内,能够去设计一个近似最优的编码方案。
笔者思考:从机器学习的视角范畴来看,每个算法模型本质上都是一个通讯信道。数据从输入层输入,通过模型的压缩后,将有效信息传输都输出层,将输出层的熵下降到足以获得目标的结果(生成式模型或者判别式模型)。
Relevant Link:
《信息论基础》阮吉寿著 - 第一章
信息是一个至关宽泛的概念,很难用一个简单的定义将其彻底准确地把握。然而,对于任何一个几率分布,能够定义一个称为熵(entropy)的量,它具备许多特性符合度量信息的直观要求。
熵是随机变量不肯定度的度量。设X是一个离散型随机变量,其字母表(几率论中的取值空间)为X,几率密度函数,则该离散型随机变量X的熵H(X)定义为:
,熵的单位用比特表示。
注意,熵其实是随机变量X的分布的泛函数,并不依赖于X的实际取值,而仅依赖于其几率分布。
从数理统计的角度来看,X的熵又解释为随机变量的指望值,其中p(X)是X的几率密度函数,因而有:
基于单个随机变量熵的定义,如今将定义推广到两个随机变量的情形。
对于服从联合分布为p(x,y)的一对离散随机变量(X,Y),其联合熵H(X,Y)(joint entropy)定义为:
带入联合指望公式,上式也可表示为:
定义一个随机变量在给定另外一个随机变量下的条件熵,它是条件分布熵关于起条件做用的那个随机变量取平均以后的指望值。
若(X,Y)~p(x,y),条件熵(conditional entropy)H(Y | X)定义为:
笔者思考1:从条件熵的角度理解算法模型的训练及模型拟合过程,若是咱们将初始状态的模型参数看作是一个由若干个未知量组成的联合几率分布,即(X1,X2,...,Xn)。在训练开始前,咱们对模型参数的可能取值彻底没有任何先验,理论上全部参数都符合均匀分布,此时H(X1,X2,...,Xn)达到最大值。训练的过程是不断向模型输入有标签的样本并经过负反馈以及必定的策略不断调整模型的参数取值,从信息论的角度来看,有监督训练样本的做用是向联合几率分布注入新的信息Y,即(X1,X2,...,Xn | Y)。新的信息Y使得模型参数联合几率分布的的联合熵减少,即消除不肯定性。而最终模型训练以及泛化能力的好坏,则取决于训练样本能多大程度地消除全部的不肯定性,留下肯定性的判断依据。
笔者思考2:从条件熵的角度看训练样本的标注(label)精确性重要性,若是在训练样本中,对同一类的样本既有黑标也有白标,这样会形成对同一个特征向量同时有label=1/0,至关于传递了一个均匀分布最大熵,这类样本对模型训练就是没有任何帮助的,甚至可能带来欠拟合波动。可是若是同一类样本(同一类特征向量)只有纯净的黑标或者白标,至关于传递了一个100%肯定事件,条件熵为0,即为一次有效性训练。具体来讲就是,在完成特征工程后,对特征维度字段进行groupby聚合,并检查是否出现了同时label=0/1的现象,若是出现要及早清楚或重打标。
相对熵(relative entropy)是两个随机分布之间距离的度量。在统计学中,它对应的是似然比的对数指望(极大似然估计的损失函数值)。
相对熵度量当真实分布为p而假定分布为q时的无效性。
例如,已知随机变量的真实分布为p,能够构造平均描述长度为H(p)的码,可是若是使用针对分布q的编码,那么在平均意义上就须要 H(p)+D(p || q) 比特来描述这个随机变量。
设两个几率密度函数为p(x)和q(x)之间的相对熵或Kullback-Leiler距离定义为:
须要注意的是,相对熵并不对称,也不知足三角不等式,所以它实际上并不是两个分布之间的真正距离。然而,将相对熵视做分布之间的”距离“每每会很是有用,相对熵和数理统计中的不少理论概念之间也存在很是多的关系。
对于联合几率密度函数p(x,y)和q(x,y),条件相对熵定义为条件几率密度函数 p(y|x) 和 q(y|x) 之间的平均相对熵,其中取平均是关于几率密度函数p(x)而言的,即:
互信息是一个随机变量包含另外一个随机变量信息量的度量。互信息也是在给定另外一随机变量知识的条件下,原随机变量不肯定度的缩减量。
考虑两个随机变量X和Y,它们的联合几率密度函数为p(x,y),其边际几率密度函数分别是p(x)和p(y)。互信息为联合分布p(x,y)和乘积分布p(x)p(y)之间的相对熵,即:
注意,通常
可将互信息从新写为:
能够看出,互信息是在给定Y知识的条件下,X的不肯定度的缩减量。
对称地,亦可得下式:
由此获得一个推论:X含有Y的信息量等同于Y含有X的信息量。
特别的,有:
随机变量与自身的互信息为该随机变量的熵,也称为自信息(self-information)。
H(X),H(Y),H(X,Y),H(X | Y),H(Y | X),I(X;Y)之间的关系可用文氏图表示。
注意到,互信息I(X;Y)对应于X的信息和Y的信息的相交部分。
基于该文氏图,咱们有以下定理:
条件互信息是指在给定Z时,因为Y的知识而引发关于X的不肯定度的缩减量。
随机变量X和Y在给定随机变量Z时的条件互信息为:
笔者思考:从信息论的角度来看,模型对目标随机变量几率分布的拟合程度,能够用互信息来进行定量表征。模型对目标随机变量几率分布拟合地越好,则模型对目标随机变量的表明性就越强,二者之间的互信息也就越强。
联合熵和条件熵的定义的这种天然性可由一个事实获得体现,它就是:一对随机变量的熵等于其中一个随机变量的熵加上另个一随机变量的条件熵。
形式化定义以下式:
在双随机变量联合熵文氏图的基础上,咱们继续进行抽象思考,本质上来讲,时间万物均可以抽象为多个随机变量的联合做用的综合结果,若是直接将其看作一个黑盒总体看待,则咱们看不到任何规律存在其中,由于彻底是混沌。解决的方法就是进行合理的剥离与分解。但同时要注意的是,世间万物又不是彼此独立存在的,全部人和全部人之间都存在互相影响的关系。
经过数学的方式来形式化表达上面这句话就是多随机变量联合熵的链式法则。联合熵的链式法则解决的是联合熵如何分解的问题。
设随机变量X1,X2,Xn服从p(x1,x2,....,xn),则
证实过程重复利用两个随机变量状况下熵的链式展开法则:
笔者思考:多随机变量的联合熵链式法则是一个高度抽象归纳的定理,NLP语言模型的链式分解就是基于此发展出来的,在NLP问题中,人们首先定义出组成一篇文档(能够是一句话、一段话、一篇文章)的最基本语言单位,即“词素Token”,这样就能够将一篇文档经过单个词素Token的方式表示为联合分布,进而运用链式法则进行分解。
例如统计语言模型中,对于句子w1,w2,...,wn, 计算其序列几率为P(w1,w2,...,wn),根据链式法则能够求得整个句子的几率:
其中,每一个词出现的几率经过统计计算获得:
即第n个词的出现与前面N-1个词相关,整句的几率就是各个词出现几率的乘积。
关于NLP问题抽象化建模的其余讨论,能够参阅另外一篇文章。
在联合熵的基础上,互信息一样能够定义链式法则。
证实过程以下:
证实过程以下:
一对随机变量的两个联合分布之间的相对熵能够展开为相对熵和条件相对熵之和。相对熵的这种链式法则能够用来证实热力学第二定律。
Relevant Link:
《信息论基础》阮吉寿著 - 第二章
Jensen不等式是凸函数的一个很重要的性质,而凸函数是凸优化里一个很重要的关键概念,在实际工程中,略带夸张的说,若是能将问题抽象建模为一个凸函数,则问题可能已经解决了一半。
下面来看Jensen不等式的定义,若对于任意的及
,知足下式:
则称函数f(x)在区间(a,b)上是凸的(convex)。若是当且仅当λ=0或λ=1时,上式成立,则称函数f是严格凸的(strictly convex)。
从函数图像直观地看,若是函数老是位于任何一条弦的下面,则该函数是凸的。以下图:
凸函数的例子有不少,例如。
注意到线性函数ax+b既是凸的也是凹的。凸性已经成为许多信息理论量的基本性质的基础。
这小节咱们来看一下凸函数具有的几个经常使用性质,也是证实其余定理的经常使用基础定理。
若是函数f在某个区间上存在非负(正)的二阶导数,则f为该区间的凸函数(严格凸函数)。
若给定凸函数f和一个随机变量X,则
设为两个几率密度函数,则
,当且仅当对任意的x,p(x) = q(x),等号成立。
证实过程以下:
设为p(x)的支撑集,则
上面证实过程用到了Jensen不等式。
信息不等式直观上的理解就是,任意两个几率密度函数之间的距离老是大于等于0的,这也是模型最优化问题的上界。
对任意两个随机变量X和Y,,当且仅当X与Y相互独立,等号成立。
推论,,当且仅当给定随机变量Z,X和Y是条件独立的,等号成立。
互信息非负性不等式定理的直观理解就是,只有当X和Y具备必定的相关性时,新信息Y的输入,才会下降原随机变量X的熵(不肯定性)。反之,若是新信息Y和X彻底独立,则不管输入多少Y,也没法下降X的熵。
这对咱们在机器学习训练的工程实践中具备很好的指导意义,咱们的特征工程和训练样本必定要追求有相关度,对训练目标没有帮助的样本,即便输入的再多,对最终的效果也是没有任何帮助的,这就是所谓的”garbage in,garbage out“。
,其中
表示X的字母表X中元素的个数,当且仅当X服从X上的均匀分布,等号成立。
字母表X上的均匀分布是X上的最大熵分布。
最大熵原理是统计学习的通常定理,将它应用到分类获得最大熵模型,最大熵模型学习的目标是用最大熵原理选择最好的分类模型。本质上和极大似然估计是同样的,区别在于最大熵模型的优化目标是熵的最大化。
关于最大熵模型的相关讨论,能够参阅另外一篇文章。
该式和互信息非负性定理本质是同样的。直观上理解,信息不会有负面影响,最多零影响。即另外一个随机变量Y的信息只会下降或不变X的不肯定度。
设X1,X2,....,Xn服从p(x1,x2,....,xn),则
,当且仅当Xi相互独立,等号成立。
证实过程用到了联合熵的链式法则:
Relevant Link:
《信息论基础》阮吉寿著 - 第二章
凸优化是优化理论中最最重要的一个理论体系了,许多工程中的非凸优化问题,目前最有效的办法也只能是利用凸优化的思路去近似求解。例如:
在传统的线性回归问题中,每每能够经过极大似然估计或者矩估计获得一个全局最优解,这本质上由于线性回归的似然函数是凸函数,能够经过对凸函数进行求导获得极值点。凸优化有个很是重要的定理,即任何局部最优解即为全局最优解。因此凸优化的全局最优势很容易获得,无论是导数极值仍是梯度降低均可以。
当到了深度神经网络,特别是大规模非线性单元组成的深度神经网络,其对应的似然函数基本不多是一个凸函数。因此在深度神经网络中,传统的极大似然估计和矩估不能继续使用,从数学上讲本质缘由仍是计算量过于巨大,大到没法接受的程度。
下图给出了凸优化和非凸优化似然函数的对比。
因此,在复杂深度神经网络中,转而取代的优化算法是SGD、Adam这种局部启发式优化算法。
本质上来讲,对于这些非凸优化问题取得的算法理论方面的突破大致其实归结于找到这些非凸优化问题中“凸”的结构,著名的Hessain矩阵描述的就是似然函数在必定范围内的局部表现出的“凸”结构。非凸优化算法的时候其实不少的lemma(引理)仍然是凸优化(凸分析)里的引理或者引伸。
Relevant Link:
https://www.jiqizhixin.com/articles/2019-02-25-6
对于非负数a1,a2,...,an和b1,b2,...,bn。
,当且仅当
,等号成立。
利用对数和不等式能够从新证实信息不等式定理,该定理代表,当且仅当
,等号成立。证实过程以下:
D(p || q)关于对(p,q)是凸的,即,若是(p1,q1)和(p2,q2)为两对几率密度函数,则对全部的,有
H(p)是关于p的凹函数。熵做为分布的函数时,它具备凹性。
证实过程以下:
,其中,u为 |X| 个结果的均匀分布。从而H的凹性可由D的凸性直接获得。
直观上能够这么理解:均匀分布下混乱度(熵)是最大的,全部随机变量在几率分布上和均匀分布的距离(相对熵)能够理解为一种熵减的过程,从均匀分布对应的最大熵减去相对熵,剩下的混乱度部分就是该随机变量剩余的混乱度(熵)。
Relevant Link:
《信息论基础》阮吉寿著 - 第二章
数据处理不等式能够说明,不存在对数据的优良操做能使从数据中所得到的推理获得改善。
数据处理不等式描述的在一个随机过程序列中,信息是如何经过一个个彼此相邻的节点进行传递的。
马尔柯夫链是一种特殊的随机过程,信息在马尔柯夫链节点间的传递是无损的。
若是Z的条件分布仅依赖于Y的分布,而与X是条件独立的,则称随机变量X,Y,Z依序构成马尔柯夫(Markov)链,记为(X->Y->Z)。
具体说,若是X,Y,Z的联合几率密度函数能够写为:,则X,Y,Z构成马尔柯夫链X->Y->Z。
X->Y->Z,当且仅当在给定Y时,X与Z是条件独立的。马尔科夫性蕴含的条件独立性是由于
马尔柯夫链的这个特性能够推广到定义n维随机过程的马尔科夫场,它的马尔科夫性为:当给定边界值时,内部和外部相互独立。
X->Y->Z蕴含Z->Y->X,所以,可记为为X<->Y<->Z。
若,则X->Y->Z。
若X->Y->Z,则有,证实过程以下:
由链式法则,将互信息如下面两种方式展开:
因为在给定Y的状况下,X与Z是条件独立的,所以有,又因为
,因此有:
,当且仅当
(即X->Y->Z构成马尔柯夫链),等号成立。
直观上理解数据处理不等式就是:马尔柯夫链是逐个节点传递信息的,信息只在彼此相邻的节点间传递。马尔柯夫链是一个很好的假设,可是若是随机过程不知足马尔柯夫链,则数据处理不等式告诉咱们,随机过程序列也不会增长节点信息,信息只会在节点间逐步递减,至多保持不变(马尔柯夫链就是上界)。
从上面定理咱们能够获得一个推论,若是,则
,X->Y->g(Y)构成马尔柯夫链。
这说明Y的函数不会增长X的信息量,而只可能损失关于X的信息量。
Relevant Link:
《信息论基础》阮吉寿著 - 第二章
本节间接地说明利用数据处理不等式能够很好地阐明统计学中的一个重要思,即特征对原始数据的抽象表明性问题。
假定有一族以参数θ指示的几率密度函数{fθ(x)},设X是从其中一个分布抽取的样本。设T(X)为任意一个统计量(样本的几率分布的函数,如样本均值或样本方差),那么θ->X->T(X),且由数据处理不等式可知,对于θ的任何分布,有:
,若等号成立,则代表无信息损失。
若是T(X)包含了X所含的关于θ的所有信息,则称该统计量T(X)关于θ是充分的。
若是对θ的任何分布,在给定T(X)的状况下,X独立于θ(即θ->T(X)->X构成马尔柯夫链),则称函数T(X)是关于分布族{fθ(x)}的充分统计量(sufficient statistic)。
这个定义等价于数据处理不等式中等号成立的条件,即对θ的任意分布,有
所以充分统计量保持互信息不变,反之亦然。
这小节咱们经过例子来更深刻理解充分统计量是如何传递互信息的,即如何对原始数据进行无损的抽象表明的。
若是X服从均值为θ,方差为1的正态分布,即若是
且X1,X2,...,Xn相互独立地服从该分布,那么样本均值为关于θ的充分统计量。
能够验证,在给定和n的条件下,X1,X2,...,Xn的条件分布不依赖于θ。换句话说,样本均值和样本方差能够无损地传递出原始样本的所有互信息。这就是为何在传通通计模型中,高斯模型和多元高斯模型能够仅仅用(均值、方差)参数向量就能够彻底无损的表征原始样本。
若是统计量T(X)为其余任何充分统计量U的函数,则称T(X)是关于{fθ(x)}的最小充分统计量(minimal sufficient statistic)。经过数据处理不等式解释,此定义蕴含
于是,最小充分统计量最大程度地压缩了样本中关于θ的信息,而其余充分统计量可能会含有额外的不相关信息。
例如,对于均值为θ的一个正态分布,取奇数样本的均值和取偶数样本的均值所构成的函数对是一个充分统计量,但不是最小充分统计量,而只有使用了全量典型集训练获得的统计量才是一个充分统计量。
特征工程可能咱们你们都很是熟悉,几乎在全部项目中,无论是使用传统机器学习模型仍是深度学习模型,最初始也是最关键的一个环节就是特征工程。
基本上来讲,衡量特征工程好坏的标准就是特征函数T(X)和原始数据分布X之间的互信息,互信息越高,说明该特征工程方案效果越好。
另外一方面,特征的信息损失能够用相对熵来衡量,相对熵越大,则说明特征函数和原始数据分布X之间的相关性就越差。
Relevant Link:
《信息论基础》阮吉寿著 - 第二章
假定知道随机变量Y,想进一步推测与之相关的随机变量X的值。费诺不等式将推测随机变量X的偏差几率,与它的条件熵 H(X|Y) 联系在一块儿。
给定另外一个随机变量Y,当且仅当X是Y的函数,随机变量X的条件熵0(H(X|Y)=0),便可以经过Y直接估计X(即知足函数映射关系),其偏差几率为0。费诺不等式也能够用来解释随机变量之间的函数关系和相关关系,关于这部分话题的讨论,能够参阅另外一篇文章。
咱们暂时抛开随机变量之间相关性这个视角,将思惟回到信息论的领域来。考虑两个随机变量之间的互相推测/推导关系,咱们但愿仅当条件熵 H(X|Y) 较小时,能以较低的偏差几率估计X,费诺不等式量化这个偏差的上界。
假定要估计随机变量X具备分布p(x),咱们观察与X相关的随机变量Y,相应的条件分布为p(y|x),经过Y计算函数,其中
是对X的估计(即统计量),咱们并不要求
与X必须相同,也容许函数g(Y)是随机的,对
的几率做一个界。
注意到构成马尔柯夫链,定义偏差几率为:
通常地,对任何知足的估计量
,设
,有
上面不等式可减弱为:
,或
很显然,可推出
进一步获得泛化推论,对任意两个随机变量X和Y,设,有
基于费诺不等式,能够获得一个体现偏差几率与熵之间关系的不等式,设X和X'是两个独立同分布的随机变量,有相同的熵H(X),那么X=X'的几率为:
由此获得下面的引理:
若是X和X'独立同分布,具备熵H(X),则:
,当且仅当X服从均匀分布,等号成立。
Relevant Link:
《信息论基础》阮吉寿著 - 第二章
在信息论中,与大数定律相似的是渐进均分性(AEP),它是弱大数定律的直接结果。而典型集自己就是AEP成立的基本条件,这节咱们先来讨论典型集,由此引出AEP的讨论。
大数定律针对独立同分布(i.i.d)随机变量,当n很大时,近似于指望值EX。而渐进均分性代表
近似于熵H,其中X1,X2,...,Xn为i.i.d.随机变量。p(X1,X2,...,Xn)是观察序列X1,X2,...,Xn出现的几率。
于是,当n很大时,一个观察序列出现的几率p(X1,X2,...,Xn)近似等于2-nH。
举一个虚构的例子,设随机变量的几率密度函数为p(1)=p,p(0)=q。若X1,X2,...,Xn为i.i.d.,且服从p(x),则序列(x1,x2,...,xn)出现的几率为
。好比,序列(1,0,1,1,0,1)出现的几率是
。很显然,并不是全部长度为n的2n个序列都具备相同的出现几率。
不一样序列出现几率不一样的这件事,促使咱们将全体序列组成的集合划分为两个子集:
在实际工程项目和学术研究中,咱们主要关注典型集,这是由于人和基于典型序列的性质都是高几率成立的,而且决定着大样本的平均行为。
那接下来的问题是,全部长度为n的2n个序列出现的几率是如何分布的呢?典型集又是如何占据了绝大多数几率分布呢?
假定有一个二项分布随机试验,N=1000,p(T)=0.1,即T出现的该几率是0.1。
易得该二项分布的均值为Np=100,方差为Np(1-p),经过分位表咱们知道,T发生的次数以100为中心,在3个标准差内几率近似接近1
因而,咱们得出下列结论:
通常地,若p(T)=p,则N长序列中,T出现次数以接近几率1落在区间,且在N足够大时,T出现的次数几乎等于Np次。
从这个结论出发,咱们能够将最大几率区间(3标准差估计区间)内出现的序列称之为typical set(典型序列集合)。
上述讨论方式涉及数理统计中的几率分布理论,相关讨论能够参阅这篇文章。如今咱们从信息论熵的视角从新来看待这个问题。
不一样观测结果X1,X2,...,Xn,对应着不一样的出现几率p(X1,X2,...,Xn),而p(X1,X2,...,Xn)将以高的几率接近于2-nH,即几率与熵一一对应。
对于,归纳为“几乎一切事物都使人同等的意外”。换言之,当X1,X2,...,Xn为i.i.d.~p(x),则
下面用几率论中的收敛概念,其定义以下:
给定一个随机变量X1,X2,...,Xn。序列收敛于随机变量X有以下3种情形:
若X1,X2,...,Xn为i.i.d.~p(x),则依几率收敛。
AEP定理代表,对于一个分布 假设,按此几率,取n次,则造成一个序列,这个序列出现的几率的对数除以n,会趋近于
的熵,且n越大,越趋近于
。
由此获得一个推论:
关于p(x)的典型集(typical set)是序列
的集合,且知足性质:
该推论代表,选取一个典型集合,这个集合并不要求其对数除n等于,而是容许有一个微小的偏差
,且序列越长时,
能够越小。
做为渐进均分性的一个推论,能够证实典型集有以下性质:
因而可知,典型集的几率近似为1,典型集中全部元素几乎是等可能的,且典型集的元素个数近似等于2nH。
设X1,X2,...,Xn服从几率密度函数p(x)的i.i.d.随机变量。为了获取这些随机变量序列的简短描述,将Xn中的全部序列划分为两个集合:典型集,及其补集。以下图所示:
将每一个集合中的全部元素按照某种顺序(例如字典顺序)排列,而后给集合中的序列指定下标,表示中的每一个序列。因为
中的序列个数<=2n(H+ε),则这些下标不超过n(H+ε)+1比特(额外多处的1比特是因为可能不是整数)。
在全部这些序列的前面加0,表示中的每一个序列须要的总长度<=n(H+ε)+2比特。
相似地,对不属于的每一个序列给出下标,所需的位数不超过nlog|X|+1比特,再在这些序列前面加1,就得到关于Xn中全部序列的一个编码方案。
以下图所示:
上述编码方案有以下特征:
用xn表示序列x1,x2,....,xn,设表示相应于xn的码字长度。若n充分大,使得
,因而,码字长度的数学指望为:
其中,适当选取ε和n时,ε’能够任意小。
基于上面讨论,咱们已经证实了下序列序列编码长度指望定理。
设Xn为服从p(x)的i.i.d.序列,ε>0,则存在一个编码将长度为n的序列Xn映射为比特串,使得映射是1-1的(由于可逆/可解码),且对于充分大的n,有
于是从平均意义上,用nH(X)比特可表示序列Xn。
由的定义知道,
是包含大多数几率的小集合。但从定义看,并不肯定是不是这类集合中的最小集。下面来证实典型集在一阶指数意义下与最小集有相同的元素个数。
对每一个n=1,2,....,设为知足以下条件的最小集,即
下面证实与
的交集充分大,使其含有足够多的元素。
设X1,X2,...,Xn为服从p(x)的i.i.d.序列,对及任意的
,若是
,则
,该定理即为典型集和最小集近似相等定理。
所以在一阶指数意义下,至少含有2nH个元素,而
大约有2n(H+-ε)个元素。因此,
的大小差很少与最小的高几率集是相同的。
考虑一个伯努利序列X1,X2,...,Xn,其参数p=0.9,此时,典型序列中1所占的比例近似等于0.9。然而,这并不包括极可能出现的所有是1的序列,由于显然,全为1的序列出现是一个小几率事件。
集合包括全部极可能出现的序列,于是包括所有为1的序列。
典型集和最小集近似相等定理代表与
一定包含了全部1所占比例90%的序列,且二者的元素数量几乎相等。
从对典型集的讨论中,咱们很明显地看到了”长尾效应“的影子,即当提高某件事能够另外一件事的效能时,持续不断提高下去,会在某个点达到一个收敛平衡界,超出收敛平衡界以后,继续投入更多的资源也不能带来更多的线性增加。
在实际的工程项目中,不要过度地追求海量数据,例如你作恶意文件文本检测,使用20w数量级的样本已经能够取得良好效果,这个时候,没有必要继续提升到200w数量级,由于极可能20w就已经在必定的偏差ε下达到典型集了,继续增长样本对总体信息量的贡献并不明显,相反还带来成倍的计算和训练开销。
参考Andrew Gelman的一句名言:样本历来都不是足够大的。若是 N 太大不足以进行足够精确的估计,你须要得到更多的数据。但当 N “足够大”,你能够开始经过划分数据研究更多的问题,例如在民意调查中,当你已经对全国的民意有了较好的估计,你能够开始分性别、地域、年龄进行更多的统计。N 历来都没法作到足够大,由于当它一旦大了,你老是能够开始研究下一个问题从而须要更多的数据。
Relevant Link:
《信息论基础》阮吉寿著 - 第三章 https://zhuanlan.zhihu.com/p/33668137