浅谈KL散度

浅谈KL散度 一、第一种理解   相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。   KL散度是两个概率分布P和Q差别的非对称性的度量。       KL散度是用来度量使用基于Q的编码来编码来自P的样本平均所需的额
相关文章
相关标签/搜索