KL Divergence KL散度

在几率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),是描述两个几率分布P和Q差别的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用几率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。 有人将KL散度称为KL距离,但事实
相关文章
相关标签/搜索