KL散度的理解

转自:https://www.cnblogs.com/hxsyl/p/4910218.html 浅谈KL散度 一、第一种理解     相对熵(relative entropy)又称为KL散度(Kullback–Leiblerdivergence,简称KLD),信息散度(informationdivergence),信息增益(information gain)。    KL散度是两个概率分布P和Q差
相关文章
相关标签/搜索