cross entropy的理解

文章目录 公式: LG(logistics regression) Multi labels 参考: 简单谈谈Cross Entropy Loss Cross Entropy 公式: 实际就是entropy与KL divergence的结合 离散: 连续: 总结:从熵的角度看,q(训练得到的分布)与p(数据实际的分布)越远,则对应的loss越大(p的熵不变,KL divergence越大)。 因此
相关文章
相关标签/搜索