如何理解熵、交叉熵、KL散度、JS散度

在机器学习、深度学习中,经常听见熵(entropy)、交叉熵(cross-entropy)、KL散度( Kullback–Leibler divergence )、JS散度( Jensen-Shannon divergence )这些概念。初次听见这些概念肯定一头雾水,在很多地方都能见到对这些概念 high-level 的解释,但 high-level 的解释并不能对这些概念更深入的理解。比如熵是
相关文章
相关标签/搜索