数学基础 | (6) 机器学习中的几个熵

原文地址 目录 1. 信息量 2. 信息熵 3. 相对熵(KL散度/KL divergence) 4. 交叉熵 5. 几个熵之间的关系 6. JS散度 7. Wasserstein距离 8. 总结 1. 信息量 事件发生的概率越小,信息量越大。 假设X是一个离散型随机变量,取值集合为,概率分布函数(概率分布律)为 则定义事件的信息量为:   2. 信息熵 信息量的期望就是熵,假设事件X有n种可能,
相关文章
相关标签/搜索