JavaShuo
栏目
标签
KL-divergence
时间 2021-01-03
标签
深度学习
神经网络
繁體版
原文
原文链接
看论文1的时候遇到的,该论文首先得出了衡量两个概率分布之间的距离的公式,目标函数是使这两个概率之间的距离d( · , · )尽可能小,但是由于比较难算,因此用计算KL-divergence代替d( · , · ),一时不知这是什么,因此上网查了KL-divergence,胡乱总结2如下 KL-divergence又叫相对熵(relative entropy),衡量两个概率分布之间的不同程度。作用在
>>阅读原文<<
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
Window下Ribbit MQ安装
2.
Linux下Redis安装及集群搭建
3.
shiny搭建网站填坑战略
4.
Mysql8.0.22安装与配置详细教程
5.
Hadoop安装及配置
6.
Python爬虫初学笔记
7.
部署LVS-Keepalived高可用集群
8.
keepalived+mysql高可用集群
9.
jenkins 公钥配置
10.
HA实用详解
本站公众号
欢迎关注本站公众号,获取更多信息