信息量-logP、信息熵求期望-ElogP、交叉熵=KL散度=相对熵

学习参考https://blog.csdn.net/u011984148/article/details/99439576 一般情况是D(G)=0.5导致D_loss=-log0.5-log0.5.但是D目的是D(G)=0,进一步D_loss变大=0(分析D(art)=1,D(gan)=0,所以log(D(art)=1)=0, log(1-D(G))=log(1)=0,。。。) 交叉熵loss(二
相关文章
相关标签/搜索