Wasserstein GANs 三部曲(二):Wasserstein GAN论文的理解

附论文地址:https://arxiv.org/abs/1701.07875 这一篇文章和下一篇讲提高WGAN的更有实际应用意义一些吧。转载请注明。 基础介绍         学习一个概率分布,通常我们是学习这个分布的概率密度函数,假设概率密度函数存在,且由多个参数组成即,已知该分布下点集为,那么认为这些点既然出现了,就是概率最大的(相当于极大似然的思想)。问题就变成了求解使得。假设真实分布为,可
相关文章
相关标签/搜索