Self-Attention Generative Adversarial Networks 论文解读

论文地址:https://arxiv.org/abs/1805.08318  Ian goodfellow 2018年 新作,在GAN生成中加入了attention的机制,同时将SNgan的思想引入到生成器当中。 传统gan的问题 使用小的卷积核很难发现图像中的依赖关系 使用大的卷积核就丧失了卷积网络参数与计算的效率 attention层详解 就是在前一层的feature maps 上加入atte
相关文章
相关标签/搜索