基于《Arbitrary Style Transfer with Style-Attentional Networks》的视频风格迁移

一、方法介绍 本文是参照Arbitrary Style Transfer With Style-Attentional Networks[1]中图像风格迁移的方法去实现视频风格迁移。其工作的主要贡献为: 1)提出了SANet去灵活匹配风格特征和内容特征在语义上相近的部分; 2)针对SANet和decoder组成的网络提出了新的损失函数; 3)风格化图像的效率以及质量都很高。 源码:https://
相关文章
相关标签/搜索