non-local attention/ self attention 图像应用的自我理解

self attention 是利用了图像空间上的信息,比如分割等场景,仅仅依靠一个卷积无法建立起空间上像素之间的联系,但是诸如Dense-CRF就可以将每一个像素建立起联系,self-attention也是如此。 self-attention的结构很简单。如下图 我使用pad对其进行刻画。self-attention最重要的部分就是上图左下角部分——制造一个只与空间位置相关的特征矩阵(上图都是矩
相关文章
相关标签/搜索