CV领域中的注意力机制

科研方向需要自己调研一些合适的注意力机制,所以自己总结如下: 一. channel attention:SEnet:Squeeze-and-Excitation Networks 首先是 Squeeze 操作,顺着空间维度来进行特征压缩,一般用GAP操作; 其次是 Excitation 操作,一般为卷积操作;最后是一个 Re-weight的操作,用来对输入数据通道进行权重赋值 实现代码: 二.GS
相关文章
相关标签/搜索