ResNeSt: Split-Attention Networks

Abstract: 由于RexNet简单和模块化的结构,许多计算机视觉下游任务仍在使用。我们提出了Split-Attention block能够使注意力across feature-map groups。并且不会引入额外的及计算消耗。 Introduction: neural architecture search (NAS)有很好的性能,但是不注重训练的有效性以及gpu内存的使用,需要大量算力
相关文章
相关标签/搜索