注意力机制及各种卷积层学习

怎么感觉我可能博客打开方式不对呢?想着记录下学习,但是有挺多的东西,就像程序里面的库有各种依赖库一样,要学习一件事情,需要另外一件事情的支持,然后又转过去学习另一件事情。。导致一堆草稿,一堆写一半的博客。。 注意力机制 注意力机制在NPL中和CV中都有挺多应用的,我这只讲在CV中的,因为不懂NPL。网上挺多大佬写得挺详细的。大佬链接 直观理解:重点关注目标区域。 注意力机制在CV中的应用主要有三种
相关文章
相关标签/搜索