image caption笔记(七):《Bottom-Up and Top-Down Attention》

      仍然是对attention机制的扩展。可以看到,现在的工作,基本都添加了attention机制,要么是spitial attention,要么是semantic attention。       文章的主要贡献包括:     (1)提出了一个新的lstm组合模型,包括了attention lstm和language lstm 两个组件。在这个 组合模型的基础上引入spitial att
相关文章
相关标签/搜索