论文阅读:An Empirical Study of Spatial Attention Mechanisms in Deep Networks

1、研究空间注意力机制。 (1)Transformer attention 处理自然语言序列的模型有 rnn, cnn(textcnn),但是现在介绍一种新的模型,transformer。与RNN不同的是,Transformer直接把一句话当做一个矩阵进行处理,要知道,RNN是把每一个字的Embedding Vector输入进行,隐层节点的信息传递来完成编码的工作。简而言之,Transformer
相关文章
相关标签/搜索