Attention Is All You Need

参考论文:Attention is all you need网络 这篇论文超火的, 楼楼也过来凑个热闹。架构 背景: 主流的Seq-Seq的模型一般采用RNN或者是CNN,通常在网络结构中都会用到encoder和decoder, 效果比较好的模型会经过attention(注意力机制)链接encoder和decoder。可是这种网络结构也存在一些问题:框架 1. RNN 网络结构:函数   递归框架
相关文章
相关标签/搜索