tensorflow之综合学习系列实例之SEQ2SEQ+ATTENTION

本文继续和大家一起学习一下在序列网络中引入优化机制-注意力机制,如果在序列很长的情况下,不引入这个机制,识别效果是 不会太好的,首先还是看看seq2seq的基本知识: seq2seq就是把一个序列翻译成另一个序列的模型,实质就是两个rnn,一个是encoder,另一个是decoder,encoder负责将source序列编码成固定长度的表达,decoder负责将该固定长度的表达解码成target序
相关文章
相关标签/搜索