Tensorflow Seq2seq attention decode解析

tensorflow基于 Grammar as a Foreign Language实现,这篇论文给出的公式也比较清楚。 这里关注seq2seq.attention_decode函数, 主要输入 decoder_inputs, initial_state, attention_states,     这里可以主要参考 models/textsum的应用,textsum采用的多层双向lstm, 假设
相关文章
相关标签/搜索