tensorflow实现seq2seq模型细节(5):如何实现带attention的beam search,tensorflow构建独立的计算图(子图),推理图加载训练图的参数达到参数共享

为什么会有这样的问题,在对encoder构建attention时,训练时传入到AttentionWrapper的参数和解码时是不一样的。 构造attention的方法: def build_rnn_layer_attention(self,encoder_output,decoder_layer,decoder_num_units,src_seq_len): #scaled_luo
相关文章
相关标签/搜索