tensorflow实现seq2seq模型细节(2):tf.contrib.seq2seq.sequence_loss

查看tensorflow源码其内部sequence_loss若是未指定softmax_loss_function使用的sparse_softmax_cross_entropy_with_logitsgit 你也能够本身实现这个seq_loss:spa 使用这个tf.contrib.seq2seq.sequence_loss只须要传入masks。而单独使用这须要显式的写代码定义mask对sparse
相关文章
相关标签/搜索