做者进行了普通的nmt 以及加入了attention 机制的nmt两组实验git
我使用了公司四核(4*24G) RAM 的 Tesla M40 显卡 进行train & infer(使用 nvidia-smi 查看nvidia 显卡信息)github
实验结果代表在训练数据较少的状况下,使用attention 的nmt 的翻译质量仍是比不加attention的翻译强很多的,这个结果是
经过将两者的翻译结果分别于参考翻译进行粗略获得的,固然使用定量的bleu指标也能够获得同样的结论,加入attention的nmt bleu
score 要比普通的nmt 高很多。具体结果见下图1,2:
bash
直观看上去,确实是attention nmt 的翻译质量更胜一筹。框架
教程中给出的第二个实验是德语到英语的翻译(WMT German-English)学习
FailedPreconditionError (see above for traceback): Attempting to use uninitialized value dynamic_seq2seq/decoder/multi_rnn_cell/cell_1/basic_lstm_cell/kernel [[Node: dynamic_seq2seq/decoder/multi_rnn_cell/cell_1/basic_lstm_cell/kernel/read = Identity[T=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:GPU:0"] (dynamic_seq2seq/decoder/multi_rnn_cell/cell_1/basic_lstm_cell/kernel)]]
de-en infer fail 这个问题暂时没有找到缘由。测试
de-en train from stratch 没有问题,可是由于训练数据巨大,因此应该须要训练好久(几天吧)google
text summary 在nmt的框架下,能够看作是单语言的简化(通常的翻译是两个语言之间),原文是source,
summary 是target翻译
--src=ori --tgt=sum
其他的参数相似指定code