论文提出了input的顺序影响seq2seq结果 有一些输入自己是无序的怎么去处理呢 git
做者提出LSTM controller的方式 替代输入的LSTM encode方式 github
做者实验这种方式对应无序浮点数序列排序效果好于直接seq2seq app
N是要排序的数的数目 ui
P = 10 steps 表示 LSTM contorller process 10次 spa
glimpses = 1 表示输出使用attention机制 code
不过实验复现这个结果不太一致 blog
这里实验结果以下,也许实验细节和论文有出入,好比排序问题 要求输入是set 与顺序无关,那么LSTM的初始 input query是啥? 这里使用了全0向量做为input query实验 排序
另外这个排序训练过程decoder是否使用feed prev? 这里使用feed prev 同时 使用soft attention读取输入做为下一步输入 get
实验结论: input
AverageEvals:[0.37186, 0.14407] loss 是0.37186 序列彻底预测准确状况的比例是14.4% 远远好于上面提到的4%的结果
开始几步收敛确实更快 可是后续收敛远远慢于ptr net
选用Step = 20 对比 ptr net
因此是哪里出了问题 没有正确复现? 仍是原本sort这个例子 lstm controller相比直接lstm序列encode就没有提高效果呢?
实验地址
https://github.com/chenghuige/hasky/tree/master/applications/set2seq