从Machine Translation 到Sequence to Sequence(Seq2seq)、Attention、Pointer Network(prt network)

  本文基于cs224n课程的Machine Translation部分和Michael Collins NLP的Machine Translation部分。从Tranditional MT介绍到SMT(statistical Machine Translation),再到Sequence to Sequence 、Attention,并结合其中的几篇经典论文阐释,同时考虑到15年Google B
相关文章
相关标签/搜索