基于PyTorch实现Seq2Seq + Attention的英汉Neural Machine Translation

NMT(Neural Machine Translation)基于神经网络的机器翻译模型效果愈来愈好,还记得大学时代Google翻译效果仍是差强人意,近些年来使用NMT后已基本能知足非特殊需求了。目前NMT的主流模型是采用Seq2Seq + Attention架构,本文基于PyTorch实现一个小型的英文到中文的翻译系统。git 一、数据集 数据集及所有代码下载连接:百度网盘,提取码:sauzgi
相关文章
相关标签/搜索