JavaShuo
栏目
标签
基于PyTorch实现Seq2Seq + Attention的英汉Neural Machine Translation
时间 2020-07-23
标签
基于
pytorch
实现
seq2seq
seq
attention
英汉
neural
machine
translation
繁體版
原文
原文链接
NMT(Neural Machine Translation)基于神经网络的机器翻译模型效果愈来愈好,还记得大学时代Google翻译效果仍是差强人意,近些年来使用NMT后已基本能知足非特殊需求了。目前NMT的主流模型是采用Seq2Seq + Attention架构,本文基于PyTorch实现一个小型的英文到中文的翻译系统。git 一、数据集 数据集及所有代码下载连接:百度网盘,提取码:sauzgi
>>阅读原文<<
相关文章
1.
lecture8 - Machine Translation Seq2Seq and Attention
2.
CS224n-Lecture8-Machine Translation, Seq2Seq and Attention
3.
【cs224n-7】Machine Translation, Seq2Seq and Attention
4.
【CS224n】Neural Machine Translation with Seq2Seq
5.
Seq2Seq(Attention)的PyTorch实现
6.
cs224笔记:Lecture 8 Machine Translation, Seq2Seq and Attention
7.
Paper:Effective Approaches to Attention-based Neural Machine Translation
8.
Fine-Grained Attention Mechanism for Neural Machine Translation
9.
[EMNLP2015]Effective Approaches to Attention-based Neural Machine Translation
10.
论文笔记(Attention 2)-----Effective Approaches to Attention-based Neural Machine Translation
更多相关文章...
•
现实生活中的 XML
-
XML 教程
•
Spring声明式事务管理(基于XML方式实现)
-
Spring教程
•
☆基于Java Instrument的Agent实现
•
Spring Cloud 微服务实战(三) - 服务注册与发现
相关标签/搜索
seq2seq+attention+transformer
machine
translation
neural
汉英
英汉
attention
seq2seq
pytorch
基于
红包项目实战
Docker教程
Docker命令大全
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
[最佳实践]了解 Eolinker 如何助力远程办公
2.
katalon studio 安装教程
3.
精通hibernate(harness hibernate oreilly)中的一个”错误“
4.
ECharts立体圆柱型
5.
零拷贝总结
6.
6 传输层
7.
Github协作图想
8.
Cannot load 32-bit SWT libraries on 64-bit JVM
9.
IntelliJ IDEA 找其历史版本
10.
Unity3D(二)游戏对象及组件
本站公众号
欢迎关注本站公众号,获取更多信息
相关文章
1.
lecture8 - Machine Translation Seq2Seq and Attention
2.
CS224n-Lecture8-Machine Translation, Seq2Seq and Attention
3.
【cs224n-7】Machine Translation, Seq2Seq and Attention
4.
【CS224n】Neural Machine Translation with Seq2Seq
5.
Seq2Seq(Attention)的PyTorch实现
6.
cs224笔记:Lecture 8 Machine Translation, Seq2Seq and Attention
7.
Paper:Effective Approaches to Attention-based Neural Machine Translation
8.
Fine-Grained Attention Mechanism for Neural Machine Translation
9.
[EMNLP2015]Effective Approaches to Attention-based Neural Machine Translation
10.
论文笔记(Attention 2)-----Effective Approaches to Attention-based Neural Machine Translation
>>更多相关文章<<