JavaShuo
栏目
标签
基于PyTorch实现Seq2Seq + Attention的英汉Neural Machine Translation
时间 2020-07-23
标签
基于
pytorch
实现
seq2seq
seq
attention
英汉
neural
machine
translation
繁體版
原文
原文链接
NMT(Neural Machine Translation)基于神经网络的机器翻译模型效果愈来愈好,还记得大学时代Google翻译效果仍是差强人意,近些年来使用NMT后已基本能知足非特殊需求了。目前NMT的主流模型是采用Seq2Seq + Attention架构,本文基于PyTorch实现一个小型的英文到中文的翻译系统。git 一、数据集 数据集及所有代码下载连接:百度网盘,提取码:sauzgi
>>阅读原文<<
相关文章
1.
lecture8 - Machine Translation Seq2Seq and Attention
2.
CS224n-Lecture8-Machine Translation, Seq2Seq and Attention
3.
【cs224n-7】Machine Translation, Seq2Seq and Attention
4.
【CS224n】Neural Machine Translation with Seq2Seq
5.
Seq2Seq(Attention)的PyTorch实现
6.
cs224笔记:Lecture 8 Machine Translation, Seq2Seq and Attention
7.
Paper:Effective Approaches to Attention-based Neural Machine Translation
8.
Fine-Grained Attention Mechanism for Neural Machine Translation
9.
[EMNLP2015]Effective Approaches to Attention-based Neural Machine Translation
10.
论文笔记(Attention 2)-----Effective Approaches to Attention-based Neural Machine Translation
更多相关文章...
•
现实生活中的 XML
-
XML 教程
•
Spring声明式事务管理(基于XML方式实现)
-
Spring教程
•
☆基于Java Instrument的Agent实现
•
Spring Cloud 微服务实战(三) - 服务注册与发现
相关标签/搜索
seq2seq+attention+transformer
machine
translation
neural
汉英
英汉
attention
seq2seq
pytorch
基于
红包项目实战
Docker教程
Docker命令大全
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
FM理论与实践
2.
Google开发者大会,你想知道的都在这里
3.
IRIG-B码对时理解
4.
干货:嵌入式系统设计开发大全!(万字总结)
5.
从域名到网站—虚机篇
6.
php学习5
7.
关于ANR线程阻塞那些坑
8.
android studio databinding和include使用控件id获取报错 不影响项目正常运行
9.
我女朋友都会的安卓逆向(四 动态调试smali)
10.
io存取速度
本站公众号
欢迎关注本站公众号,获取更多信息
相关文章
1.
lecture8 - Machine Translation Seq2Seq and Attention
2.
CS224n-Lecture8-Machine Translation, Seq2Seq and Attention
3.
【cs224n-7】Machine Translation, Seq2Seq and Attention
4.
【CS224n】Neural Machine Translation with Seq2Seq
5.
Seq2Seq(Attention)的PyTorch实现
6.
cs224笔记:Lecture 8 Machine Translation, Seq2Seq and Attention
7.
Paper:Effective Approaches to Attention-based Neural Machine Translation
8.
Fine-Grained Attention Mechanism for Neural Machine Translation
9.
[EMNLP2015]Effective Approaches to Attention-based Neural Machine Translation
10.
论文笔记(Attention 2)-----Effective Approaches to Attention-based Neural Machine Translation
>>更多相关文章<<