理解seq2seq并基于语料自动生成文本

今天应上篇文章里面说的来写seq2seq和attention。但是这周琢磨了一下,现在写的这些东西只是在总结原理,好像除了回顾理论知识之外,并没其他技术上的提升。所以现在改变策略,尽量在总结技术的同时,做一个小demo。(等原理总结完了,之后想写一个深度学习从零单排系列,敬请期待。) RNN的变种形式 seq2seq是2014年是Google Brain团队和Yoshua Bengio巨神带领的团
相关文章
相关标签/搜索