RNN条件生成与Attention机制

RNN条件生成问题: 图像生成文本(一对多), 情感分析,文本密集度,分类..,机器翻译(多对多,离线的),解说视频,输入法 (实时多对多)               机器翻译 V1: Encoder-Decoder(seq2seq模型) LSTM的参数比较多,嵌入手机端不太好。GRU参数比较少,是可以的! 缺点:前面输入进入RNN的信息会被稀释,尽管处理了梯度弥散的问题,但是长度太长前面的记忆
相关文章
相关标签/搜索