用于文本分类的RNN-Attention网络

Attention机制在NLP上最先是被用于seq2seq的翻译类任务中,如Neural Machine Translation by Jointly Learning to Align and Translate这篇文章所说。git 以后在文本分类的任务中也用上Attention机制,这篇博客主要介绍Attention机制在文本分类任务上的做用,与seq2seq中使用的可能会略有不一样, 主要参
相关文章
相关标签/搜索