Text Understanding with the Attention Sum Reader Network

关键词 Bi-GRU, Bi-LSTM, attention sum 来源 arXiv 2016.03.04 (published at ACL 2016) 问题 使用带attention的深度模型解决完型填空问题 技术细节 模型比attentive reader简单,分以下几步: 使用双向GRU/LSTM单元计算docment每个词的拼接词向量doc_endcoer 使用双向GRU/LSTM单元
相关文章
相关标签/搜索