Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification

paper https://www.aclweb.org/anthology/P16-2034 这篇文章讲述了如何利用LSTM+attention机制对文本进行分类 整篇论文可以用这张图表表示: Input Layer: 输出层,原始数据 Embedding Layer: embedding 层,将原始数据中的单词编码为vector LSTM Layer: 双向编码,输出每一时刻单词的隐状态 At
相关文章
相关标签/搜索