Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification解读

1. 概述 本篇论文模型框架共有五部分: 第一:输入层,输入的为每个句子 第二:嵌入层,将句子中的字转换为向量 第三:lstm层 第四:attention层,通过乘以权重向量,产生新的权重向量,并将每个时间步长的词级特征合并为句子级特征向量; 第五:输出层 2. 词嵌入 词嵌入的基本原理为 其中 e i e_i ei​即词的向量,他是通过一个矩阵W与一个单位矩阵相乘得到。 bi-lstm 本文使用
相关文章
相关标签/搜索