一种通过self-attention机制生成多维度aspect的句向量模型

这篇博客主要借鉴了IBM沃森实验室的2017年ICLR会议的论文《A STRUCTURED SELF-ATTENTIVE SENTENCE EMBEDDING》。根据self-attention机制生成针对一个句子的多维度表征向量。就我个人来看,过去一提到attention这种基于注意力的模型,特别是用在情感分类方面,一般来说一定要和一个具体的任务联系在一起,这样才有attention的对象,比方
相关文章
相关标签/搜索