一种经过self-attention机制生成多维度aspect的句向量模型

这篇博客主要借鉴了IBM沃森实验室的2017年ICLR会议的论文《A STRUCTURED SELF-ATTENTIVE SENTENCE EMBEDDING》。根据self-attention机制生成针对一个句子的多维度表征向量。就我我的来看,过去一提到attention这种基于注意力的模型,特别是用在情感分类方面,通常来讲必定要和一个具体的任务联系在一块儿,这样才有attention的对象,比
相关文章
相关标签/搜索