自然语言处理之Hierarchical Attention

一、简介 今天,基本上所有的NLP方面的应用,如果想取得state-of-art的结果,就必须要经过attention model的加持。比如machine translation, QA(question-answer), NLI(natural language inference), etc, etc…. 但是这里有个问题:统上的attention的应用,总是要求我们的task本身同时有源和
相关文章
相关标签/搜索