论文赏析[EMNLP19]如何在Transformer中融入句法树信息?这里给出了一种解决方案

论文地址:Tree Transformer: Integrating Tree Structures into Self-Attention 介绍 之前其实有很多工作将句法信息融入到了RNN中,例如ON-LSTM和PRPN,用来隐式建模句法结构信息,同时提升语言模型的准确率。本文尝试将句法信息融入到Transformer中,用来赋予attention更好的解释性。同时可以无监督的预测出句子的句法树
相关文章
相关标签/搜索