论文阅读 Multi-Task Deep Neural Networks for Natural Language Understanding

这是今年arXiv上Microsoft Research的一篇文本embedding的文章,原文在Multi-task DNN。 这篇文章的思路很简单,在BERT的基础上,用multi-task learning对embedding layer进行fine-tuned,但在GLEU benchmark上的实验结果非常好,九个NLU任务中八个的表现都有提升,benchmark提升了足足2.2%。 M
相关文章
相关标签/搜索