NLP学习笔记(9)

目前深度学习的NLP存在一些局限性,比如通过自监督学习学得一个很好的模型真正理解语言的奥义(需要大量的标注信息) 第一个难题就是没有一个模型可以在所有的任务上取得好效果,之前提到的dynamic memory network就是为了来解决 这个问题的 第二个难题是没有办法共享多任务之间的参数,也就是说没有办法用一个模型去jointly训练多任务 下面这篇论文是为了解决上面这个问题的:其中第三部分的
相关文章
相关标签/搜索