文献阅读笔记:XLNet: Generalized Autoregressive Pretraining for Language Understanding

0.背景 机构:谷歌大脑、CMU 作者:Zhilin Yang、Zihang Dai 发布地方:arxiv 面向任务:Language Understanding 论文地址:https://arxiv.org/abs/1904.09482 论文代码:https://github.com/zihangdai/xlnet 0-1. 摘要 由于上下文双向建模的表达能力更强,降噪自编码类型中的典型代表BE
相关文章
相关标签/搜索