Transformer-XL语言模型:超长上下文依赖

论文链接:https://arxiv.org/pdf/1901.02860.pdf 代码链接:https://github.com/kimiyoung/transformer-xl 参考来源:https://mp.weixin.qq.com/s/C1hXU3HMSXSY5Ru9r1CZAA 导读 今天学习的是谷歌大脑的同学和 CMU 的同学于 2019 年联合出品的论文《Transformer-X
相关文章
相关标签/搜索