【PTM】BERT:一切过往,皆为序章

今天咱们学习的是谷歌的同窗 2018 年的论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》,目前引用量超 3800 次。git 虽然标题名很是浮夸,但对 Bert 来讲,he deserves it。github Bert 取名来自 Bidirectional Encoder R
相关文章
相关标签/搜索