赛尔笔记 | Transformer及其变种

公众号关注 “ML_NLP” 设为 “星标”,重磅干货,第一时间送达! 作者:哈工大SCIR 蒋润宇 简介 近年来NLP领域最让人印象深刻的成果,无疑是以谷歌提出的Bert为代表的预训练模型了。它们不断地刷新记录(无论是任务指标上,还是算力需求上),在很多任务上已经能超越人类平均水平,还具有非常良好的可迁移性,以及一定程度的可解释性。 例如,当我们需要在论文里解释为什么算法或者改动能够work的时
相关文章
相关标签/搜索