NLP 高引论文解读两篇 | BERT模型、SQuAD数据集

本文是对两篇近年来自然语言处理(NLP)领域高引论文的解读。   1. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 作者:Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova(Google AI) 论文出处:Pro
相关文章
相关标签/搜索