Bert学习记录

这里写自定义目录标题 Seq2Seq模型 Attention Transformer Bert训练方法 总结 2018年的10月11日,Google公司发布了《Pre-training of Deep Bidirectional Transformers for Language Understanding》,成功地在11项NLP任务中取得了state of the art的结果,获得了一众赞誉。
相关文章
相关标签/搜索