【论文解读】BERT:语言理解的深度双向变换器预训练

本文参考网上各大文章,整理翻译了BERT论文,在自己学习的同时也分享给大家,欢迎交流指教。 论文地址:https://arxiv.org/pdf/1810.04805.pdf 摘要   本文介绍一种称之为BERT的新语言表征模型,意为来自变换器的双向编码器表征量(BidirectionalEncoder Representations from Transformers)。不同于最近的语言表征模型
相关文章
相关标签/搜索