Task06:基于深度学习的文本分类3

什么是BERT? 你一定听说过BERT,也知道了它是多么不可思议以致改变了NLP的领域格局,但BERT究竟是什么? 以下是BERT团队对该框架的描述:BERT全称Bidirectional Encoder Representations from Transformers(Transformers的双向编码表示),对未标注的文本,通过上下文约束预训练深层双向表示。训练完成后,只需要对BERT预训练
相关文章
相关标签/搜索