百度ERNIE,中文任务全面超越BERT

本文转自机器之心 ERNIE Github 项目地址:https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE 近年来,无监督文本的深度神经网络预训练模型大幅提升了各个 NLP 任务的效果。早期的工作聚焦于上下文无关的词向量建模,而之后提出的 Cove,ELMo,GPT 等模型,构建了语句级的语义表示。Google 近期提出的 BERT 模型,
相关文章
相关标签/搜索