BERT介绍

这篇介绍如下最近大热的BERT,它在11个NLP任务中刷新了成绩,效果确实惊人。不过在介绍论文以前我仍是想说这项工做不是很好复现,若是没有足够的资源就不要想了 。我以为极可能将来的利用价值在于直接使用做者公布的预训练好的模型。html 回顾 如今有不少利用预训练的语言表征来完成下游NLP任务的研究,做者把它们归纳为两类feature-based和fine-tuning:web 分类 表明 task
相关文章
相关标签/搜索