谷歌终于开源BERT代码:3 亿参数量,机器之心全面解读

编辑 | 思源&路&晓坤,机器之心受权转载,勿二次转载python 最近谷歌发布了基于双向 Transformer 的大规模预训练语言模型,该预训练模型能高效抽取文本信息并应用于各类 NLP 任务,该研究凭借预训练模型刷新了 11 项 NLP 任务的当前最优性能记录。若是这种预训练方式能经得起实践的检验,那么各类 NLP 任务只须要少许数据进行微调就能实现很是好的效果,BERT 也将成为一种名副其
相关文章
相关标签/搜索