独家 | 用spaCy蒸馏BERT模型

作者:YVES PEIRSMAN 翻译:詹荣辉 校对:闫晓雨 本文约2800字,建议阅读7分钟。 本文为大家介绍了用spaCy对BERT进行模型蒸馏,其性能也能接近BERT。 Photo on Blog 序列化和反序列化 迁移学习是自然语言处理领域最有影响力的最新突破之一。在其发布不到一年的时间里,谷歌的BERT及其后代(RoBERTa,XLNet等)主导了大多数NLP排行榜。虽然将这些庞大的模型
相关文章
相关标签/搜索