小版BERT也能出奇迹:最火的预训练语言库探索小巧之路

转载:https://tech.ifeng.com/c/7pqoBttuWS0   选自Medium 作者:Victor Sanh 机器之心编译 参与:魔王 过去一段时间,大模型层出不穷。在大家纷纷感叹「大力出奇迹」的时候,作为调用预训练语言模型最流行的库,HuggingFace 尝试用更少的参数量、更少的训练资源实现同等的性能,于是知识蒸馏版 BERT——DistilBERT 应运而生! 近日,
相关文章
相关标签/搜索