BERT家族的那些事——RoBERTa篇

本文是BERT家族系列文章的第二篇,主要是自己对于RoBERTa模型的一些理解,写的不好的地方还请大佬们多多指教。 目录 RoBERTa简介 RoBERTa模型结构 模型结构层面的修改 数据层面的修改 总结 RoBERTa简介 RoBERTa全称:“A Robustly Optimized BERT Pretraining Approach”,从名字上可以看出RoBERTa是对BERT模型做了若干
相关文章
相关标签/搜索