BERT的通俗理解

1、预训练模型       BERT是一个预训练的模型,那么什么是预训练呢?举例子进行简单的介绍       假设已有A训练集,先用A对网络进行预训练,在A任务上学会网络参数,然后保存以备后用,当来一个新的任务B,采取相同的网络结构,网络参数初始化的时候可以加载A学习好的参数,其他的高层参数随机初始化,之后用B任务的训练数据来训练网络,当加载的参数保持不变时,称为"frozen",当加载的参数随着
相关文章
相关标签/搜索