ERNIE(二妮儿)模型初探

ERNIE 1.0 1.0版本较BERT更改较少,结构如上图,主要表现在三个方面:(1)调整MASK策略;(2)增加异质数据;(3)增加DLM(Dialogue Language Model)任务。 (1)调整MASK策略 BERT中是随机MASK掉15%的words,并尝试在MLM任务中恢复。而ERNIE模型ERNIE的mask的策略是通过三个阶段学习的,在第一个阶段,采用的是BERT的模式,用
相关文章
相关标签/搜索