原生Bert的训练和使用总结

bert诞生至今已经有2年了,其产生的影响和一直延伸至今的衍生模型固然是不用我来赘述,为了积累下以往的学习内容防止忘记,就把笔记整理下。 本文的主要从模型运行过程的视角来介绍下google的原生bert是怎么运作和调用的。 首先还是上图: 这是一张transformer的模型框架,这个框架左边一半你就可以理解是一个bert的主干网络,真正的bert是由左边这一小块一小块堆叠而成的,所谓的bert(
相关文章
相关标签/搜索