BERT详解

1.BERT模型 BERT(Bidirectional Encoder Representations from Transformers)近期提出之后,作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。论文的主要特点以下几点: 使用了Transformer [2]作为算法的主要框架,Trabsformer能更彻底的捕捉语句
相关文章
相关标签/搜索