Bert模型

引言 Bert(Bidirectional Encoder Representations from Transformers)使用了Transformer为主要框架,Transformer能够更彻底的捕捉语句中的双向关系。Transformer框架之所以能够比传统的CNN、RNN甚至是LSTM更优秀,是因为整个网络架构完全是由attention机制组成。因此,想要了解Bert需要从认识atten
相关文章
相关标签/搜索