BERT基础(一):self_attention自注意力详解

BERT中的主要模型为Transformer,而Transformer的主要模块就是self-attention。为了更好理解bert,就从最基本的self-attention 开始。之后的博文则一步一步推进到bert。 参考:李宏毅2019年新增课程 week 15 transformer 课程笔记 视频及课件地址:https://www.bilibili.com/video/av6552110
相关文章
相关标签/搜索