Bert学习资料

https://zhuanlan.zhihu.com/p/49271699git


Bert是近年来NLP重大进展的集大成者. 目前绝大部分NLP任务均可以采用相似的两阶段模式直接去提高效果github

Transformer是谷歌在17年作机器翻译任务的“Attention is all you need”的论文中提出的,引发了至关大的反响,不少研究已经证实了Transformer提取特征的能力是要远强于LSTM的.app

Transformer在将来会逐渐替代掉RNN成为主流的NLP工具,RNN一直受困于其并行计算能力,这是由于它自己结构的序列性依赖致使的.ide

CNN在NLP里一直没有造成主流,CNN的最大优势是易于作并行计算,因此速度快,可是在捕获NLP的序列关系尤为是长距离特征方面自然有缺陷工具


https://zhuanlan.zhihu.com/p/37601161  深度学习中的注意力模型学习

https://jalammar.github.io/illustrated-transformer/  transformer资料spa

相关文章
相关标签/搜索