一文详解transformer(Attention Is All You Need)原理

谈起天然语言,就不得不说到如今大火的bert以及openai gpt-2,可是在理解这些模型以前,我以为首先应该了解transformer,因本人水平有限,在看了transformer的论文以后也只知其一;不知其二,在分享今天的知识以前,咱们先简单了解一下seq2seqhtml 首先要说到seq2seq的发展历史,从单纯的RNN-RNN到LSTM-LSTM,再到BiLSTM-BiLSTM或者BiG
相关文章
相关标签/搜索