[nlp] ELMo模型(下)

继Transformer模型之后,我们再来介绍ELMo模型。 ELMo模型 看到前面的,看不到后面的 看到后面的,看不到前面的 Deep contextualized word representations (深层上下文的词语表征) 好的Embedding 捕捉语义和语法信息 能区分一词多义 引入前向 和 后向 语言模型 进行训练 词向量的表示基于当前的句子上下文 高层LSTM:捕捉上下文的词特
相关文章
相关标签/搜索