【cs224n-12】Modeling contexts of use: Contextual Representations and Pretraining. ELMo and BERT.

    上一篇我们讲解了词嵌入的静态表示和上下文动态表示的区别,即基于上下文动态表示的预训练模型的发展情况,本文是对具体细节的一些细化描述。 1. Representations for a word     我们可以从我们常见的词嵌入的静态表示模型 Word2vec, GloVe, fastText获得一个单词的表示,并应有与下游任务。   Tips for unknown words with
相关文章
相关标签/搜索