NLP小白学习路线(4)——Contextual Word Embeddings

上一篇我们介绍了Subword Models 模型 这一篇将介绍ELMO,GPT &BERT Subword Models 模型是为了解决单词不存在于词汇库中的情况OOV(out-of-vocabulary)。并且对于单词的变换,比如副词,加-ed,-ing这种单词的变形(morphology)处理的问题。 并在Word embedding最小单位为单词的基础上,进一步缩小粒度为Character
相关文章
相关标签/搜索