斯坦福大学2019自然语言处理CS224n,Lecture6:Language Models and Recurrent Neural Networks

内容大纲: 语言模型: N-gram语言模型: n-gram指的是n个连续的词。通过统计不同n-gram的词频信息来预测下一个词是什么。 假设前提:长文本的第X(t+1)这个词出现概率等于前面的n-1个词预测下一个词出现的概率,也就是说: 怎么求上面的概率呢? 在一个很大的语料文本中计算他们出现的次数做比例。 举个例子: 对于4-gram,我们忽略掉除了三个文本之前的词汇,然后分别计算连续三个词汇
相关文章
相关标签/搜索