使用NLTK时出现Resource [93mpunkt[0m not found.

今天刚学习NLP时,在使用NLTK的 import nltk>>> text = "welcome reader.I hope you find it interesting.please do reply." >>> from nltk.tokenize import sent_tokenize >>> sent_tokenize(text) 进行分词的时候出现如下的错误: 原因在于缺少一个模块
相关文章
相关标签/搜索