nltk包没有发现punkt资源问题

python调用nltk包作分词处理 笔者在使用python作文本分类时 import nltk.tokenize as tk 作分词处理时发现如下错误: 而按照其提示所操做: 后面在网上各类搜寻终于成功解决,步骤以下:python 1.自行在网上下载好nltk_data包 2.在C盘建立nltk_data文件夹 将下载的nltk_data.zip文件解压到新建的nltk_data文件夹中(本人用
相关文章
相关标签/搜索