nltk包没有发现punkt资源问题

python调用nltk包做分词处理 笔者在使用python做文本分类时 import nltk.tokenize as tk 做分词处理时发现以下错误: 而按照其提示所操作: 后面在网上各种搜寻终于成功解决,步骤如下: 1.下载nltk_data包 百度链接:https://pan.baidu.com/s/14WikrjpFE8z9SBvwgi8tLw 提取码:请留言,让我知道下有小伙伴在看,我
相关文章
相关标签/搜索