使用scrapy crawl name启动一个爬虫时出现的问题

使用scrapy crawl name启动一个爬虫时出现的问题,个人项目名字叫作 “spider_city_58”,代码以下:python

from scrapy import cmdline
cmdline.execute("scrapy crawl spider_city_58".split())

来启动一个爬虫,却出现了以下错误api

ImportError: No module named win32api

一开始尝试了网上其余的方法,就是去下载”pywin32-220.win-amd64-py3.6.exe“,安装,发现根本没法安装,明明个人python版本也是64位的3.6,如今也不知道为啥!scrapy

因而卸载了python和其余全部的模块,可是依然报错,以后就尝试了如下的办法就解决了,汗~~ide

pip install pypiwin32

唉,这么简单却没有想到,郁闷~spa

相关文章
相关标签/搜索