使用scrapy crawl name启动一个爬虫时出现的问题,个人项目名字叫作 “spider_city_58”,代码以下:python
from scrapy import cmdline cmdline.execute("scrapy crawl spider_city_58".split())
来启动一个爬虫,却出现了以下错误api
一开始尝试了网上其余的方法,就是去下载”pywin32-220.win-amd64-py3.6.exe“,安装,发现根本没法安装,明明个人python版本也是64位的3.6,如今也不知道为啥!scrapy
因而卸载了python和其余全部的模块,可是依然报错,以后就尝试了如下的办法就解决了,汗~~ide
pip install pypiwin32
唉,这么简单却没有想到,郁闷~spa