学习python-day02-09---转自Python分布式爬虫打造搜索引擎Scrapy精讲

第三百五十三节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapy的暂停与重启 scrapy的每一个爬虫,暂停时可以记录暂停状态以及爬取了哪些url,重启时可以从暂停状态开始爬取过的URL不在爬取 实现暂停与重启记录状态 1、首先cd进入到scrapy项目里 2、在scrapy项目里创建保存记录信息的文件夹 3、执行命令: scrapy crawl 爬虫名称 -s JOBDIR=保存
相关文章
相关标签/搜索