scrapy同时启动多个爬虫

 1、建立spiderhtml   一、建立多个spider,scrapy genspider spidername domainpython scrapy genspider CnblogsHomeSpider cnblogs.com   经过上述命令建立了一个spider name为CnblogsHomeSpider的爬虫,start_urls为http://www.cnblogs.com/的
相关文章
相关标签/搜索