python爬虫框架scrapy一次执行多个爬虫文件

在scrapy工程,和spider文件夹同一目录下,建立一个.py文件scrapy import os os.system("scrapy crawl 爬虫1") os.system("scrapy crawl 爬虫2") 能够写多个。这样就能按顺序执行。
相关文章
相关标签/搜索