0.10 新版功能.html
Scrapy是经过 scrapy
命令行工具进行控制的。 这里咱们称之为 “Scrapy tool” 以用来和子命令进行区分。 对于子命令,咱们称为 “command” 或者 “Scrapy commands”。python
Scrapy tool 针对不一样的目的提供了多个命令,每一个命令支持不一样的参数和选项。git
在开始对命令行工具以及子命令的探索前,让咱们首先了解一下Scrapy的项目的目录结构。github
虽然能够被修改,但全部的Scrapy项目默认有相似于下边的文件结构:shell
scrapy.cfg myproject/ __init__.py items.py pipelines.py settings.py spiders/ __init__.py spider1.py spider2.py ...
scrapy.cfg
存放的目录被认为是 项目的根目录 。该文件中包含python模块名的字段定义了项目的设置。例如:浏览器
[settings] default = myproject.settings
scrapy
工具您能够以无参数的方式启动Scrapy工具。该命令将会给出一些使用帮助以及可用的命令:dom
Scrapy X.Y - no active project Usage: scrapy <command> [options] [args] Available commands: crawl Run a spider fetch Fetch a URL using the Scrapy downloader [...]
若是您在Scrapy项目中运行,当前激活的项目将会显示在输出的第一行。上面的输出就是响应的例子。若是您在一个项目中运行命令将会获得相似的输出:scrapy
Scrapy X.Y - project: myproject Usage: scrapy <command> [options] [args] [...]
通常来讲,使用 scrapy
工具的第一件事就是建立您的Scrapy项目:编辑器
scrapy startproject myproject
该命令将会在 myproject
目录中建立一个Scrapy项目。ide
接下来,进入到项目目录中:
cd myproject
这时候您就可使用 scrapy
命令来管理和控制您的项目了。
您能够在您的项目中使用 scrapy
工具来对其进行控制和管理。
好比,建立一个新的spider:
scrapy genspider mydomain mydomain.com
有些Scrapy命令(好比 crawl
)要求必须在Scrapy项目中运行。 您能够经过下边的 commands reference 来了解哪些命令须要在项目中运行,哪些不用。
另外要注意,有些命令在项目里运行时的效果有些许区别。 以fetch命令为例,若是被爬取的url与某个特定spider相关联, 则该命令将会使用spider的动做(spider-overridden behaviours)。 (好比spider指定的 user_agent
)。 该表现是有意而为之的。通常来讲, fetch
命令就是用来测试检查spider是如何下载页面。
该章节提供了可用的内置命令的列表。每一个命令都提供了描述以及一些使用例子。您老是能够经过运行命令来获取关于每一个命令的详细内容:
scrapy <command> -h
您也能够查看全部可用的命令:
scrapy -h
Scrapy提供了两种类型的命令。一种必须在Scrapy项目中运行(针对项目(Project-specific)的命令),另一种则不须要(全局命令)。全局命令在项目中运行时的表现可能会与在非项目中运行有些许差异(由于可能会使用项目的设定)。
全局命令:
项目(Project-only)命令:
scrapy startproject <project_name>
在 project_name
文件夹下建立一个名为 project_name
的Scrapy项目。
例子:
$ scrapy startproject myproject
scrapy genspider [-t template] <name> <domain>
在当前项目中建立spider。
这仅仅是建立spider的一种快捷方法。该方法可使用提早定义好的模板来生成spider。您也能够本身建立spider的源码文件。
例子:
$ scrapy genspider -l
Available templates:
basic
crawl
csvfeed
xmlfeed
$ scrapy genspider -d basic
import scrapy
class $classname(scrapy.Spider):
name = "$name"
allowed_domains = ["$domain"]
start_urls = (
'http://www.$domain/',
)
def parse(self, response):
pass
$ scrapy genspider -t basic example example.com
Created spider 'example' using template 'basic' in module:
mybot.spiders.example
scrapy crawl <spider>
使用spider进行爬取。
例子:
$ scrapy crawl myspider
[ ... myspider starts crawling ... ]
scrapy check [-l] <spider>
运行contract检查。
例子:
$ scrapy check -l
first_spider
* parse
* parse_item
second_spider
* parse
* parse_item
$ scrapy check
[FAILED] first_spider:parse_item
>>> 'RetailPricex' field is missing
[FAILED] first_spider:parse
>>> Returned 92 requests, expected 0..4
scrapy list
列出当前项目中全部可用的spider。每行输出一个spider。
使用例子:
$ scrapy list
spider1
spider2
scrapy edit <spider>
使用 EDITOR
中设定的编辑器编辑给定的spider
该命令仅仅是提供一个快捷方式。开发者能够自由选择其余工具或者IDE来编写调试spider。
例子:
$ scrapy edit spider1
scrapy fetch <url>
使用Scrapy下载器(downloader)下载给定的URL,并将获取到的内容送到标准输出。
该命令以spider下载页面的方式获取页面。例如,若是spider有 USER_AGENT
属性修改了 User Agent,该命令将会使用该属性。
所以,您可使用该命令来查看spider如何获取某个特定页面。
该命令若是非项目中运行则会使用默认Scrapy downloader设定。
例子:
$ scrapy fetch --nolog http://www.example.com/some/page.html
[ ... html content here ... ]
$ scrapy fetch --nolog --headers http://www.example.com/
{'Accept-Ranges': ['bytes'],
'Age': ['1263 '],
'Connection': ['close '],
'Content-Length': ['596'],
'Content-Type': ['text/html; charset=UTF-8'],
'Date': ['Wed, 18 Aug 2010 23:59:46 GMT'],
'Etag': ['"573c1-254-48c9c87349680"'],
'Last-Modified': ['Fri, 30 Jul 2010 15:30:18 GMT'],
'Server': ['Apache/2.2.3 (CentOS)']}
scrapy view <url>
在浏览器中打开给定的URL,并以Scrapy spider获取到的形式展示。 有些时候spider获取到的页面和普通用户看到的并不相同。 所以该命令能够用来检查spider所获取到的页面,并确认这是您所指望的。
例子:
$ scrapy view http://www.example.com/some/page.html
[ ... browser starts ... ]
scrapy shell [url]
以给定的URL(若是给出)或者空(没有给出URL)启动Scrapy shell。 查看 Scrapy终端(Scrapy shell) 获取更多信息。
例子:
$ scrapy shell http://www.example.com/some/page.html
[ ... scrapy shell starts ... ]
scrapy parse <url> [options]
获取给定的URL并使用相应的spider分析处理。若是您提供 --callback
选项,则使用spider的该方法处理,不然使用 parse
。
支持的选项:
--spider=SPIDER
: 跳过自动检测spider并强制使用特定的spider--a NAME=VALUE
: 设置spider的参数(可能被重复)--callback
or -c
: spider中用于解析返回(response)的回调函数--pipelines
: 在pipeline中处理item--rules
or -r
: 使用 CrawlSpider
规则来发现用来解析返回(response)的回调函数--noitems
: 不显示爬取到的item--nolinks
: 不显示提取到的连接--nocolour
: 避免使用pygments对输出着色--depth
or -d
: 指定跟进连接请求的层次数(默认: 1)--verbose
or -v
: 显示每一个请求的详细信息例子:
$ scrapy parse http://www.example.com/ -c parse_item
[ ... scrapy log lines crawling example.com spider ... ]
>>> STATUS DEPTH LEVEL 1 <<<
# Scraped Items ------------------------------------------------------------
[{'name': u'Example item',
'category': u'Furniture',
'length': u'12 cm'}]
# Requests -----------------------------------------------------------------
[]
scrapy settings [options]
获取Scrapy的设定
在项目中运行时,该命令将会输出项目的设定值,不然输出Scrapy默认设定。
例子:
$ scrapy settings --get BOT_NAME
scrapybot
$ scrapy settings --get DOWNLOAD_DELAY
0
scrapy runspider <spider_file.py>
在未建立项目的状况下,运行一个编写在Python文件中的spider。
例子:
$ scrapy runspider myspider.py
[ ... spider starts crawling ... ]
scrapy version [-v]
输出Scrapy版本。配合 -v
运行时,该命令同时输出Python, Twisted以及平台的信息,方便bug提交。
0.11 新版功能.
scrapy deploy [ <target:project> | -l <target> | -L ]
将项目部署到Scrapyd服务。查看 部署您的项目 。
您也能够经过 COMMANDS_MODULE
来添加您本身的项目命令。您能够以 scrapy/commands 中Scrapy commands为例来了解如何实现您的命令。
Default: ''
(empty string)
用于查找添加自定义Scrapy命令的模块。
例子:
COMMANDS_MODULE = 'mybot.commands'