下载器中间件是介于Scrapy的request/response处理的钩子框架,是用于全局修改Scrapy request和response的一个轻量、底层的系统。html
要激活下载器中间件组件,将其加入到 DOWNLOADER_MIDDLEWARES 设置中。 该设置是一个字典(dict),键为中间件类的路径,值为其中间件的顺序(order)。像下面这样python
DOWNLOADER_MIDDLEWARES = { 'myproject.middlewares.CustomDownloaderMiddleware': 543, }
DOWNLOADER_MIDDLEWARES 设置会与Scrapy定义的 DOWNLOADER_MIDDLEWARES_BASE 设置合并(但不是覆盖), 然后根据顺序(order)进行排序,最后获得启用中间件的有序列表: 第一个中间件是最靠近引擎的,最后一个中间件是最靠近下载器的。web
关于如何分配中间件的顺序settings里面的Scrapy默认BASE设置 ,然后根据你想要放置中间件的位置选择一个值。 因为每一个中间件执行不一样的动做,你的中间件可能会依赖于以前(或者以后)执行的中间件,所以顺序是很重要的。后端
若是你想禁止内置的(在 DOWNLOADER_MIDDLEWARES_BASE 中设置并默认启用的)中间件, 你必须在项目的 DOWNLOADER_MIDDLEWARES 设置中定义该中间件,并将其值赋为 None 。 例如,若是您想要关闭user-agent中间件:浏览器
DOWNLOADER_MIDDLEWARES = {
'myproject.middlewares.CustomDownloaderMiddleware': 543, 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None, }
若是你想自定义一个属于你的下载器中间件,只须要编写一个下载器中间件类,继承自scrapy.downloadermiddlewares.DownloaderMiddleware
,然后在里面重写如下的几个方法。缓存
当每一个request经过下载中间件时,该方法被调用。ruby
process_request() 必须返回其中之一: 返回 None 、返回一个 Response 对象、返回一个 Request 对象或raise IgnoreRequest 。cookie
若是其返回 None ,Scrapy将继续处理该request,执行其余的中间件的相应方法,直到合适的下载器处理函数(download handler)被调用, 该request被执行(其response被下载)。session
若是其返回 Response 对象,Scrapy将不会调用 任何 其余的 process_request() 或 process_exception() 方法,或相应地下载函数; 其将返回该response。 已安装的中间件的 process_response() 方法则会在每一个response返回时被调用。框架
若是其返回 Request 对象,Scrapy则中止调用 process_request方法并从新调度返回的request。当新返回的request被执行后, 相应地中间件链将会根据下载的response被调用。
若是其raise一个 IgnoreRequest 异常,则安装的下载中间件的 process_exception() 方法会被调用。若是没有任何一个方法处理该异常, 则request的errback(Request.errback)方法会被调用。若是没有代码处理抛出的异常, 则该异常被忽略且不记录(不一样于其余异常那样)。
参数:
request(Request 对象)–处理的request
spider(Spider 对象)–该request对应的spider
process_request() 必须返回如下之一: 返回一个 Response 对象、 返回一个 Request 对象或raise一个 IgnoreRequest 异常。
参数:
request (Request 对象) – response所对应的request
response (Response 对象) – 被处理的response
spider (Spider 对象) – response所对应的spider
当下载处理器(download handler)或 process_request() (下载中间件)抛出异常(包括IgnoreRequest异常)时,Scrapy调用 process_exception() 。
process_exception() 应该返回如下之一: 返回 None 、 一个 Response 对象、或者一个 Request 对象。
参数:
request (是 Request 对象) – 产生异常的request
exception (Exception 对象) – 抛出的异常
spider (Spider 对象) – request对应的spider
CookiesMiddleware
该中间件使得爬取须要cookie(例如使用session)的网站成为了可能。 其追踪了web server发送的cookie,并在以后的request中发送回去, 就如浏览器所作的那样。
如下设置能够用来配置cookie中间件:
COOKIES_ENABLED默认为True
COOKIES_DEBUG默认为False
Scrapy经过使用 cookiejar Request meta key来支持单spider追踪多cookie session。 默认状况下其使用一个cookie jar(session),不过咱们能够传递一个标示符来使用多个。
好比:
for i, url in enumerate(urls): yield scrapy.Request("http://www.example.com", meta={'cookiejar': i}, callback=self.parse_page)
须要注意的是 cookiejar meta key不是”黏性的(sticky)”。 咱们须要在以后的request请求中接着传递。
好比:
def parse_page(self, response): # do some processing return scrapy.Request("http://www.example.com/otherpage", meta={'cookiejar': response.meta['cookiejar']}, callback=self.parse_other_page)
DefaultHeadersMiddleware
该中间件设置 DEFAULT_REQUEST_HEADERS 指定的默认request header。
DownloadTimeoutMiddleware
该中间件设置 DOWNLOAD_TIMEOUT 指定的request下载超时时间.
HttpAuthMiddleware
该中间件完成某些使用 Basic access authentication (或者叫HTTP认证)的spider生成的请求的认证过程。
HttpCacheMiddleware
该中间件为全部HTTP request及response提供了底层(low-level)缓存支持。 其由cache存储后端及cache策略组成。
HttpCompressionMiddleware
该中间件提供了对压缩(gzip, deflate)数据的支持
ChunkedTransferMiddleware
该中间件添加了对 chunked transfer encoding 的支持。
HttpProxyMiddleware
该中间件提供了对request设置HTTP代理的支持。您能够经过在 Request 对象中设置 proxy 元数据来开启代理。
RedirectMiddleware
该中间件根据response的状态处理重定向的request。经过该中间件的(被重定向的)request的url能够经过 Request.meta 的 redirect_urls 键找到。
MetaRefreshMiddleware
该中间件根据meta-refresh html标签处理request重定向。
RetryMiddleware
该中间件将重试可能因为临时的问题,例如链接超时或者HTTP 500错误致使失败的页面。
爬取进程会收集失败的页面并在最后,spider爬取完全部正常(不失败)的页面后从新调度。 一旦没有更多须要重试的失败页面,该中间件将会发送一个信号(retry_complete), 其余插件能够监听该信号。
RobotsTxtMiddleware
该中间件过滤全部robots.txt eclusion standard中禁止的request。
确认该中间件及 ROBOTSTXT_OBEY 设置被启用以确保Scrapy尊重robots.txt。
UserAgentMiddleware
用于覆盖spider的默认user agent的中间件。
要使得spider能覆盖默认的user agent,其 user_agent 属性必须被设置。
AjaxCrawlMiddleware
根据meta-fragment html标签查找 ‘AJAX可爬取’ 页面的中间件。