爬虫顾名思义是爬取数据的工具,但由于爬取数据的多样化和爬取流程的类似性造成了共识的爬虫框架。数据库
通常的爬虫的总体结构以下所示框架
绿线是数据流向,首先从初始 URL 开始,Scheduler 会将其交给 Downloader 进行下载,下载以后会交给 Spider 进行分析,Spider 分析出来的结果有两种:一种是须要进一步抓取的连接,例如以前分析的“下一页”的连接,这些东西会被传回 Scheduler ;另外一种是须要保存的数据,它们则被送到 Item Pipeline 那里,那是对数据进行后期处理(详细分析、过滤、存储等)的地方。另外,在数据流动的通道里还能够安装各类中间件,进行必要的处理。ide
Scrapy引擎是用来控制整个系统的数据处理流程,并进行事务处理的触发。更多的详细内容能够看下面的数据处理流程。函数
调度程序从Scrapy引擎接受请求并排序列入队列,并在Scrapy引擎发出请求后返还给他们。工具
Downloader(下载器) 下载器的主要职责是抓取网页并将网页内容返还给蜘蛛( Spiders)。网站
Spiders(蜘蛛) 蜘蛛是有Scrapy用户本身定义用来解析网页并抓取制定URL返回的内容的类,每一个蜘蛛都能处理一个域名或一组域名。换句话说就是用来定义特定网站的抓取和解析规则。蜘蛛的整个抓取流程(周期)是这样的:首先获取第一个URL的初始请求,当请求返回后调取一个回调函数。第一个请求是经过调用start_requests()方法。该方法默认从start_urls中的Url中生成请求,并执行解析来调用回调函数。在回调函数中,你能够解析网页响应并返回项目对象和请求对象或二者的迭代。这些请求也将包含一个回调,而后被Scrapy下载,而后有指定的回调处理。在回调函数中,你解析网站的内容,使用的是Xpath选择器(可是你也可使用BeautifuSoup, lxml或其余任何你喜欢的程序),并生成解析的数据项。最后,从蜘蛛返回的项目一般会进驻到项目管道。url
Item Pipeline(项目管道) 项目管道的主要责任是负责处理有蜘蛛从网页中抽取的项目,他的主要任务是清晰、验证和存储数据。当页面被蜘蛛解析后,将被发送到项目管道,并通过几个特定的次序处理数据。每一个项目管道的组件都是有一个简单的方法组成的Python类。他们获取了项目并执行他们的方法,同时他们还须要肯定的是是否须要在项目管道中继续执行下一步或是直接丢弃掉不处理。项目管道一般执行的过程有:清洗HTML数据验证解析到的数据(检查项目是否包含必要的字段)检查是不是重复数据(若是重复就删除)将解析到的数据存储到数据库中xml
Downloader middlewares(下载器中间件)中间件
下载中间件是位于Scrapy引擎和下载器之间的钩子框架,主要是处理Scrapy引擎与下载器之间的请求及响应。它提供了一个自定义的代码的方式来拓展Scrapy的功能。下载中间器是一个处理请求和响应的钩子框架。他是轻量级的,对Scrapy尽享全局控制的底层的系统。对象
Spider middlewares(蜘蛛中间件)蜘蛛中间件是介于Scrapy引擎和蜘蛛之间的钩子框架,主要工做是处理蜘蛛的响应输入和请求输出。它提供一个自定义代码的方式来拓展Scrapy的功能。蛛中间件是一个挂接到Scrapy的蜘蛛处理机制的框架,你能够插入自定义的代码来处理发送给蜘蛛的请求和返回蜘蛛获取的响应内容和项目。
Scheduler middlewares(调度中间件) 调度中间件是介于Scrapy引擎和调度之间的中间件,主要工做是处从Scrapy引擎发送到调度的请求和响应。他提供了一个自定义的代码来拓展Scrapy的功能。
Scrapy的整个数据处理流程有Scrapy引擎进行控制,其主要的运行方式为: