Practice

1、简介

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 其能够应用在数据挖掘,信息处理或存储历史数据等一系列的程序中。
其最初是为了页面抓取 (更确切来讲, 网络抓取 )所设计的, 也能够应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。Scrapy用途普遍,能够用于数据挖掘、监测和自动化测试。网络

requests本质就是就是发送http请求,若是在requests基础上作个封装,我去某个网站或者某个域名一直去发送请求找到全部的url,下载东西的请求在写个方法源源不断的下载东西!这样咱们就写了个框架。架构

3、结构分析

Scrapy 使用了 Twisted异步网络库来处理网络通信。总体架构大体以下:框架

一、Scrapy组件

Scrapy主要包括了如下组件:dom

一、引擎(Scrapy)
用来处理整个系统的数据流处理, 触发事务(框架核心)异步

二、调度器(Scheduler)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 能够想像成一个URL(抓取网页的网址或者说是连接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址ide

三、下载器(Downloader)
用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是创建在twisted这个高效的异步模型上的)测试

四、爬虫(Spiders)
爬虫是主要干活的, 用于从特定的网页中提取本身须要的信息, 即所谓的实体(Item)。用户也能够从中提取出连接,让Scrapy继续抓取下一个页面网站

五、项目管道(Pipeline)
负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证明体的有效性、清除不须要的信息。当页面被爬虫解析后,将被发送到项目管道,并通过几个特定的次序处理数据。url

六、下载器中间件(Downloader Middlewares)
位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。spa

七、爬虫中间件(Spider Middlewares)
介于Scrapy引擎和爬虫之间的框架,主要工做是处理蜘蛛的响应输入和请求输出。

八、调度中间件(Scheduler Middewares)
介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。

二、Scrapy数据流

Scrapy中的数据流由执行引擎控制,其过程以下:

1)引擎打开一个网站(open a domain),找处处理该网站的Spider并向该spider请求第一个要爬取的URL(s)。
2)引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度。
3)引擎向调度器请求下一个要爬取的URL。
4)调度器返回下一个要爬取的URL给引擎,引擎将URL经过下载中间件(请求(request)方向)转发给下载器(Downloader)。
5)一旦页面下载完毕,下载器生成一个该页面的Response,并将其经过下载中间件(返回(response)方向)发送给引擎。
6)引擎从下载器中接收到Response并经过Spider中间件(输入方向)发送给Spider处理。
7)Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎。
8)引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器。
9)(从第二步)重复直到调度器中没有更多地request,引擎关闭该网站。

4、范例分析

一、

(1)

(2)

(3)

二、

(1)

(2)

(3)

三、

(1)

(2)

(3)

四、

(1)

(2)

(3)

5、功能运用

一、

(1)

(2)

(3)

二、

(1)

(2)

(3)

三、

(1)

(2)

(3)

四、

(1)

(2)

(3)

6、小结

一、

(1)

(2)

(3)

二、

(1)

(2)

(3)

三、

(1)

(2)

(3)

四、

(1)

(2)

(3)

1、简介
2、定义
3、结构分析
4、范例分析
5、功能运用
6、小结

相关文章
相关标签/搜索