爬虫之scrapy核心组件

Scrapy一个开源和协做的框架,其最初是为了页面抓取 (更确切来讲, 网络抓取 )所设计的,使用它能够以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分普遍,可用于如数据挖掘、监测和自动化测试等领域,也能够应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。python

Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。所以Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。总体架构大体以下
web

Components:数据库

    1. 引擎(EGINE)

      引擎负责控制系统全部组件之间的数据流,并在某些动做发生时触发事件。有关详细信息,请参见上面的数据流部分。网络

    2. 调度器(SCHEDULER)
      用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 能够想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
    3. 下载器(DOWLOADER)
      用于下载网页内容, 并将网页内容返回给EGINE,下载器是创建在twisted这个高效的异步模型上的
    4. 爬虫(SPIDERS)
      SPIDERS是开发人员自定义的类,用来解析responses,而且提取items,或者发送新的请求
    5. 项目管道(ITEM PIPLINES)
      在items被提取后负责处理它们,主要包括清理、验证、持久化(好比存到数据库)等操做
    6. 下载器中间件(Downloader Middlewares)
      位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,你可用该中间件作如下几件事
      1. process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
      2. change received response before passing it to a spider;
      3. send a new Request instead of passing received response to a spider;
      4. pass response to a spider without fetching a web page;
      5. silently drop some requests.
    7. 爬虫中间件(Spider Middlewares)位于EGINE和SPIDERS之间,主要工做是处理SPIDERS的输入(即responses)和输出(即requests)
相关文章
相关标签/搜索