小白学 Python 爬虫(33):爬虫框架 Scrapy 入门基础(一)

人生苦短,我用 Pythoncss

前文传送门:html

小白学 Python 爬虫(1):开篇python

小白学 Python 爬虫(2):前置准备(一)基本类库的安装git

小白学 Python 爬虫(3):前置准备(二)Linux基础入门github

小白学 Python 爬虫(4):前置准备(三)Docker基础入门shell

小白学 Python 爬虫(5):前置准备(四)数据库基础数据库

小白学 Python 爬虫(6):前置准备(五)爬虫框架的安装数据结构

小白学 Python 爬虫(7):HTTP 基础架构

小白学 Python 爬虫(8):网页基础框架

小白学 Python 爬虫(9):爬虫基础

小白学 Python 爬虫(10):Session 和 Cookies

小白学 Python 爬虫(11):urllib 基础使用(一)

小白学 Python 爬虫(12):urllib 基础使用(二)

小白学 Python 爬虫(13):urllib 基础使用(三)

小白学 Python 爬虫(14):urllib 基础使用(四)

小白学 Python 爬虫(15):urllib 基础使用(五)

小白学 Python 爬虫(16):urllib 实战之爬取妹子图

小白学 Python 爬虫(17):Requests 基础使用

小白学 Python 爬虫(18):Requests 进阶操做

小白学 Python 爬虫(19):Xpath 基操

小白学 Python 爬虫(20):Xpath 进阶

小白学 Python 爬虫(21):解析库 Beautiful Soup(上)

小白学 Python 爬虫(22):解析库 Beautiful Soup(下)

小白学 Python 爬虫(23):解析库 pyquery 入门

小白学 Python 爬虫(24):2019 豆瓣电影排行

小白学 Python 爬虫(25):爬取股票信息

小白学 Python 爬虫(26):为啥买不起上海二手房你都买不起

小白学 Python 爬虫(27):自动化测试框架 Selenium 从入门到放弃(上)

小白学 Python 爬虫(28):自动化测试框架 Selenium 从入门到放弃(下)

小白学 Python 爬虫(29):Selenium 获取某大型电商网站商品信息

小白学 Python 爬虫(30):代理基础

小白学 Python 爬虫(31):本身构建一个简单的代理池

小白学 Python 爬虫(32):异步请求库 AIOHTTP 基础入门

引言

首先恭喜看到这篇文章的各位同窗,从这篇文章开始,整个小白学 Python 爬虫系列进入最后一部分,小编计划是介绍一些经常使用的爬虫框架。

说到爬虫框架,首先绕不过去的必然是 Scrapy 。

Scrapy 是一个基于 Twisted 的异步处理框架,是纯 Python 实现的爬虫框架,其架构清晰,模块之间的耦合程度低,可扩展性极强,能够灵活完成各类需求。

固然第一件事儿仍是各类官方地址:

Scrapy 官网: https://scrapy.org/

Github:https://github.com/scrapy/scrapy

官方文档:https://scrapy.org/doc/

架构概述

首先看一下 Scrapy 框架的架构体系图:

从这张图中,能够看到 Scrapy 分红了不少个组件,每一个组件的含义以下:

  • Engine 引擎:引擎负责控制系统全部组件之间的数据流,并在发生某些操做时触发事件。
  • Item 项目:它定义了爬取结果的数据结构,爬取的数据会被赋值成该对象。
  • Scheduler 调度器:用来接受引擎发过来的请求并加入队列中,并在引擎再次请求的时候提供给引擎。
  • Downloader 下载器:下载器负责获取网页并将其馈送到引擎,引擎又将其馈给蜘蛛。
  • Spiders 蜘蛛:其内定义了爬取的逻辑和网页的解析规则,它主要负责解析响应并生成提取结果和新的请求。
  • Item Pipeline 项目管道:负责处理由蜘蛛从网页中抽取的项目,它的主要任务是清洗、验证和存储数据。
  • Downloader Middlewares 下载器中间件:下载器中间件是位于引擎和Downloader之间的特定挂钩,它们在从引擎传递到Downloader时处理请求,以及从Downloader传递到Engine的响应。
  • Spider Middlewares 蜘蛛中间件:蜘蛛中间件是位于引擎和蜘蛛之间的特定挂钩,而且可以处理蜘蛛的输入(响应)和输出(项目和请求)。

上面这张图的数据流程以下:

  1. 该引擎获取从最初请求爬行 蜘蛛。
  2. 该引擎安排在请求 调度程序和要求下一个请求爬行。
  3. 该计划返回下一请求的引擎。
  4. 该引擎发送请求到 下载器,经过 下载器中间件。
  5. 页面下载完成后, Downloader会生成一个带有该页面的响应,并将其发送到Engine,并经过 Downloader Middlewares。
  6. 该引擎接收来自响应 下载器并将其发送到所述 蜘蛛进行处理,经过蜘蛛中间件。
  7. 该蜘蛛处理响应并返回刮下的项目和新的要求(跟随)的 引擎,经过 蜘蛛中间件。
  8. 该引擎发送处理的项目,以 项目管道,而后把处理的请求的调度,并要求从此可能请求爬行。
  9. 重复该过程(从步骤1开始),直到再也不有Scheduler的请求为止 。

这张图的名词有些多,记不住实属正常,不过不要紧,后续小编会配合着示例代码,和各位同窗一块儿慢慢的学习。

基础示例

先来个最简单的示例项目,在建立项目以前,请肯定本身的环境已经正确安装了 Scrapy ,若是没有安装的同窗能够看下前面的文章,其中有介绍 Scrapy 的安装配置。

首先须要建立一个 Scrapy 的项目,建立项目须要使用命令行,在命令行中输入如下命令:

scrapy startproject first_scrapy

而后一个名为 first_scrapy 的项目就建立成功了,项目文件结构以下:

first_scrapy/
    scrapy.cfg            # deploy configuration file

    first_scrapy/             # project's Python module, you'll import your code from here
        __init__.py

        items.py          # project items definition file

        middlewares.py    # project middlewares file

        pipelines.py      # project pipelines file

        settings.py       # project settings file

        spiders/          # a directory where you'll later put your spiders
            __init__.py
  • scrapy.cfg:它是 Scrapy 项目的配置文件,其内定义了项目的配置文件路径、部署相关信息等内容。
  • items.py:它定义 Item 数据结构,全部的 Item 的定义均可以放这里。
  • pipelines.py:它定义 Item Pipeline 的实现,全部的 Item Pipeline 的实现均可以放这里。
  • settings.py:它定义项目的全局配置。
  • middlewares.py:它定义 Spider Middlewares 和 Downloader Middlewares 的实现。
  • spiders:其内包含一个个 Spider 的实现,每一个 Spider 都有一个文件。

到此,咱们已经成功建立了一个 Scrapy 项目,可是这个项目目前是空的,咱们须要再手动添加一只 Spider 。

Scrapy 用它来从网页里抓取内容,并解析抓取的结果。不过这个类必须继承 Scrapy 提供的 Spider 类 scrapy.Spider,还要定义 Spider 的名称和起始请求,以及怎样处理爬取后的结果的方法。

建立 Spider 可使用手动建立,也可使用命令建立,小编这里演示一下如何使用命令来建立,以下:

scrapy genspider quotes quotes.toscrape.com

将会看到在 spider 目录下新增了一个 QuotesSpider.py 的文件,里面的内容以下:

# -*- coding: utf-8 -*-
import scrapy


class QuotesSpider(scrapy.Spider):
    name = 'quotes'
    allowed_domains = ['quotes.toscrape.com']
    start_urls = ['http://quotes.toscrape.com/']

    def parse(self, response):
        pass

能够看到,这个类里面有三个属性 nameallowed_domainsstart_urls 和一个 parse() 方法。

  • name,它是每一个项目惟一的名字,用来区分不一样的 Spider。
  • allowed_domains,它是容许爬取的域名,若是初始或后续的请求连接不是这个域名下的,则请求连接会被过滤掉。
  • start_urls,它包含了 Spider 在启动时爬取的 url 列表,初始请求是由它来定义的。
  • parse,它是 Spider 的一个方法。默认状况下,被调用时 start_urls 里面的连接构成的请求完成下载执行后,返回的响应就会做为惟一的参数传递给这个函数。该方法负责解析返回的响应、提取数据或者进一步生成要处理的请求。

到这里咱们就清楚了, parse() 方法中的 response 是前面的 start_urls 中连接的爬取结果,因此在 parse() 方法中,咱们能够直接对爬取的结果进行解析。

先看下网页的 DOM 结构:

接下来要作的事情就比较简单了,获取其中的数据,而后将其打印出来。

数据提取的方式能够是 CSS 选择器也能够是 XPath 选择器,小编这里使用的是 CSS 选择器,将咱们刚才的 parse() 方法进行一些简单的改动,以下:

def parse(self, response):
    quotes = response.css('.quote')
    for quote in quotes:
        text = quote.css('.text::text').extract_first()
        author = quote.css('.author::text').extract_first()
        tags = quote.css('.tags .tag::text').extract()
        print("text:", text)
        print("author:", author)
        print("tags:", tags)

首先是获取到全部的 class 为 quote 的元素,而后将全部元素进行循环后取出其中的数据,最后对这些数据进行打印。

程序到这里就写完了,那么接下来的问题是,咱们如何运行这只爬虫?

Scrapy 的运行方式一样适用适用命令行的,首先要到这个项目的根目录下,而后执行如下代码:

scrapy crawl quotes

结果以下:

能够看到,咱们刚才 print() 的内容正常的打印在了命令行中。

除了咱们 print() 中的内容的打印,还能够看到在 Scrapy 启动的过程当中, Scrapy 输出了当前的版本号以及正在启动的项目名称,而且在爬取网页的过程当中,首先访问了 http://quotes.toscrape.com/robots.txt 机器人协议,虽然这个协议在当前这个示例中响应了 404的状态码,可是 Scrapy 会根据机器人协议中的内容进行爬取。

示例代码

本系列的全部代码小编都会放在代码管理仓库 Github 和 Gitee 上,方便你们取用。

示例代码-Github

示例代码-Gitee

参考

https://docs.scrapy.org/en/latest/intro/tutorial.html

https://docs.scrapy.org/en/latest/topics/architecture.html

https://cuiqingcai.com/8337.html

原文出处:https://www.cnblogs.com/babycomeon/p/12159528.html

相关文章
相关标签/搜索