上一篇文章: Python3网络爬虫实战---1四、部署相关库的安装:Scrapyrt、Gerapy
下一篇文章: Python3网络爬虫实战---1六、Web网页基础
在写爬虫以前,仍是须要了解一些爬虫的基础知识,如 HTTP 原理、网页的基础知识、爬虫的基本原理、Cookies 基本原理等。javascript
那么本章内容就对一些在作爬虫以前所须要的基础知识作一些简单的总结。html
在本节咱们会详细了解 HTTP 的基本原理,了解在浏览器中敲入一个 URL 到获取网页内容发生了一个怎样的过程,了解了这些内容,有助于去进一步了解爬虫的基本原理。java
在了解 HTTP 以前咱们先了解一下 URI 和 URL。咱们常常会听到 URI 和 URL 两个术语,URI 全称为 Uniform Resource Identifier,即统一资源标志符,URL 全称为 Universal Resource Locator,即统一资源定位符。
举例来讲,https://github.com/favicon.ico,这是 GitHub 的网站图标连接,它是一个 URL,也是一个 URI,即有这样的一个图标资源,咱们用 URL/URI 来惟一指定了它的访问方式,这其中包括了访问协议 https、访问路径/即根目录,资源名称 favicon.ico,经过这样的一个连接咱们即可以从互联网上找到这个资源,这就是 URL/URI。
URL 是 URI 的子集,也就是说每一个 URL 都是 URI,但不是每一个 URI 都是 URL。那么怎样的 URI 不是 URL 呢?URI 还包括一个子类叫作 URN,它的全称为 Universal Resource Name,即统一资源名称。URN 只命名资源而不指定如何定位资源,如 urn:isbn:0451450523,它指定了一本书的 ISBN,能够惟一标识这一本书,可是没有指定到哪里定位这本书,这就是 URN,URL、URN、URI 的关系能够用图 2-1 表示以下:git
图 2-1 URL、URN、URI 关系图
可是在目前的互联网,URN 的使用很是少,因此几乎全部的 URI 都是 URL,因此通常的网页连接咱们能够称之为 URL,也能够称之为 URI,我我的习惯称之为 URL。github
接下来咱们再了解一个概念,超文本。超文本英文名称叫作 Hypertext,咱们在浏览器里面看到的网页就是超文本解析而成的,其网页源代码是一系列 HTML 代码,里面包含了一系列标签,如 img 显示图片,p 指定显示段落等,浏览器解析这些标签后便造成了咱们日常看到的网页,而这网页的源代码 HTML 就能够称做超文本。
例如咱们在 Chrome 浏览器里面打开任意一个页面,如淘宝首页,右键点击检查,或按下快捷键 F12 便可打开浏览器的开发者工具,这时咱们在 Elements 选项卡便可看到当前网页的源代码,这些源代码都是超文本,如图 2-2 所示:json
图 2-2 源代码小程序
咱们在前面了解了 URI 和 URL,例如淘宝的首页:https://www.taobao.com/,在 URL 的开头会有 http 或 https,这个就是访问资源须要的协议类型,有时咱们还会看到 ftp、sftp、smb 开头的 URL,那么这里的 ftp、sftp、smb 都是指的协议类型。在爬虫中,咱们抓取的页面一般就是 http 或 https 协议的,咱们在这里首先来了解一下这两个协议的含义。
HTTP 的全称是 Hyper Text Transfer Protocol,中文名叫作超文本传输协议,HTTP 协议是用于从网络传输超文本数据到本地浏览器的传送协议,它能保证传送高效而准确地传送超文本文档。HTTP 由万维网协会(World Wide Web Consortium)和 Internet 工做小组IETF(Internet Engineering Task Force)共同合做制定的规范,目前普遍使用的是 HTTP 1.1 版本。
HTTPS 的全称是 Hyper Text Transfer Protocol over Secure Socket Layer,是以安全为目标的 HTTP 通道,简单讲是 HTTP 的安全版,即 HTTP 下加入 SSL 层,简称为 HTTPS。
HTTPS 的安全基础是 SSL,所以经过它传输的内容都是通过 SSL 加密的,它的主要做用能够分为两种:segmentfault
如今愈来愈多的网站和 APP 都已经向 HTTPS 方向发展。例如:微信小程序
而某些网站虽然使用了 HTTPS 协议仍是会被浏览器提示不安全,例如咱们在 Chrome 浏览器里面打开 12306,连接为:https://www.12306.cn/,这时浏览器就会提示“您的链接不是私密链接”这样的话,如图 2-3 所示:
图 2-3 12306 页面
这是由于 12306 的 CA 证书是中国铁道部本身颁发给本身的,而这个证书是不被官方机构承认的,因此这里证书验证就不会经过而提示这样的话,可是实际上它的数据传输依然是通过 SSL 加密的。咱们若是要爬取这样的站点就须要设置忽略证书的选项,不然会提示 SSL 连接错误,在后文会进行详细说明。浏览器
咱们在浏览器中输入一个 URL,回车以后便会在浏览器中观察到页面内容,实际上这个过程是浏览器向网站所在的服务器发送了一个 Request,即请求,网站服务器接收到这个 Request 以后进行处理和解析,而后返回对应的一个 Response,即响应,而后传回给浏览器,Response里面就包含了页面的源代码等内容,浏览器再对其进行解析便将网页呈现了出来,模型如图 2-4 所示:
图 2-4 模型图
此处客户端即表明咱们本身的 PC 或手机浏览器,服务器即要访问的网站所在的服务器。
为了更直观地地说明这个的过程,咱们在这里用 Chrome 浏览器的开发者模式下的 Network 监听组件来作下演示,它能够显示访问当前请求网页时发生的全部网络请求和响应。
打开 Chrome 浏览器,右键点击检查,或按下快捷键 F12 便可打开浏览器的开发者工具,咱们在这里访问百度:http://www.baidu.com/,输入该 URL,敲击回车访问这个页面,观察一下在这个过程当中发生了怎样的网络请求,这时咱们能够看到在 Network 页面的下方出现了一个个的条目,那么这一个条目就表明一次发送 Request 和接收 Response 的过程,如图 2-5 所示:
图 2-5 Network 面板
咱们观察第一个网络请求,即 www.baidu.com,如图 2-6 所示:
图 2-6 网络请求记录
这一个条目的各列分别表明:
图 2-7 详细信息
首先是 General 部分,Request URL 为 Request 的 URL,Request Method 为请求的方法,Status Code 为响应状态码,Remote Address 为远程服务器的地址和端口,Referrer Policy 为 Referrer 判别策略。
再继续往下看能够看到有一个 Response Headers 和一个 Request Headers,这分别表明响应头和请求头,请求头里面带有许多请求信息,例如浏览器标识、Cookies、Host 等信息,这是 Request 的一部分,服务器会根据请求头内的信息判断请求是否合法,进而做出对应的响应,返回 Response,那么在图中看到的 Response Headers 就是 Response 的一部分,例如其中包含了服务器的类型、文档类型、日期等信息,浏览器接受到 Response 后,会解析响应内容,进而呈现网页内容。
下面咱们分别来介绍一下请求 Request 和响应 Response 都包含了哪些内容,在这里进行对其组成进行总结:
Request,即请求,由客户端向服务端发出。能够将 Request 划分为四部份内容:Request Method、Request URL、Request Headers、Request Body,即请求方式、请求连接、请求头、请求体。
请求方式,请求方式常见的有两种类型,GET 和 POST。
咱们在浏览器中直接输入一个 URL 并回车,这便发起了一个 GET 请求,请求的参数会直接包含到 URL 里,例如百度搜索 Python,这就是一个 GET 请求,连接为:https://www.baidu.com/s?wd=Py...,URL 中包含了请求的参数信息,这里参数 wd 就是要搜寻的关键字。POST 请求大多为表单提交发起,如一个登陆表单,输入用户名密码,点击登陆按钮,这一般会发起一个 POST 请求,其数据一般以 Form Data 即表单的形式传输,不会体如今 URL 中。
GET 和 POST 请求方法有以下区别:
因此通常来讲,网站登陆验证的时候,须要提交用户名密码,这里包含了敏感信息,使用GET方式请求的话密码就会暴露在URL里面,形成密码泄露,因此这里最好以POST方式发送。文件的上传时,因为文件内容比较大,也会选用POST方式。
咱们日常遇到的绝大部分请求都是 GET 或 POST 请求,另外还有一些请求方式,如 HEAD、PUT、DELETE、OPTIONS、CONNECT、TRACE,咱们简单将其总结以下:
本表参考:http://www.runoob.com/http/ht...。
顾名思义,就是请求的网址,即统一资源定位符,用 URL 能够惟一肯定咱们想请求的资源。
请求头,用来讲明服务器要使用的附加信息,比较重要的信息有 Cookie、Referer、User-Agent 等,下面将一些经常使用的头信息说明以下:
所以,Request Headers 是 Request 等重要组成部分,在写爬虫的时候大部分状况都须要设定 Request Headers。
即请求体,通常承载的内容是 POST 请求中的 Form Data,即表单数据,而对于 GET 请求 Request Body 则为空。
例如在这里我登陆 GitHub 时捕获到的 Request 和 Response 如图 2-8 所示:
图 2-8 详细信息
在登陆以前咱们填写了用户名和密码信息,提交时就这些内容就会以 Form Data 的形式提交给服务器,此时注意 Request Headers 中指定了 Content-Type 为 application/x-www-form-urlencoded,只有设置 Content-Type 为 application/x-www-form-urlencoded 才会以 Form Data 形式提交,另外咱们也能够将 Content-Type 设置为 application/json 来提交 Json 数据,或者设置为 multipart/form-data 来上传文件。
下面列出了 Content-Type 和 POST 提交数据方式的关系:
Content-Type | 提交数据方式 | |
---|---|---|
application/x-www-form-urlencoded | Form表单提交 | |
multipart/form-data | 表单文件上传提交 | |
application/json | 序列化Json 数据提交 | |
text/xml | XML数据提交 |
在爬虫中若是咱们要构造 POST 请求须要注意这几种 Content-Type,了解各类请求库的各个参数设置时使用的是哪一种 Content-Type,否则可能会致使 POST 提交后得不到正常的 Response。
以上即是对 Request 各部份内容的解释。
Response,即响应,由服务端返回给客户端。Response 能够划分为三部分,Response Status Code、Response Headers、Response Body。
响应状态码,此状态码表示了服务器的响应状态,如 200 则表明服务器正常响应,404 则表明页面未找到,500 则表明服务器内部发生错误。在爬虫中,咱们能够根据状态码来判断服务器响应状态,如判断状态码为 200,则证实成功返回数据,再进行进一步的处理,不然直接忽略。
下面用表格列出了常见的错误代码及错误缘由:
状态码 | 说明 | 详情 |
---|---|---|
100 | 继续 | 请求者应当继续提出请求。服务器已收到请求的一部分,正在等待其他部分。 |
101 | 切换协议 | 请求者已要求服务器切换协议,服务器已确认并准备切换。 |
200 | 成功 | 服务器已成功处理了请求。 |
201 | 已建立 | 请求成功而且服务器建立了新的资源。 |
202 | 已接受 | 服务器已接受请求,但还没有处理。 |
203 | 非受权信息 | 服务器已成功处理了请求,但返回的信息可能来自另外一来源。 |
204 | 无内容 | 服务器成功处理了请求,但没有返回任何内容。 |
205 | 重置内容 | 服务器成功处理了请求,内容被重置。 |
206 | 部份内容 | 服务器成功处理了部分请求。 |
300 | 多种选择 | 针对请求,服务器可执行多种操做。 |
301 | 永久移动 | 请求的网页已永久移动到新位置,即永久重定向。 |
302 | 临时移动 | 请求的网页暂时跳转到其余页面,即暂时重定向。 |
303 | 查看其余位置 | 若是原来的请求是 POST,重定向目标文档应该经过 GET 提取。 |
304 | 未修改 | 这次请求返回的网页未修改,继续使用上次的资源。 |
305 | 使用代理 | 请求者应该使用代理访问该网页。 |
307 | 临时重定向 | 请求的资源临时从其余位置响应。 |
400 | 错误请求 | 服务器没法解析该请求。 |
401 | 未受权 | 请求没有进行身份验证或验证未经过。 |
403 | 禁止访问 | 服务器拒绝此请求。 |
404 | 未找到 | 服务器找不到请求的网页。 |
405 | 方法禁用 | 服务器禁用了请求中指定的方法。 |
406 | 不接受 | 没法使用请求的内容响应请求的网页。 |
407 | 须要代理受权 | 请求者须要使用代理受权。 |
408 | 请求超时 | 服务器请求超时。 |
409 | 冲突 | 服务器在完成请求时发生冲突。 |
410 | 已删除 | 请求的资源已永久删除。 |
411 | 须要有效长度 | 服务器不接受不含有效内容长度标头字段的请求。 |
412 | 未知足前提条件 | 服务器未知足请求者在请求中设置的其中一个前提条件。 |
413 | 请求实体过大 | 请求实体过大,超出服务器的处理能力。 |
414 | 请求 URI 过长 | 请求网址过长,服务器没法处理。 |
415 | 不支持类型 | 请求的格式不受请求页面的支持。 |
416 | 请求范围不符 | 页面没法提供请求的范围。 |
417 | 未知足指望值 | 服务器未知足指望请求标头字段的要求。 |
500 | 服务器内部错误 | 服务器遇到错误,没法完成请求。 |
501 | 未实现 | 服务器不具有完成请求的功能。 |
502 | 错误网关 | 服务器做为网关或代理,从上游服务器收到无效响应。 |
503 | 服务不可用 | 服务器目前没法使用。 |
504 | 网关超时 | 服务器做为网关或代理,可是没有及时从上游服务器收到请求。 |
505 | HTTP 版本不支持 | 服务器不支持请求中所用的 HTTP 协议版本。 |
响应头,其中包含了服务器对请求的应答信息,如 Content-Type、Server、Set-Cookie 等,下面将一些经常使用的头信息说明以下:
Date,标识 Response 产生的时间。Last-Modified,指定资源的最后修改时间。Content-Encoding,指定 Response 内容的编码。Server,包含了服务器的信息,名称,版本号等。Content-Type,文档类型,指定了返回的数据类型是什么,如text/html 则表明返回 HTML 文档,application/x-javascript 则表明返回 JavaScript 文件,image/jpeg 则表明返回了图片。Set-Cookie,设置Cookie,Response Headers 中的 Set-Cookie即告诉浏览器须要将此内容放在 Cookies 中,下次请求携带 Cookies 请求。Expires,指定 Response 的过时时间,使用它能够控制代理服务器或浏览器将内容更新到缓存中,若是再次访问时,直接从缓存中加载,下降服务器负载,缩短加载时间。Resposne Body
即响应体,最重要的当属响应体内容了,响应的正文数据都是在响应体中,如请求一个网页,它的响应体就是网页的 HTML 代码,请求一张图片,它的响应体就是图片的二进制数据。因此最主要的数据都包含在响应体中了,咱们作爬虫请求网页后要解析的内容就是解析响应体,如图 2-9 所示:
图 2-9 响应体内容
咱们在浏览器开发者工具中点击 Preview,就能够看到网页的源代码,这也就是响应体内容,是解析的目标。
咱们在作爬虫时主要解析的内容就是 Resposne Body,经过 Resposne Body 咱们能够获得网页的源代码、Json 数据等等,而后从中作相应内容的提取。
以上即是 Response 的组成部分。
本节咱们了解了 HTTP 的基本原理,经过如上描述,咱们应该对访问网页背后的请求和响应过程有了大致的认识,本节涉及到的知识点须要好好掌握,在后面分析网页请求的时候会常常用到。
上一篇文章: Python3网络爬虫实战---1四、部署相关库的安装:Scrapyrt、Gerapy
下一篇文章: Python3网络爬虫实战---1六、Web网页基础