来自一位资深Python大佬对爬虫的总结

因为某些缘由最近终于能够从工做的杂事中抽出身来,有时间把以前的一些爬虫知识进行了一个简单的梳理,也从中体会到阶段性地对过往知识进行梳理是真的颇有必要。python


经常使用第三方库web

对于爬虫初学者,建议在了解爬虫原理之后,在不使用任何爬虫框架的状况下,使用这些经常使用的第三方库本身实现一个简单的爬虫,这样会加深对爬虫的理解。算法

urllib和requests都是python的HTTP库,包括urllib2模块以巨大的复杂性代价获取综合性的功能。相比于urllib2,Requests模块更能简约的支持完整的简单用例。关于urllib和requests的优缺点和区别,你们能够去网上查一下。docker

BeautifulSoup和lxml都是python页面解析的库。BeautifulSoup 是基于 DOM 的,会载入整个文档,解析整个DOM树,所以时间和内存开销都会大不少。而lxml只会进行局部遍历,使用xpath可以很快定位标签。bs4 是用 python 写的,lxml 是 c 语言实现的,也决定了lxml比bs4要快。数据库

爬虫框架数组

python经常使用的爬虫框架就是scrapy和pyspider两个。浏览器

关于框架的使用方法及详细介绍,可参考官方文档。服务器

动态页面渲染cookie

1. url请求分析网络

(1)认真分析页面结构,查看js响应的动做;

(2)借助浏览器分析js点击动做所发出的请求url;

(3)将此异步请求的url做为scrapy的start_url或者yield reques再次进行抓取。

2. selenium

Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像咱们玩游戏用的按键精灵,能够按指定的命令自动化操做,不一样是Selenium能够直接运行在浏览器上,它支持全部主流的浏览器(包括PhantomJS这些无界面的浏览器)。

Selenium能够根据咱们的指令,让浏览器自动加载页面,获取须要的页面,甚至页面截屏,或者判断网站上某些动做是否发生。

Selenium本身不带浏览器,不支持浏览器的功能,它须要与第三方浏览器结合在一块儿才能使用。

3. phantomjs

使用selenium调用浏览器进行抓取页面时,因为要执行打开浏览器并渲染页面的操做,当进行大规模数据抓取时效率较低,没法知足需求。这时咱们能够选择使用phantomjs。

PhantomJS是一个基于Webkit的"无界面"(headless)浏览器,它会把网站加载到内存并执行页面上的JavaScript,由于不会展现图形界面,因此运行起来比完整的浏览器更高效。

若是咱们把Selenium和PhantomJS结合在一块儿,就能够运行一个很是强大的网络爬虫了,这个爬虫能够处理JavaScript、Cookie、headers,以及任何咱们真实用户须要作的事情。

4. splash

Splash是一个Javascript渲染服务。它是一个实现了HTTP API的轻量级浏览器,Splash是用Python实现的,同时使用Twisted和QT。Twisted(QT)用来让服务具备异步处理能力,以发挥webkit的并发能力。

python链接splash的库叫作scrapy-splash,scrapy-splash使用的是Splash HTTP API, 因此须要一个splash instance,通常采用docker运行splash,因此须要安装docker。

5. spynner

spynner是一个QtWebKit的客户端,它能够模拟浏览器,完成加载页面、引起事件、填写表单等操做。

爬虫防屏蔽策略

1. 修改User-Agent

User-Agent是一种最多见的假装浏览器的手段。

User-Agent是指包含浏览器信息、操做系统信息等的一个字符串,也称之为一种特殊的网络协议。服务器经过它判断当前访问对象是浏览器、邮件客户端仍是网络爬虫。在request.headers里能够查看user-agent,关于怎么分析数据包、查看其User-Agent等信息,这个在前面的文章里提到过。

具体方法能够把User-Agent的值改成浏览器的方式,甚至能够设置一个User-Agent池(list,数组,字典均可以),存放多个“浏览器”,每次爬取的时候随机取一个来设置request的User-Agent,这样User-Agent会一直在变化,防止被墙。

2. 禁止cookies

cookie实际上是储存在用户终端的一些被加密的数据,有些网站经过cookies来识别用户身份,若是某个访问老是高频率地发请求,极可能会被网站注意到,被嫌疑为爬虫,这时网站就能够经过cookie找到这个访问的用户而拒绝其访问。

经过禁止cookie,这是客户端主动阻止服务器写入。禁止cookie能够防止可能使用cookies识别爬虫的网站来ban掉咱们。

在scrapy爬虫中能够设置COOKIES_ENABLES= FALSE,即不启用cookies middleware,不向web server发送cookies。

3. 设置请求时间间隔

大规模集中访问对服务器的影响较大,爬虫能够短期增大服务器负载。这里须要注意的是:设定下载等待时间的范围控制,等待时间过长,不能知足短期大规模抓取的要求,等待时间太短则颇有可能被拒绝访问。

设置合理的请求时间间隔,既保证爬虫的抓取效率,又不对对方服务器形成较大影响。

4. 代理IP池

其实微博识别的是IP,不是帐号。也就是说,当须要连续抓取不少数据的时候,模拟登陆没有意义。只要是同一个IP,无论怎么换帐号也没有用,主要的是换IP。

web server应对爬虫的策略之一就是直接将IP或者整个IP段都封掉禁止访问,当IP被禁封后,转换到其余IP继续访问便可。方法:代理IP、本地IP数据库(使用IP池)。

5. 使用Selenium

使用Selenium来模拟人工点击访问网站,是种颇有效的防止被ban的方式。可是Selenium效率较低,不适合大规模数据抓取。

6. 破解验证码

验证码是如今最多见的防止爬虫的手段。有能力的小伙伴能够本身写算法破解验证码,不过通常咱们能够花点钱使用第三方打码平台的接口,轻松实现验证码的破解。

结语

以上内容就是关于python爬虫的一点梳理,具体到某个技术点须要本身再查详细资料。但愿对于学习爬虫的同窗有一点点帮助。

相关文章
相关标签/搜索