Python爬虫爬取美剧网站

一直有爱看美剧的习惯,一方面锻炼一下英语听力,一方面打发一下时间。以前是能在视频网站上面在线看的,但是自从广电总局的限制令以后,进口的美剧英剧等貌似就不在像之前同样同步更新了。可是,做为一个宅diao的我又怎甘心没剧追呢,因此网上随便查了一下就找到一个能用迅雷下载的美剧下载网站【每天美剧】,各类资源随便下载,最近迷上的BBC的高清纪录片,大天然美得不要不要的。正则表达式

0?wx_fmt=png

虽然说找到了资源网站能够下载了,可是每次都要打开浏览器,输入网址,找到该美剧,而后点击连接才能下载。时间长了就以为过程好繁琐,并且有时候网站连接还会打不开,会有点麻烦。正好一直在学习Python爬虫,因此今天就心血来潮来写了个爬虫,抓取该网站上全部美剧连接,并保存在文本文档中,想要哪部剧就直接打开复制连接到迅雷就能够下载啦。浏览器

0?wx_fmt=png

其实一开始打算写那种发现一个url,使用requests打开抓取下载连接,从主页开始爬彻底站。可是,好多重复连接,还有其网站的url不是我想的那么规则,写了半天也没有写出我想要的那种发散式的爬虫,也许是本身火候还不到吧,继续努力。。。多线程

后来发现,其电视剧连接都是在文章里面,而后文章url后面有个数字编号,就像这样的http://cn163.net/archives/24016/,因此机智的我又用了以前写过的爬虫经验,解决方法就是自动生成url,其后面的数字不是能够变的吗,并且每部剧的都是惟一的,因此尝试了一下大概有多少篇文章,而后用range函数直接连续生成数来构造url。函数

可是不少url是不存在的,因此会直接挂掉,别担忧,咱们用的但是requests,其自带的status_code就是用来判断请求返回的状态的,因此只要是返回的状态码是404的咱们都把它跳过,其余的都进去爬取连接,这就解决了url的问题了。学习

如下就是上述步骤的实现代码。大数据

0?wx_fmt=png其他的就进行的很顺利了,网上找到前人写的相似的爬虫,可是只是爬取一篇文章的,因此借鉴了一下其正则表达式。本身用了BeautifulSoup尚未正则效果好,因此果断弃了,学海无涯啊。可是效果也不是那么理想,有一半左右的连接不能正确抓取,还需继续优化。0?wx_fmt=png0?wx_fmt=png优化

完整版代码,其中还用到了多线程,可是感受没什么用,由于Python的GIL的缘故吧,看似有两万多部剧,本觉得要很长时间才能抓取完成,可是除去url错误的和没匹配到的,总共抓取时间20分钟不到。搞得我原本还想使用Redis在两台Linux上爬取,可是折腾了一番以后感受不必,因此就这样吧,后面须要更大数据的时候再去弄。网站

还有过程当中遇到一个很折磨个人问题是文件名的保存,必须在此抱怨一下,txt文本格式的文件名能有空格,可是不能有斜线、反斜线、括号等。就是这个问题,一早上的时间都花在这上面的,一开始我觉得是抓取数据的错误,后面查了半天才发现是爬取的剧名中带有斜杠,这可把我坑苦了。url