爬取百万github用户数据,查找谁才是python大牛?


向AI转型的程序员都关注了这个号👇👇👇python

大数据挖掘DT机器学习  公众号: datayxgit


在上周写完用scrapy爬去知乎用户信息的爬虫以后,github上star个数一下就在公司小组内部排的上名次了,我还信誓旦旦的跟上级吹牛皮说若是再写一个,都很差意思和你再提star了,怕大家伤心。上级不屑的说,那就写一个爬虫爬一爬github,找一找python大牛,公司也正好在找人。临危受命,格外激动,当天就去研究github网站,琢磨怎么解析页面以及爬虫的运行策略。意外的发现github提供了很是nice的API以及文档https://developer.github.com/v3/guides/,让我对github的爱已经深刻骨髓。程序员


说了这么多废话,讲讲真题吧。我须要下载github用户还有他们的reposities数据,展开方式也很简单,根据一个用户的following以及follower关系,遍历整个用户网就能够下载全部的数据了,据说github注册用户才几百万,一下就把全部的数据爬下来想一想还有点小激动呢,下面是流程图:github

 

根据这个流程实现的代码redis

关注微信公众号 datayx  而后回复 爬虫  便可获取。算法



递归实现

运行命令

看到这么简单的流程,心里的第一想法就是先简单的写一个递归实现呗,要是性能差再慢慢优化,因此初版代码很快就完成了(在目录recursion下)。数据存储使用mongo,重复请求判断使用的redis,写mongo数据采用celery的异步调用,须要rabbitmq服务正常启动,在settings.py正确配置后,使用下面的步骤启动:微信


  1. 进入github_spider目录并发

  2. 执行命令celery -A github_spider.worker worker loglevel=info启动异步任务python爬虫

  3. 执行命令python github_spider/recursion/main.py启动爬虫echarts


运行结果

由于每一个请求延时很高,爬虫运行效率很慢,访问了几千个请求以后拿到了部分数据,这是按照查看数降序排列的python项目: 

这是按粉丝数降序排列的用户列表 

运行缺陷

做为一个有追求的程序员,固然不能由于一点小成就知足,总结一下递归实现的几个缺陷:

  1. 由于是深度优先,当整个用户图很大的时候,单机递归可能形成内存溢出从而使程序崩溃,只能在单机短期运行。

  2. 单个请求延时过长,数据下载速度太慢。

  3. 针对一段时间内访问失败的连接没有重试机制,存在数据丢失的可能。



异步优化

针对这种I/O耗时的问题,解决方法也就那几种,要么多并发,要么走异步访问,要么左右开弓。针对上面的问题2,我最开始的解决方式是异步请求API。由于最开始写代码的时候考虑到了这点,代码对调用方法已经作过优化,很快就改好了,实现方式使用了grequests。这个库和requests是同一个做者,代码也很是的简单,就是讲request请求用gevent作了一个简单的封装,能够非阻塞的请求数据。


可是当我运行以后,发现程序很快运行结束,一查发现公网IP被github封掉了,当时心中千万只草泥马奔腾而过,没办法只能祭出爬虫的终极杀器--代理。又专门写了一个辅助脚本从网上爬取免费的HTTPS代理存放在redis中,路径proxy/extract.py,每次请求的时候都带上代理,运行错误重试自动更换代理并把错误代理清楚。原本网上免费的HTTPS代理就不多,并且不少还不能用,因为大量的报错重试,访问速度不只没有原来快,并且比原来慢一大截,此路不通只能走多并发实现了。


队列实现

实现原理

采起广度优先的遍历的方式,能够把要访问的网址存放在队列中,再套用生产者消费者的模式就能够很容易的实现多并发,从而解决上面的问题2。若是某段时间内一直失败,只须要将数据再仍会队列就能够完全解决问题3。不只如此,这种方式还能够支持中断后继续运行,程序流程图以下:


运行程序

为了实现多级部署(虽然我就只有一台机器),消息队列使用了rabbitmq,须要建立名为github,类型是direct的exchange,而后建立四个名称分别为user, repo, follower, following的队列,详细的绑定关系见下图:



详细的启动步骤以下:

  1. 进入github_spider目录

  2. 执行命令celery -A github_spider.worker worker loglevel=info启动异步任务

  3. 执行命令python github_spider/proxy/extract.py更新代理

  4. 执行命令python github_spider/queue/main.py启动脚本


队列状态图:


阅读过本文的人还看了如下:


微博python爬虫,每日百万级数据


python爬虫教程:抖音无水印视频批量下载


Python爬虫安居客房价信息(并利用百度地图API查询坐标)


python爬取了百万知乎,并作数据分析


Python爬取4500个景点:用echarts热力图分析国庆哪里最堵?


【深度学习项目】打开摄像头拍照,并作图片识别


《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码


基于LSTM搭建文本情感分类的深度学习模型:准确率95%


百度深度学习图像识别决赛代码分享(OCR)





不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  

长按图片,识别二维码,点关注



本文分享自微信公众号 - 机器学习AI算法工程(datayx)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索