知乎爬虫之3:请求分析(附赠以前爬取的数据一份)

本文由博主原创,转载请注明出处:个人博客-知乎爬虫之3:请求分析html

git爬虫项目地址(关注和star在哪里~~):mysql

git

我们上一篇所长说了爬虫的爬取大概思路:知乎爬虫之2:爬虫流程设计(附赠爬出的数据库),这一篇幅就来研究分析下模拟登录知乎.github

ps:拿数据的好多啊~只下载不点赞,不star,蓝瘦香菇

首先来讲,网上模拟登录知乎的文章已是多不胜数,并且模拟登录知乎也比模拟登录微博百度简单不少,可是本着有始有终的原则,我们仍是重头到尾的过上一遍.sql

1.工具

恩,工具呢,就用我们本身平时用的浏览器就ok.牛逼闪闪的f12,就足够用.而后在使用下Fiddler来查看下登录状态…数据库

2.登录分析

打开,点击登录,而后直接F12,调试出开发者工具,选择NetWork,输入帐号 密码 和验证码,点击登录,发现右侧出现了网络请求.api

发现有个email的请求,请求信息为:浏览器

请求地址:https://www.zhihu.com/login/email
请求方式:post

下面的内容先不去管它,直接拽到最下面:cookie

..发现有以下信息网络

_xsrf:xxxxxxxxxxxxxxxxxx
password:xxxxx
captcha:HDMG
email:xxxxxx@xx.com

恩,就是Post一下,看看登录时候成功,而且抓一下登录失败时的错误信息.

故意输入错误邮箱 ,密码

拿到以下结果:

1. 邮箱不存在:

2. 密码错误:

那么登录成功是怎么一种标识状态呢?

我们这里借助下Fiddler

打开Fiddler,再次进项知乎登录,而后找到 这个请求.发现登录成功后返回了一个Json串:

恩,那么还有一个_xsrf,那么这个参数在哪里呢?

其实_xsrf这种东西,基本都存在于页面的源码里,打开登录页面,右键查看查看源代码,可发现:

哈哈,原来在一个隐藏域里....

哈哈,这是否是故意就让人爬的了...过程比我想象中的简单不少..

可是具体行不行呢,还得上代码试一试哈哈...

 

## 3.跟随/关注分析

直接打开,而后f12,开始分析请求.

直接滚动页面,发现出现异步请求,请求地址为:

https://www.zhihu.com/api/v4/members/Sweets07/followers?per_page=10&include=data%5B%2A%5D.employments%2Ccover_url%2Callow_message%2Canswer_count%2Carticles_count%2Cfavorite_count%2Cfollower_count%2Cgender%2Cis_followed%2Cmessage_thread_token%2Cis_following%2Cbadge%5B%3F%28type%3Dbest_answerer%29%5D.topics&limit=10&offset=30

可发现请求参数为:

include:data[*].employments,cover_url,allow_message,answer_count,articles_count,favorite_count,follower_count,gender,is_followed,message_thread_token,is_following,badge[?(type=best_answerer)].topics

limit:10

offset:30

返回的Json为:

哇塞.里面有各类信息...

如:

1. 下一个请求的地址

2. 人员信息,id啊,头像啊,学校,公司,签名啊,关注人数.....

恩,其实我们拿一部分就够了,对,就是那个ID...有的id就能够直接打开我的页面了..而后说这个请求有些问题,由于直接带着cookie get会出现一个错误:

{"message":"身份未通过验证","code":100,"name":"AuthenticationException"}

 

这个是由于在请求的时候多了一个头:

那么这个参数在哪里呢??

找来找去,最后发现,这个参数在请求我的主页信息的cookie里.

跟随者和关注者差很少.....

 

就到这里吧,下一步开始撸代码...

//吾爱Java(QQ群):170936712(点击加入)

知乎爬虫之2:爬虫流程设计(附赠爬出的数据库)

相关文章
相关标签/搜索