此次要爬的网站是百度指数html
打开网站百度指数,呈现出来是这样的python
若是搜索的话就须要登录了,若是没有什么特别频繁的请求的话,直接登录复制Cookie就完事了json
这里以 酷安 为例搜索api
这一栏是选择时间范围的,拖拽它能将范围选择更广浏览器
我将其拖拽至2011,调试窗口能够看到请求,是个GET请求,参数有四个,除了 area 其余的都很好理解app
切换到 Preview 预览窗口,经过分析,我的认为比较可疑的几个Key有这些:uniqid、all、pc、wise、datafetch
其中data能够看到应该是加密了的,all是表示所有数据,pc是指pc端,wise是移动端,这些能够在js文件里找到;首先先搞清楚这个像加密了的data是怎么解密的;咱们如今知道这个数据是json格式,那么它处理确定要从中取出这些data,因此,从新刷新一下网页,目的是为了让全部js都能加载出来,而后利用搜索功能从中找。搜索过程就不上图了,我是搜索 decrypt找到的;首先,我用decrypt找到了一个js文件,其中有一个名为decrypt的方法网站
这里调用了名为decrypt的方法,是否是上面那个我不知道 加密
在这停顿后能够看到两个参数的内容url
想要知道这两个参数是什么很简单,回到Network看请求里的json;其中e参数是data,t参数不太清楚是什么。
for循环里第一步是先将t字符串按单个字符分割,返回的列表保存在n变量里;
而后将e也按单字符分割,保存到i变量里 a是一个字典,r是一个列表
从右边的 Scope 中能够看到
以t的字符长度遍历,a中key为t遍历的字符,a中value为:从t中按索引取的值,其中索引为:t的字符长度除2后加上当前遍历的索引(a[n[o] = n[n.length/2 + o])
这里始终没有用到i,也就是咱们能获取到的data,这个i在第二个循环中才被用到; 第二个循环是遍历e,结果保存在r列表里,这里的遍历很容易就看得懂。。我就不分析了,本身都头晕,直接用python抄一遍就好了;
最后是将r列表里的内容合并为一个字符串而后返回;
解密方法对应python代码为:
def decrypt(t,e):
n = list(t)
i = list(e)
a = {}
result = []
ln = int(len(n)/2)
start = n[ln:]
end = n[:ln]
for j,k in zip(start, end):
a.update({k: j})
for j in e:
result.append(a.get(j))
return ''.join(result)
复制代码
彻底照搬。。可能有写地方能够简化,但我懒得去处理了,最后返回的是这个玩意儿
python运行结果
到这可能都以为已经解决了,可你不知道t这个参数是什么,怎么来的,这里我就不带各位分析了,你么能够本身尝试分析分析,我直接说结果,以前我就指出了几个可疑的东西,其中uniqid在获取t参数须要用到,这个t实际上是叫ptbk,获取这个ptbk的url:index.baidu.com/Interface/p… 有一个参数uniqid,GET请求,返回json内容
获取uniqid和data的url:index.baidu.com/api/SearchA… (若是要指定日期只须要在word后面追加&startDate=、&endDate=就行)
因此能够明确一下思路:
一、经过url获取uniqid和data
二、经过uniqid获取ptbk
三、经过ptbk和data解密
解密后的东西就是咱们要的
完整代码:
import requests
import sys
import time
word_url = 'http://index.baidu.com/api/SearchApi/thumbnail?area=0&word={}'
COOKIES = ''
def decrypt(t,e):
n = list(t)
i = list(e)
a = {}
result = []
ln = int(len(n)/2)
start = n[ln:]
end = n[:ln]
for j,k in zip(start, end):
a.update({k: j})
for j in e:
result.append(a.get(j))
return ''.join(result)
def get_index_home(keyword):
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36',
'Cookie': COOKIES
}
resp = requests.get(word_url.format(keyword), headers=headers)
j = resp.json()
uniqid = j.get('data').get('uniqid')
return get_ptbk(uniqid)
def get_ptbk(uniqid):
url = 'http://index.baidu.com/Interface/ptbk?uniqid={}'
ptbk_headers = {
'Accept': 'application/json, text/plain, */*',
'Accept-Encoding': 'gzip, deflate',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Cache-Control': 'no-cache',
'Cookie': COOKIES,
'DNT': '1',
'Host': 'index.baidu.com',
'Pragma': 'no-cache',
'Proxy-Connection': 'keep-alive',
'Referer': 'http://index.baidu.com/v2/main/index.html',
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36',
'X-Requested-With': 'XMLHttpRequest',
}
resp = requests.get(url.format(uniqid), headers=ptbk_headers)
if resp.status_code != 200:
print('获取uniqid失败')
sys.exit(1)
return resp.json().get('data')
def get_index_data(keyword, start='2011-01-03', end='2019-08-05'):
url = f'http://index.baidu.com/api/SearchApi/index?word={keyword}&area=0&startDate={start}&endDate={end}'
headers = {
'Accept': 'application/json, text/plain, */*',
'Accept-Encoding': 'gzip, deflate',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Cache-Control': 'no-cache',
'Cookie': COOKIES,
'DNT': '1',
'Host': 'index.baidu.com',
'Pragma': 'no-cache',
'Proxy-Connection': 'keep-alive',
'Referer': 'http://index.baidu.com/v2/main/index.html',
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36',
'X-Requested-With': 'XMLHttpRequest',
}
resp = requests.get(url, headers=headers)
if resp.status_code != 200:
print('获取指数失败')
sys.exit(1)
data = resp.json().get('data').get('userIndexes')[0]
uniqid = data.get('uniqid')
ptbk = get_index_home(uniqid)
while ptbk is None or ptbk == '':
ptbk = get_index_home(uniqid)
all_data = data.get('all').get('data')
result = decrypt(ptbk, all_data)
result = result.split(',')
print(result)
if __name__ == '__main__':
get_index_data('酷安')
复制代码
输出
转载请注明出处