Python爬虫 - 百度指数简单抓取

前言

此次要爬的网站是百度指数html

正文

1、分析

打开网站百度指数,呈现出来是这样的python

主页

若是搜索的话就须要登录了,若是没有什么特别频繁的请求的话,直接登录复制Cookie就完事了json

登录

这里以 酷安 为例搜索api

这一栏是选择时间范围的,拖拽它能将范围选择更广浏览器

我将其拖拽至2011,调试窗口能够看到请求,是个GET请求,参数有四个,除了 area 其余的都很好理解app

切换到 Preview 预览窗口,经过分析,我的认为比较可疑的几个Key有这些:uniqid、all、pc、wise、datafetch

其中data能够看到应该是加密了的,all是表示所有数据,pc是指pc端,wise是移动端,这些能够在js文件里找到;首先先搞清楚这个像加密了的data是怎么解密的;咱们如今知道这个数据是json格式,那么它处理确定要从中取出这些data,因此,从新刷新一下网页,目的是为了让全部js都能加载出来,而后利用搜索功能从中找。搜索过程就不上图了,我是搜索 decrypt找到的;首先,我用decrypt找到了一个js文件,其中有一个名为decrypt的方法网站

这个js文件中有不少decrypt的搜索结果,在不知道多少行处找到了一个名为 fetchThrendIndexLive 的方法,这个方法用我工地英语翻译为 获取趋势指数

这里调用了名为decrypt的方法,是否是上面那个我不知道 加密

此次我不打算用charles的替换js文件功能了,直接用浏览器的调试功能+console就好了 右键js的请求, Open in Sources panel

直接在这里下断点,而后刷新页面

在这停顿后能够看到两个参数的内容url

想要知道这两个参数是什么很简单,回到Network看请求里的json;其中e参数是data,t参数不太清楚是什么。

for循环里第一步是先将t字符串按单个字符分割,返回的列表保存在n变量里;
而后将e也按单字符分割,保存到i变量里 a是一个字典,r是一个列表

从右边的 Scope 中能够看到

以t的字符长度遍历,a中key为t遍历的字符,a中value为:从t中按索引取的值,其中索引为:t的字符长度除2后加上当前遍历的索引(a[n[o] = n[n.length/2 + o])

这里始终没有用到i,也就是咱们能获取到的data,这个i在第二个循环中才被用到; 第二个循环是遍历e,结果保存在r列表里,这里的遍历很容易就看得懂。。我就不分析了,本身都头晕,直接用python抄一遍就好了;

最后是将r列表里的内容合并为一个字符串而后返回;

2、整理思路

解密方法对应python代码为:

def decrypt(t,e):
    n = list(t)
    i = list(e)
    a = {}
    result = []
    ln = int(len(n)/2)
    start = n[ln:]
    end = n[:ln]
    for j,k in zip(start, end):
        a.update({k: j})
    for j in e:
        result.append(a.get(j))
    return ''.join(result)
复制代码

彻底照搬。。可能有写地方能够简化,但我懒得去处理了,最后返回的是这个玩意儿

python运行结果

到这可能都以为已经解决了,可你不知道t这个参数是什么,怎么来的,这里我就不带各位分析了,你么能够本身尝试分析分析,我直接说结果,以前我就指出了几个可疑的东西,其中uniqid在获取t参数须要用到,这个t实际上是叫ptbk,获取这个ptbk的url:index.baidu.com/Interface/p… 有一个参数uniqid,GET请求,返回json内容

获取uniqid和data的url:index.baidu.com/api/SearchA… (若是要指定日期只须要在word后面追加&startDate=、&endDate=就行)

因此能够明确一下思路:
一、经过url获取uniqid和data
二、经过uniqid获取ptbk
三、经过ptbk和data解密

解密后的东西就是咱们要的

3、代码部分

完整代码:

import requests
import sys
import time

word_url = 'http://index.baidu.com/api/SearchApi/thumbnail?area=0&word={}'
COOKIES = ''

def decrypt(t,e):
    n = list(t)
    i = list(e)
    a = {}
    result = []
    ln = int(len(n)/2)
    start = n[ln:]
    end = n[:ln]
    for j,k in zip(start, end):
        a.update({k: j})
    for j in e:
        result.append(a.get(j))
    return ''.join(result)
    
    
def get_index_home(keyword):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36',
        'Cookie': COOKIES
    }
    resp = requests.get(word_url.format(keyword), headers=headers)
    j = resp.json()
    uniqid = j.get('data').get('uniqid')
    return get_ptbk(uniqid)
    

def get_ptbk(uniqid):
    url = 'http://index.baidu.com/Interface/ptbk?uniqid={}'
    ptbk_headers = {
        'Accept': 'application/json, text/plain, */*',
        'Accept-Encoding': 'gzip, deflate',
        'Accept-Language': 'zh-CN,zh;q=0.9',
        'Cache-Control': 'no-cache',
        'Cookie': COOKIES,
        'DNT': '1',
        'Host': 'index.baidu.com',
        'Pragma': 'no-cache',
        'Proxy-Connection': 'keep-alive',
        'Referer': 'http://index.baidu.com/v2/main/index.html',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36',
        'X-Requested-With': 'XMLHttpRequest',
    }
    resp = requests.get(url.format(uniqid), headers=ptbk_headers)
    if resp.status_code != 200:
        print('获取uniqid失败')
        sys.exit(1)
    return resp.json().get('data')
    

def get_index_data(keyword, start='2011-01-03', end='2019-08-05'):
    url = f'http://index.baidu.com/api/SearchApi/index?word={keyword}&area=0&startDate={start}&endDate={end}'
    headers = {
        'Accept': 'application/json, text/plain, */*',
        'Accept-Encoding': 'gzip, deflate',
        'Accept-Language': 'zh-CN,zh;q=0.9',
        'Cache-Control': 'no-cache',
        'Cookie': COOKIES,
        'DNT': '1',
        'Host': 'index.baidu.com',
        'Pragma': 'no-cache',
        'Proxy-Connection': 'keep-alive',
        'Referer': 'http://index.baidu.com/v2/main/index.html',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36',
        'X-Requested-With': 'XMLHttpRequest',
    }
    resp = requests.get(url, headers=headers)
    if resp.status_code != 200:
        print('获取指数失败')
        sys.exit(1)
    data = resp.json().get('data').get('userIndexes')[0]
    uniqid = data.get('uniqid')
    ptbk = get_index_home(uniqid)
    while ptbk is None or ptbk == '':
        ptbk = get_index_home(uniqid)
    all_data = data.get('all').get('data')
    result = decrypt(ptbk, all_data)
    result = result.split(',')
    print(result)
    

if __name__ == '__main__':
    get_index_data('酷安')
复制代码

输出

END

转载请注明出处

相关文章
相关标签/搜索