目前不少网站都使用ajax技术动态加载数据,和常规的网站不同,数据时动态加载的,若是咱们使用常规的方法爬取网页,获得的只是一堆html代码,没有任何的数据。html
请看下面的代码:python
url = 'https://www.toutiao.com/search/?keyword=美女' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"} response = requests.get(url,headers=headers) print(response.text)
上面的代码是爬取今日头条的一个网页,并打印出get方法返回的文本内容以下图所示,值如今一堆网页代码,并无相关的头条新闻信息
web
内容过多,只截取部份内容,有兴趣的朋友能够执行上面的代码看下效果。ajax
对于使用ajax动态加载数据的网页要怎么爬取呢?咱们先看下近日头条是如何使用ajax加载数据的。经过chrome的开发者工具来看数据加载过程。chrome
首先打开chrome浏览器,打开开发者工具,点击Network选项,点击XHR选项,而后输入网址:https://www.toutiao.com/search/?keyword=美女 ,点击Preview选项卡,就会看到经过ajax请求返回的数据,Name那一栏就是ajax请求,当鼠标向下滑动时,就会出现多条ajax请求:
数据库
经过上图咱们知道ajax请求返回的是json数据,咱们继续分析ajax请求返回的json数据,点击data展开数据,接着点击0展开数据,发现有个title字段,内容恰好和网页的第一条数据匹配,可知这就是咱们要爬取的数据。以下所示:
json
鼠标向下滚动到网页底部时就会触发一次ajax请求,下面是三次ajax请求:浏览器
https://www.toutiao.com/search_content/?offset=0&format=json&keyword=%E7%BE%8E%E5%A5%B3&autoload=true&count=20&cur_tab=1&from=search_tab&pd=synthesis https://www.toutiao.com/search_content/?offset=20&format=json&keyword=%E7%BE%8E%E5%A5%B3&autoload=true&count=20&cur_tab=1&from=search_tab&pd=synthesis https://www.toutiao.com/search_content/?offset=40&format=json&keyword=%E7%BE%8E%E5%A5%B3&autoload=true&count=20&cur_tab=1&from=search_tab&pd=synthesis
观察每一个ajax请求,发现每一个ajax请求都有offset,format,keyword,autoload,count,cur_tab,from,pd参数,除了offset参数有变化以外,其余的都不变化。每次ajax请求offset的参数变化规律是0,20,40,60...,能够推测offset是偏移量,count参数是一次ajax请求返回数据的条数。网络
为了防止爬虫被封,每次请求时要把请求时都要传递请求头信息,请求头信息中包含了浏览器的信息,若是请求没有浏览器信息,就认为是网络爬虫,直接拒绝访问。request header信息以下:工具
headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0", "referer": "https://www.toutiao.com/search/?keyword=%E7%BE%8E%E5%A5%B3", 'x-requested-with': 'XMLHttpRequest' }
完整代码以下:
import requests from urllib.parse import urlencode def parse_ajax_web(offset): url = 'https://www.toutiao.com/search_content/?' #请求头信息 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0", "referer": "https://www.toutiao.com/search/", 'x-requested-with': 'XMLHttpRequest' } #每一个ajax请求要传递的参数 parm = { 'offset': offset, 'format': 'json', 'keyword': '美女', 'autoload': 'true', 'count': 20, 'cur_tab': 1, 'from': 'search_tab', 'pd': 'synthesis' } #构造ajax请求url ajax_url = url + urlencode(parm) #调用ajax请求 response = requests.get(ajax_url, headers=headers) #ajax请求返回的是json数据,经过调用json()方法获得json数据 json = response.json() data = json.get('data') for item in data: if item.get('title') is not None: print(item.get('title')) def main(): #调用ajax的次数,这里调用5次。 for offset in (range(0,5)): parse_ajax_web(offset*20) if __name__ == '__main__': main()
上面是爬取经过ajax请求加载数据网站的例子,若是想要其余的数据,能够动手本身写,这里只是搭了一个架子,各位能够尝试将数据写入到excel或者数据库中。