使用爬虫遇到的一些问题

本博客会记录博主在使用爬虫过程当中遇到的问题,不断更新,但愿之后再遇到这些问题的时候,能够快速解决。html

一、在爬取和讯博客的时候发现阅读数和评论数没法正常读取。经过抓包工具抓取到了阅读数和评论数的URL,可是复制到浏览器上打开发现一片空白。在抓包工具Raw里发现,有一项Refere,后面将此项加到headers信息里,数据能够正常显示出来了。代码以下:浏览器

import urllib.request

url='http://click.tool.hexun.com/click.aspx?articleid=116367158&blogid=19050645'

data={

"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36",
"Referer":"http://27783968.blog.hexun.com/116367158_d.html",

}

request=urllib.request.Request(url,headers = data)
data=urllib.request.urlopen(request).read().decode("utf-8","ignore")
print(data)

这次难点在于不熟悉urllib库是如何添加更多的请求信息到heagers里,在以上代码中,data里还能够添加更加多的请求,好比cookie等信息,记录这次代码的目的在于熟悉urllib.request.Reques的用法cookie

相关文章
相关标签/搜索