Python爬虫实战:修改User-Agent

文章目录 1. 前言 2. 修改User-Agent 1. 前言 有些网站不喜欢被程序访问,因此他们会检查链接的来源。如果访问来源不是正常的途径,就给你“掐掉”。所以为了让我们的爬虫更好的为我们服务,需要对代码进行一些改进–隐藏-,让它看起来更像是普通人通过普通浏览器的正常点击 2. 修改User-Agent 通过查阅帮助文档,可知Request有个headers参数,通过设置这个参数,可以伪造成
相关文章
相关标签/搜索