爬虫(一):python requests库模拟浏览器请求网页

在大家用爬虫请求数据时会有一下情况,或者直接的403,这是读取访问被禁止! <html> <head><title>403 Forbidden</title></head> <body> <center><h1>403 Forbidden</h1></center> <hr><center>nginx</center> </body> </html> 这时我们需要模拟浏览器来请求(我使用的是谷歌)
相关文章
相关标签/搜索