ProxyHandler处理(代理服务器),使用代理IP,是爬虫的经常使用手段,一般使用UserAgent 假装浏览器爬取仍然可能被网站封了IP,可是咱们使用代理IP就不怕它封了咱们的IP了html
# 使用代理服务器访问猫眼 # https://maoyan.com/ from urllib import request,error if __name__ == '__main__': url = "https://baidu.com/" # 1.设置代理地址 proxy = {'http': '218.60.8.83:3129'} # 2.建立ProxyHandler proxy_handler = request.ProxyHandler(proxy) # 3.建立Opener opener = request.build_opener(proxy_handler) # 4.安装Opener request.install_opener(opener) # 下面再进行访问url就会使用代理服务器 try: rsp = request.urlopen(url) html = rsp.read().decode() print(html) except error.HTTPError as e: print(e) except Exception as e: print(e)
关于爬虫使用代理服务器,使用代理IP,就介绍到这里了,使用代理IP是爬虫的经常使用手段,好处多多git
<hr>- 本笔记不容许任何我的和组织转载github