python爬虫ip代理服务器的简要思路-VeCloud

python爬虫有的时候会遇到被禁ip的情况,这个时候你可以找一下代理网站,抓取一下ip,来进行动态的轮询就没问题了,也可以用别人做好的第三方ip代理平台,比如说crawlera,crawlera是一个利用代理IP地址池来做分布式下载的第三方平台,除了scrapy可以用以外,普通的java、php、python等都可以通过curl的方式来调用 如果不使用第三方的平台做代理ip,我们就必须得手动抓取
相关文章
相关标签/搜索