目录css
对于一张网页,咱们每每但愿它是结构良好,内容清晰的,这样搜索引擎才能准确地认知它。
而反过来,又有一些情景,咱们不但愿内容能被轻易获取,比方说电商网站的交易额,教育网站的题目等。由于这些内容,每每是一个产品的生命线,必须作到有效地保护。这就是爬虫与反爬虫这一话题的由来。
对于图片进行爬虫总体操做过程可分为三个步骤:html
获取页面信息
读取图片连接
将图片保存在本地指定目录下前端
可是世界上没有一个网站,能作到完美地反爬虫。python
若是页面但愿能在用户面前正常展现,同时又不给爬虫机会,就必需要作到识别真人与机器人。所以工程师们作了各类尝试,这些策略大多采用于后端,也是目前比较常规单有效的手段,好比:web
而爬虫是能够无限逼近于真人的,好比:chrome
因此咱们说,100%的反爬虫策略?不存在的。
更多的是体力活,是个难易程度的问题。后端
不过做为前端工程师,咱们能够增长一下游戏难度,设计出一些很(sang)有(xin)意(bing)思(kuang)的反爬虫策略。api
例子:猫眼电影浏览器
猫眼电影里,对于票房数据,展现的并非纯粹的数字。
页面使用了font-face定义了字符集,并经过unicode去映射展现。也就是说,除去图像识别,必须同时爬取字符集,才能识别出数字。微信
而且,每次刷新页面,字符集的url都是有变化的,无疑更大难度地增长了爬取成本。
例子:美团
与font的策略相似,美团里用到的是background拼凑。数字实际上是图片,根据不一样的background偏移,显示出不一样的字符。
而且不一样页面,图片的字符排序也是有区别的。不过理论上只需生成0-9与小数点,为什么有重复字符就不是很懂。
例子:微信公众号文章
某些微信公众号的文章里,穿插了各类迷之字符,而且经过样式把这些字符隐藏掉。
这种方式虽然使人震惊…但其实没有太大的识别与过滤难度,甚至能够作得更好,不过也算是一种脑洞吧。
例子:汽车之家
汽车之家里,把关键的厂商信息,作到了伪元素的content里。
这也是一种思路:爬取网页,必须得解析css,须要拿到伪元素的content,这就提高了爬虫的难度。
例子:去哪儿
还有热爱数学的去哪儿,对于一个4位数字的机票价格,先用四个i
标签渲染,再用两个b
标签去绝对定位偏移量,覆盖故意展现错误的i
标签,最后在视觉上造成正确的价格…
这说明爬虫会解析css还不行,还得会作数学题。
例子:网易云音乐
网易云音乐页面一打开,html源码里几乎只有一个iframe
,而且它的src是空白的:about:blank
。接着js开始运行,把整个页面的框架异步塞到了iframe里面….
不过这个方式带来的难度并不大,只是在异步与iframe处理上绕了个弯(或者有其余缘由,不彻底是基于反爬虫考虑),不管你是用selenium仍是phantom,都有API能够拿到iframe里面的content信息。
例子:全网代理IP
在一些展现代理IP信息的页面,对于IP的保护也是大费周折。
他们会先把IP的数字与符号分割成dom节点,再在中间插入迷惑人的数字,若是爬虫不知道这个策略,还会觉得本身成功拿到了数值;不过若是爬虫注意到,就很好解决了。
例子:去哪儿移动侧
一样会欺骗爬虫的还有去哪儿的移动版。
html里明明写的3211,视觉上展现的倒是1233。原来他们从新定义了字符集,3与1的顺序恰好调换得来的结果…
import re import os import time import requests # from selenium import webdriver ######################### ###此段代码不须要关心啥意思### ######################### if not os.path.exists('百度图片'): os.mkdir('百度图片') ##################### ###限制30张图片的代码### #################### # 获取全部图片 response = requests.get( 'http://image.baidu.com/search/index?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs7&word=风景') data = response.text img_desc_dics = re.findall("app.setData(\('imgData.*?\));", data, re.S)[0] img_desc_dics = eval(str(img_desc_dics)) # 获取全部图片的数据 img_datas = img_desc_dics[1]['data'] count = 0 for img_data in img_datas: # 获取搜索图片的参数 os_ = img_data.get('os') cs_ = img_data.get('cs') if os_ and cs_: # 获取搜索图片的信息 img_search_url = f'http://image.baidu.com/search/detail?ct=503316480&z=0&ipn=d&word=%E9%A3%8E%E6%99%AF&step_word=&hs=0&pn=1&spn=0&di=195030&pi=0&rn=1&tn=baiduimagedetail&is=0%2C0&istype=0&ie=utf-8&oe=utf-8&in=&cl=2&lm=-1&st=-1&cs={cs_}&os={os_}' img_search_response = requests.get(img_search_url) img_search_data = img_search_response.text # 获取图片信息 img_url = re.findall('''\('firstSc'\);" src="(.*?)"''', img_search_data)[0] img_name = img_url.split('/')[-1] img_name = os.path.join('百度图片', img_name) # 拼接出图片的地址,如 百度图片/3822951_144045377000_2.jpg # 保存图片 img_response = requests.get(img_url) img_data = img_response.content fw = open(img_name, 'wb') fw.write(img_data) fw.flush() # 提示 count += 1 print(f'{img_name}保存成功,成功保存{count}张') # 防止百度禁ip,慢一点 time.sleep(0.01)
######################################################################### ###自行百度selenium的用法,使用这一套代码能够无限爬取全部图片,不然将被限制30张### ## 记得加库哦 ######################################################################## page_count_end = 2 # 爬取 指定数字(10)* 30 = 300张图片 chrome = webdriver.Chrome() ## 安装谷歌插件 ##http://chromedriver.storage.googleapis.com/index.html?tdsourcetag=s_pcqq_aiomsg ## 查看你电脑的谷歌版本,寻找对应版本进行下载解压 try: chrome.implicitly_wait(10) chrome.get( 'http://image.baidu.com/search/index?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs7&word=风景') js_code = ''' window.scrollTo(0, document.body.scrollHeight); var lenOfPage = document.body.scrollHeight; return lenOfPage ''' # selenium控制爬取页数 count = 0 page_count = 0 while page_count < page_count_end: try: page_count += 1 chrome.execute_script(js_code) time.sleep(0.3) except: continue img_desc_search_urls = re.findall('href="(/search/detail\?.*?)"', chrome.page_source, re.S) # re.S使.能够匹配换行符 # 获取全部图片的数据 for img_data in img_desc_search_urls: try: # 获取搜索图片的参数 os_ = re.findall('os=(.*?)&', img_data)[0] cs_ = re.findall('cs=(.*?)&', img_data)[0] if os_ and cs_: # 获取搜索图片的信息 img_search_url = f'http://image.baidu.com/search/detail?ct=503316480&z=0&ipn=d&word=%E9%A3%8E%E6%99%AF&step_word=&hs=0&pn=1&spn=0&di=195030&pi=0&rn=1&tn=baiduimagedetail&is=0%2C0&istype=0&ie=utf-8&oe=utf-8&in=&cl=2&lm=-1&st=-1&cs={cs_}&os={os_}' img_search_response = requests.get(img_search_url) img_search_data = img_search_response.text # 获取图片信息 img_url = re.findall('''\('firstSc'\);" src="(.*?)"''', img_search_data)[0] img_name = img_url.split('/')[-1] img_name = os.path.join('百度图片', img_name) # 拼接出图片的地址,如 百度图片/3822951_144045377000_2.jpg # 保存图片 img_response = requests.get(img_url) img_data = img_response.content fw = open(img_name, 'wb') fw.write(img_data) fw.flush() # 提示 count += 1 print(f'{img_name}保存成功,成功保存{count}张') # 防止百度禁ip,慢一点 time.sleep(0.01) except: continue except Exception: pass finally: chrome.close()
结果
因为百度的反扒措施不断更新,若是想要在一段时间以后进行爬虫,须要重新寻找规律
对于每个网站进行爬虫,都是有必定的规律的,每个网站,尤为是大型网站都是规律的排版,作爬虫尤为要重视细节,细心决定成败,将你须要的文字,图片,或者视频,文件等,找出他们的连接,进行多个分析,耐心找出其中的规律,就是你成功的关键。