前言php
本文的文字及图片来源于网络,仅供学习、交流使用,不具备任何商业用途,版权归原做者全部,若有问题请及时联系咱们以做处理。html
今天来教你们如何使用Python来爬取博海拾贝的图片,分类保存,写入文档。python

项目目标
建立一个文件夹, 分类保存全部文章图片。下载成功,结果显示控制台。swift

项目分析
一、如何找到真正访问的地址,多网页请求?ruby
滑动鼠标,观察网站,右键F12 。鼠标滚轮滑动加载新内容。如图:服务器

点开随机网页 , 点开Request URL ,观察网址的规律。网络

https://bh.sb/page/1/
https://bh.sb/page/2/
https://bh.sb/page/3/
https://bh.sb/page/4/
观察到,每增长一页page/{}/自增长1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。less
2. 反爬处理dom
1)获取正常的 http请求头,并在requests请求时,设置这些常规的http请求头。函数
2)使用 fake_useragent ,产生随机的UserAgent进行访问。
涉及的库和网站
一、网址以下:
https://www.doutula.com/photo/list/?page={}
二、涉及的库:requests、lxml、fake_useragent、time、os
三、软件:PyCharm
项目实施
一、咱们定义一个class类继承object,而后定义init方法继承self,再定义一个主函数main继承self。导入须要的库和网址,建立保存文件夹。
import requests, os
from lxml import etree
from fake_useragent import UserAgent
import time
class bnotiank(object):
def __init__(self):
os.mkdir("图片") # 在建立文件夹 记住只有第一次运行加上,若是屡次运行请注释掉本行。
def main(self):
pass
if __name__ == '__main__':
Siper=bnotiank()
Siper.main()
二、随机UserAgent ,构造请求头,防止反爬。
ua = UserAgent(verify_ssl=False)
for i in range(1, 50):
self.headers = {
'User-Agent': ua.random
}
三、发送请求 ,获取响应,页面回调,方便下次请求。
'''发送请求 获取响应'''
def get_page(self, url):
res = requests.get(url=url, headers=self.headers)
html = res.content.decode("utf-8")
return html
四、定义parse_page函数,获取二级页面地址,for遍历获取须要的字段。
def parse_page(self, html):
parse_html = etree.HTML(html)
image_src_list = parse_html.xpath('//p/a/@href')
# print(image_src_list)
五、对二级页面发生请求,xpath解析数据,获取大图片连接。
reo = parse_html1.xpath('//div//div[@class="content"]') #父结点
for j in reo:
d = j.xpath('.//article[@class="article-content"]//p/img/@src')[0]
text = parse_html1.xpath('//h1[@class ="article-title"] //a/text()')[0].strip()
六、请求图片地址,写入文档。
html2 = requests.get(url=d, headers=self.headers).content
dirname = "./d/" + text + ".jpg" #定义图命名
with open(dirname, 'wb') as f:
f.write(html2)
print("%s 【下载成功!!!!】" % text)
七、调用方法,实现功能。
url = self.url.format(page)
print(url)
html = self.get_page(url)
self.parse_page(html)
八、设置延时。(防止ip被封)。
time.sleep(1) """时间延时"""
效果展现
一、点击绿色小三角运行输入起始页,终止页。

二、将下载成功信息显示在控制台。

三、text 做为图片命名,展现效果以下所示。

总结
一、不建议抓取太多数据,容易对服务器形成负载,浅尝辄止便可。
二、本文基于Python网络爬虫,讲述了反爬技巧,利用爬虫库,实现了分类图片的获取,存入文档。
三、但愿经过这个项目,可以帮助了解xpath,字符串是如何拼接,format函数如何运用。
四、实现的时候,总会有各类各样的问题,切勿眼高手低,勤动手,才能够理解的更加深入。