python版本:3.0html
使用库: import urllib.request #打开网页的库python
import os #建立文件夹有关浏览器
程序做用:批量爬取煎蛋网上图片app
视频连接:连接:http://pan.baidu.com/s/1mhLBwWo 密码:1n51框架
有一点与视频不一样:视频中图片连接为http:打头,实际煎蛋网目前没有http:,会致使没法识别网页类型,不能正确下载,在保存是补上http:便可函数
基础知识:网站
1.对于某个网站,网址通常是按顺序编码的好比:http://jandan.net/ooxx/编码
使用浏览器的审查元素,能够发现网址<a href="http://jandan.net/ooxx/page-2366#comments">url
2366 </a>spa
第一页,第十页,第二十页改变的就是page-后面的数字,改变每次打开网页的这个数字就能够达到刷网页的目的,你们能够依次打开下面的网址,能够发现其规律
http://jandan.net/ooxx/page-2366#comments
http://jandan.net/ooxx/page-2365#comments
http://jandan.net/ooxx/page-2364#comments
2.网页上图片点击,能够发现图片的地址都有以下规律:
http://wx1.sinaimg.cn/mw600/005vbOHfgy1fd1ur0l6lbj31ao1y0nc8.jpg
http://wx1.sinaimg.cn/mw600/005vbOHfgy1fd1ur0l6lbj31ao1y0nc7.jpg
咱们能够从一个网页的代码中筛选出这个格式的连接,利用python带的函数下载便可
程序思路:批量获取含有图片的网页,获取网页上包含的图片连接,下载图片
程序框架:
def test1(folder ='OOXX',pages=2): //00XX为文件夹,程序运行时将建立,pages为抓取的网页数 os.mkdir(folder) #建立文件夹 os.chdir(folder) url="http://jandan.net/ooxx/" //要抓取的网页 page_num=int(get_page(url)) //获取第一个网址 for i in range(pages): page_num -=i page_url= url +'page-' +str(page_num) +'#comments' //批量获取网址 img_addrs = find_imgs(page_url) //获取图片连接 save_imgs(folder,img_addrs) //保存图片 if __name__=='__main__': test1()
完整代码:
import urllib.request #打开网页的库 import os #建立文件夹有关 def url_open(url): #打开网页 req=urllib.request.Request(url) # req.add_header('User-Agent','Mozilla/5.0 (Windows; U; Windows NT 5.2) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.2.149.27 Safari/525.13 ') #看起来像浏览器访问 response = urllib.request.urlopen(url) html = response.read() print(url) return html def get_page(url): html=url_open(url).decode('utf-8') #解码 a=html.find('current-comment-page')+23 b=html.find(']',a) return html[a:b] def find_imgs(url): #寻找图片地址 html=url_open(url).decode('utf-8') img_addrs=[] a=html.find('img src=') while a!=-1: b = html.find('.jpg',a,a+255) #找不到返回-1,255限定结束范围 if b!=-1: #找到了 img_addrs.append('http:'+html[a+9:b+4]) #列表添加地址 实际地址缺乏http: else: b=a+9 a=html.find('img src=',b) for each in img_addrs: print(each) return img_addrs def save_imgs(folder,img_addrs): #保存图片 for each in img_addrs: filename = each.split('/')[-1] with open(filename,'wb') as f: img = url_open(each) f.write(img) def test1(folder ='OOXX',pages=2): os.mkdir(folder) #建立文件夹 os.chdir(folder) url="http://jandan.net/ooxx/" page_num=int(get_page(url)) for i in range(pages): page_num -=i page_url= url +'page-' +str(page_num) +'#comments' img_addrs = find_imgs(page_url) save_imgs(folder,img_addrs) if __name__=='__main__': test1()