本次爬虫项目将爬取豆瓣Top250电影的图片,其网址为:https://movie.douban.com/top250, 具体页面以下图所示:html
本次爬虫项目将分别不使用多线程和使用多线程来完成,经过二者的对比,显示出多线程在爬虫项目中的巨大优点。本文所使用的多线程用到了concurrent.futures模块,该模块是Python中最广为使用的并发库,它能够很是方便地将任务并行化。在concurrent.futures模块中,共有两种并发模块,分别以下:python
具体的关于该模块的介绍能够参考其官方网址:https://docs.python.org/3/lib... 。
本次爬虫项目将会用到concurrent.futures模块中的ThreadPoolExecutor类,多线程豆瓣Top250电影图片。下面将会给出本次爬虫项目分别不使用多线程和使用多线程的对比,以此来展现多线程在爬虫中的巨大优点。web
首先,咱们不使用多线程来下载豆瓣Top250电影图片,其完整的Python代码以下:微信
import time import requests import urllib.request from bs4 import BeautifulSoup # 该函数用于下载图片 # 传入函数: 网页的网址url def download_picture(url): # 获取网页的源代码 r = requests.get(url) # 利用BeautifulSoup将获取到的文本解析成HTML soup = BeautifulSoup(r.text, "lxml") # 获取网页中的电影图片 content = soup.find('div', class_='article') images = content.find_all('img') # 获取电影图片的名称和下载地址 picture_name_list = [image['alt'] for image in images] picture_link_list = [image['src'] for image in images] # 利用urllib.request..urlretrieve正式下载图片 for picture_name, picture_link in zip(picture_name_list, picture_link_list): urllib.request.urlretrieve(picture_link, 'E://douban/%s.jpg' % picture_name) def main(): # 所有10个网页 start_urls = ["https://movie.douban.com/top250"] for i in range(1, 10): start_urls.append("https://movie.douban.com/top250?start=%d&filter=" % (25 * i)) # 统计该爬虫的消耗时间 t1 = time.time() print('*' * 50) for url in start_urls: download_picture(url) t2 = time.time() print('不使用多线程,总共耗时:%s'%(t2-t1)) print('*' * 50) main()
其输出结果以下:多线程
************************************************** 不使用多线程,总共耗时:79.93260931968689 **************************************************
去E盘中的douban文件夹查看,以下图:并发
咱们能够看到,在不使用多线程的状况下,这个爬虫总共耗时约80s,完成了豆瓣Top250电影图片的下载。app
接下来,咱们使用多线程来下载豆瓣Top250电影图片,其完整的Python代码以下:框架
import time import requests import urllib.request from bs4 import BeautifulSoup from concurrent.futures import ThreadPoolExecutor, wait, ALL_COMPLETED # 该函数用于下载图片 # 传入函数: 网页的网址url def download_picture(url): # 获取网页的源代码 r = requests.get(url) # 利用BeautifulSoup将获取到的文本解析成HTML soup = BeautifulSoup(r.text, "lxml") # 获取网页中的电影图片 content = soup.find('div', class_='article') images = content.find_all('img') # 获取电影图片的名称和下载地址 picture_name_list = [image['alt'] for image in images] picture_link_list = [image['src'] for image in images] # 利用urllib.request..urlretrieve正式下载图片 for picture_name, picture_link in zip(picture_name_list, picture_link_list): urllib.request.urlretrieve(picture_link, 'E://douban/%s.jpg' % picture_name) def main(): # 所有10个网页 start_urls = ["https://movie.douban.com/top250"] for i in range(1, 10): start_urls.append("https://movie.douban.com/top250?start=%d&filter=" % (25 * i)) # 统计该爬虫的消耗时间 print('*' * 50) t3 = time.time() # 利用并发下载电影图片 executor = ThreadPoolExecutor(max_workers=10) # 能够本身调整max_workers,即线程的个数 # submit()的参数: 第一个为函数, 以后为该函数的传入参数,容许有多个 future_tasks = [executor.submit(download_picture, url) for url in start_urls] # 等待全部的线程完成,才进入后续的执行 wait(future_tasks, return_when=ALL_COMPLETED) t4 = time.time() print('使用多线程,总共耗时:%s' % (t4 - t3)) print('*' * 50) main()
其输出结果以下:函数
************************************************** 使用多线程,总共耗时:9.361606121063232 **************************************************
再去E盘中的douban文件夹查看,发现一样也下载了250张电影图片。url
经过上述两个爬虫程序的对比,咱们不难发现,一样是下载豆瓣Top250电影,10个网页中的图片,在没有使用多线程的状况下,总共耗时约80s,而在使用多线程(10个线程)的状况下,总共耗时约9.5秒,效率整整提升了约8倍。这样的效率提高在爬虫中无疑是使人兴奋的。
但愿读者在看了本篇博客后,也能尝试着在本身的爬虫中使用多线程,说不定会有意外的惊喜哦~~由于,大名鼎鼎的Python爬虫框架Scrapy,也是使用多线程来提高爬虫速度的哦!
注意:本人现已开通两个微信公众号: 由于Python(微信号为:python_math)以及轻松学会Python爬虫(微信号为:easy_web_scrape), 欢迎你们关注哦~~