@python
提到爬虫,大部分人都会想到使用Scrapy工具,可是仅仅停留在会使用的阶段。为了增长对爬虫机制的理解,咱们能够手动实现多线程的爬虫过程,同时,引入IP代理池进行基本的反爬操做。git
本次使用每天基金网进行爬虫,该网站具备反爬机制,同时数量足够大,多线程效果较为明显。github
首先,开始分析每天基金网的一些数据。通过抓包分析,可知:
./fundcode_search.js包含全部基金的数据,同时,该地址具备反爬机制,屡次访问将会失败的状况。web
同时,通过分析可知某只基金的相关信息地址为:fundgz.1234567.com.cn/js/ + 基金代码 + .jsjson
# 返回一个可用代理,格式为ip:端口 # 该接口直接调用github代理池项目给的例子,故不保证该接口实时可用 # 建议本身搭建一个本地代理池,这样获取代理的速度更快 # 代理池搭建github地址https://github.com/1again/ProxyPool # 搭建完毕后,把下方的proxy.1again.cc改为你的your_server_ip,本地搭建的话能够写成127.0.0.1或者localhost def get_proxy(): data_json = requests.get("http://proxy.1again.cc:35050/api/v1/proxy/?type=2").text data = json.loads(data_json) return data['data']['proxy']
# 将全部基金代码放入先进先出FIFO队列中 # 队列的写入和读取都是阻塞的,故在多线程状况下不会乱 # 在不使用框架的前提下,引入多线程,提升爬取效率 # 建立一个队列 fund_code_queue = queue.Queue(len(fund_code_list)) # 写入基金代码数据到队列 for i in range(len(fund_code_list)): #fund_code_list[i]也是list类型,其中该list中的第0个元素存放基金代码 fund_code_queue.put(fund_code_list[i][0])
# 获取基金数据 def get_fund_data(): # 当队列不为空时 while (not fund_code_queue.empty()): # 从队列读取一个基金代码 # 读取是阻塞操做 fund_code = fund_code_queue.get() # 获取一个代理,格式为ip:端口 proxy = get_proxy() # 获取一个随机user_agent和Referer header = {'User-Agent': random.choice(user_agent_list), 'Referer': random.choice(referer_list) } try: req = requests.get("http://fundgz.1234567.com.cn/js/" + str(fund_code) + ".js", proxies={"http": proxy}, timeout=3, headers=header) except Exception: # 访问失败了,因此要把咱们刚才取出的数据再放回去队列中 fund_code_queue.put(fund_code) print("访问失败,尝试使用其余代理访问")
# 申请获取锁,此过程为阻塞等待状态,直到获取锁完毕 mutex_lock.acquire() # 追加数据写入csv文件,若文件不存在则自动建立 with open('./fund_data.csv', 'a+', encoding='utf-8') as csv_file: csv_writer = csv.writer(csv_file) data_list = [x for x in data_dict.values()] csv_writer.writerow(data_list) # 释放锁 mutex_lock.release()
# user_agent列表 user_agent_list = [ 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER', 'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)', 'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36' ] # referer列表 referer_list = [ 'http://fund.eastmoney.com/110022.html', 'http://fund.eastmoney.com/110023.html', 'http://fund.eastmoney.com/110024.html', 'http://fund.eastmoney.com/110025.html' ] # 获取一个随机user_agent和Referer header = {'User-Agent': random.choice(user_agent_list), 'Referer': random.choice(referer_list) }
# 建立一个线程锁,防止多线程写入文件时发生错乱 mutex_lock = threading.Lock() # 线程数为50,在必定范围内,线程数越多,速度越快 for i in range(50): t = threading.Thread(target=get_fund_data,name='LoopThread'+str(i)) t.start()
000056,建信消费升级混合,2019-03-26,1.7740,1.7914,0.98,2019-03-27 15:00api
000031,华夏复兴混合,2019-03-26,1.5650,1.5709,0.38,2019-03-27 15:00多线程
000048,华夏双债加强债券C,2019-03-26,1.2230,1.2236,0.05,2019-03-27 15:00框架
000008,嘉实中证500ETF联接A,2019-03-26,1.4417,1.4552,0.93,2019-03-27 15:00dom
000024,大摩双利加强债券A,2019-03-26,1.1670,1.1674,0.04,2019-03-27 15:00
000054,鹏华双债增利债券,2019-03-26,1.1697,1.1693,-0.03,2019-03-27 15:00
000016,华夏纯债债券C,2019-03-26,1.1790,1.1793,0.03,2019-03-27 15:00
# 确保安装如下库,若是没有,请在python3环境下执行pip install 模块名 import requests import random import re import queue import threading import csv import json
完整版源代码存放在github上,有须要的能够下载
项目持续更新,欢迎您star本项目