1、简介html
前面两篇文章咱们围绕利用Python进行网络数据采集铺垫了不少内容,但光说不练是不行的,因而乎,本篇就将基于笔者最近的一项数据需求进行一次网络数据采集的实战;正则表达式
2、网易财经股票数据爬虫实战windows
2.1 数据要求浏览器
在本部分中,咱们须要采集的是海南板块中全部股票在2012年6月29日的全部指标数据,咱们爬取的平台是网易财经,以其中一个为例:网络
这是海南板块中的一支股票的历史数据页面http://quotes.money.163.com/trade/lsjysj_600221.html?year=2012&season=2,而咱们须要的是海南板块全部只股票在2012年6月29日的这十个指标(开盘价、最高价、最低价、收盘价、涨跌额、涨跌幅(%)、成交量(手)、成交金额(万元)、振幅(%)、换手率(%)),下面,咱们分步骤分解及实现整个过程:数据结构
2.2 步骤1:获取全部股票代码app
既然要利用到爬虫来自动化、批量化地获取数据,那咱们须要依次爬取的html地址就须要预先建立好,先来观察网易财经历史数据页面的命名规则:测试
能够看出,网易财经的历史数据界面的命名规则为http://quotes.money.163.com/trade/lsjysj_ 加 股票代码 加 .html?year=年份&season=季度,所以对应咱们的数据时期要求,年份取2012,季度取2,这样规则已经定好,惟一不肯定的是股票代码,我从某金融软件下载了海南板块当前全部股票的交易数据(注意,该软件提供的历史交易数据维度不及网易财经网页中提供的丰富,因此咱们才会须要爬取网页上的更丰富的内容),这些独立的文件所在文件夹以下:url
咱们利用R来提取全部股票中数字代码部分,而后保存在一个txt文件中,代码以下:spa
rm(list=ls()) setwd('C:\\Users\\windows\\Desktop\\stock') #获取当前目录下全部文件的名称及扩展名(注意该文件夹下不要放除海南股票数据外其余文件) codes <- dir() #提取每个文件名股票代码部分 C <- c() for(i in 1:length(codes)){ C[i] <- substr(codes[i],3,8) } df <- data.frame(codes=C) #写出为txt文件 write.table(df,file = 'codes.txt',row.names = F,col.names = F)
这样咱们就获得了保存当前全部海南板块股票代码的txt文件:
接下来的工做就交给Python喽~
2.3 步骤2:目标网页地址的准备
先来用Python读入codes.txt文件内的股票代码:
'''设置股票代码文件所在路近''' path = 'C:\\Users\\windows\\Desktop\\stock\\' '''读入股票代码文件,并按行分割为列表形式''' with open(path+'codes.txt') as c: code = c.readlines() '''打印code的内容''' print(code)
运行结果:
能够看出,换行符\n,双引号也被当成字符内容了,这时利用前面介绍的re.sub便可轻松将\n和双引号部分删掉:
import re for i in range(len(code)): code[i] = re.sub('\\n','',code[i]) code[i] = re.sub('"','',code[i]) print(code)
运行结果:
好了~,如今存放纯股票代码的列表已经生成,接下来须要作的就是生成咱们的全部目标网址了:
htmls = [] '''利用字符串的拼接生成全部只股票对应的目标网页地址''' for i in range(len(code)): htmls.append('http://quotes.money.163.com/trade/lsjysj_'+code[i]+'.html?year=2012&season=2') print(htmls)
运行结果:
咱们用浏览器随便打开一个网址试试:
2.4 步骤3:单个网址的链接与内容解析测试
咱们全部目标网页的网址都生成完毕,下面开始创建与这些网址的链接并进行解析,固然,由于会有不少未知的错误发生,所以咱们先以其中一个网址为例先作常规的测试:
from urllib.request import urlopen from bs4 import BeautifulSoup '''与第一个网址创建链接''' html = urlopen(htmls[0]) '''打印BeautifSoup解析后的结果''' print(BeautifulSoup(html))
运行结果:
能够看出,网页内容被成功的解析了出来,接下来咱们来观察网页源代码,看看咱们须要的内容藏在哪些标签下:
很轻易的就找到了,由于这个界面比较简单,若是遇到比较复杂的界面,能够在界面内ctrl+F的方式定位内容,根据个人观察,肯定了变量名称和具体的日交易数据在标签tr下,但其每一个数据都被包裹在一对标签内,所以,利用findAll()来对tr定位,获得返回值以下:
from urllib.request import urlopen from bs4 import BeautifulSoup'''与第一个网址创建链接''' html = urlopen(htmls[0]) obj = BeautifulSoup(html,'lxml') '''利用findAll定位目标标签及其属性''' obj.findAll('tr')
运行结果:
能够看到,咱们的确获取到包含目标内容的区块,可是其先后都充斥着大量无关信息,所以须要使用正则表达式来精确地裁剪出咱们想要的部分,由于咱们须要的是2012-06-29的数据,而日期又是每一行数据的开头部分,所以构造正则表达式:
2012-06-29.*2012-06-28
进行更精确地信息提取:
from urllib.request import urlopen from bs4 import BeautifulSoup import re '''与第一个网址创建链接''' html = urlopen(htmls[0]) obj = BeautifulSoup(html,'lxml') '''利用findAll定位目标标签及其属性并返回其字符形式结果''' text = str(obj.findAll('tr')) '''利用日期间隔为正则表达式规则粗略提取内容''' target = re.findall('2012-06-29.*?2012-06-28',text)[0] print(target)
运行结果:
能够看出,除了<>内的标签内容外,其他的就是咱们须要提取的内容,因而乎接下来咱们继续利用re中的功能进行细致的提取:
'''将<>及内部标签内容替换为*以便下一步分割数据''' token = re.sub('<.*?>','*',target) '''以致少出现1次的*做为分割依据''' re.split('\*+',token)
运行结果:
能够看出,该列表第2个到第11个元素即为咱们须要的10个属性的值,
re.split('\*+',token)[1:11]
运行结果:
2.5 步骤4:流水线式的全量爬虫任务构造
上面咱们已经针对某一个样本基本实现了整个任务的要求过程,下面咱们将网络数据采集的过程应用到全部股票上(这里要注意下,由于股票代码是当下获取的,而其中有些股票在2012年6月29日还没有上市,即针对其生成的网址是无效的,下面的程序中我也据此附上了对应的处理方法,请注意):
import re from bs4 import BeautifulSoup from urllib.request import urlopen '''设置股票代码文件所在路近''' path = 'C:\\Users\\windows\\Desktop\\stock\\' '''读入股票代码文件,并按行分割为列表形式''' with open(path+'codes.txt') as c: code = c.readlines() '''获得干净的股票代码列表''' for i in range(len(code)): code[i] = re.sub('\\n','',code[i]) code[i] = re.sub('"','',code[i]) htmls = [] '''利用字符串的拼接生成全部只股票对应的目标网页地址''' for i in range(len(code)): htmls.append('http://quotes.money.163.com/trade/lsjysj_'+code[i]+'.html?year=2012&season=2') '''利用循环完成全部页面的数据爬取任务''' '''建立保存对应股票数据的数据结构,这里选用字典,将股票代码做为键,对应交易数据做为值''' data = {} for i in range(len(code)): '''对2012年6月29日无交易数据的股票(即在爬取过程当中会出错的网页)进行相应的处理''' try: '''与每次循环归入的目标网页创建链接爬回朴素的网页信息''' html = urlopen(htmls[i]) '''对朴素的网页信息进行结构化解析''' obj = BeautifulSoup(html,'lxml') '''利用findAll定位目标标签及其属性并返回其字符形式结果''' text = str(obj.findAll('tr')) '''利用日期间隔为正则表达式规则粗略提取内容''' target = re.findall('2012-06-29.*?2012-06-28',text)[0] '''将<>及内部标签内容替换为*以便下一步分割数据''' token = re.sub('<.*?>','*',target) '''以致少出现1次的*做为分割依据分割为列表并返回须要的数据部分''' content = re.split('\*+',token)[1:11] '''将获得的内容保存入字典中''' data[code[i]] = content '''当目标网页不存在2012年6月29日的数据时,传入字典对应的值为错误解释''' except Exception as e: data[code[i]] = '无2012年6月29日数据' '''打印结果''' print(data)
运行结果:
很顺利的,咱们获得了字典形式的目标数据,下面利用一些基本操做将其整理为数据框的形式并保存为csv文件:
import pandas as pd import numpy as np import re stocks = {} for key,value in data.items(): if type(value) == list: for i in range(len(value)): value[i] = re.sub(',+','',value[i]) stocks[key] = list(map(float,value)) else: pass index = [] df = [[] for i in range(10)] for key,value in stocks.items(): index.append(key) for i in range(len(value)): df[i].append(value[i]) D = pd.DataFrame({'股票代码':index, '开盘价':df[0], '最高价':df[1], '最低价':df[2], '收盘价':df[3], '涨跌额':df[4], '涨跌幅%':df[5], '成交量(手)':df[6], '成交金额(万元)':df[7], '振幅':df[8], '换手率(%)':df[9]}) '''设置保存路径''' path = 'C:\\Users\\windows\\Desktop\\stock\\' D.to_csv(path+'海南股票数据.txt',encoding='ANSI',sep=' ',index=False) D
生成的txt文件以下:
以上就是本次实战的内容,更多爬虫的技巧和奇妙之处,从此会在更多篇实战中介绍,敬请期待!