python爬虫:爬取拉勾网职位并分析

前言

文的文字及图片来源于网络,仅供学习、交流使用,不具备任何商业用途,版权归原做者全部,若有问题请及时联系咱们以做处理。python

做者: 闲庭信步正则表达式

源自:http://www.javashuo.com/article/p-nlgioage-dk.htmljson

PS:若有须要Python学习资料的小伙伴能够加点击下方连接自行获取api

http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef 数组

0. 前言

本文从拉勾网爬取深圳市数据分析的职位信息,并以CSV格式保存至电脑,以后进行数据清洗,生成词云,进行描述统计和回归分析,最终得出结论。服务器

1. 用到的软件包

  • Python版本: Python3.6 网络

  • requests:下载网页架构

  • math:向上取整app

  • time:暂停进程机器学习

  • pandas:数据分析并保存为csv文件

  • matplotlib:画图

  • statsmodels:统计建模

  • wordcloud、scipy、jieba:生成中文词云

  • pylab:设置画图能显示中文

2. 解析网页

打开Chrome,在拉勾网搜索深圳市的“数据分析”职位,使用检查功能查看网页源代码,发现拉勾网有反爬虫机制,职位信息并不在源代码里,而是保存在JSON的文件里,所以咱们直接下载JSON,并使用字典方法直接读取数据。 在这里插入图片描述

抓取网页时,须要加上头部信息,才能获取所需的数据。

def get_json(url,num):  
   '''''从网页获取JSON,使用POST请求,加上头部信息'''  
   my_headers = {  
           'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36',  
           'Host':'www.lagou.com',  
           'Referer':'https://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?labelWords=&fromSearch=true&suginput=',  
           'X-Anit-Forge-Code':'0',  
           'X-Anit-Forge-Token': 'None',  
           'X-Requested-With':'XMLHttpRequest'  
           }  
​
   my_data = {  
           'first': 'true',  
           'pn':num,  
           'kd':'数据分析'}  
​
   res = requests.post(url, headers = my_headers, data = my_data)  
   res.raise_for_status()  
   res.encoding = 'utf-8'  
   # 获得包含职位信息的字典  
   page = res.json()  
   return page

 

在搜索结果的第一页,咱们能够从JSON里读取总职位数,按照每页15个职位,得到要爬取的页数。再使用循环按页爬取,将职位信息汇总,输出为CSV格式。

程序运行如图:

在这里插入图片描述

抓取结果如图:

在这里插入图片描述

3. 数据清洗

数据清洗占数据分析工做量的大头。在拉勾网搜索深圳市的“数据分析”职位,结果获得369个职位。查看职位名称时,发现有4个实习岗位。因为咱们研究的是全职岗位,因此先将实习岗位剔除。因为工做经验和工资都是字符串形式的区间,咱们先用正则表达式提取数值,输出列表形式。工做经验取均值,工资取区间的四分位数值,比较接近现实。

# 数据清洗,剔除实习岗位  
df.drop(df[df['职位名称'].str.contains('实习')].index, inplace=True)  
# print(df.describe())  
# 因为CSV文件内的数据是字符串形式,先用正则表达式将字符串转化为列表,再取区间的均值  
pattern = '\d+'  
df['工做年限'] = df['工做经验'].str.findall(pattern)  
​
avg_work_year = []  
for i in df['工做年限']:  
   # 若是工做经验为'不限'或'应届毕业生',那么匹配值为空,工做年限为0  
   if len(i) == 0:  
       avg_work_year.append(0)  
   # 若是匹配值为一个数值,那么返回该数值  
   elif len(i) == 1:  
       avg_work_year.append(int(''.join(i)))  
   # 若是匹配值为一个区间,那么取平均值  
   else:  
       num_list = [int(j) for j in i]  
       avg_year = sum(num_list)/2  
       avg_work_year.append(avg_year)  
​
df['经验'] = avg_work_year  
​
# 将字符串转化为列表,再取区间的前25%,比较贴近现实  
df['salary'] = df['工资'].str.findall(pattern)  
​
avg_salary = []  
for k in df['salary']:  
   int_list = [int(n) for n in k]  
   avg_wage = int_list[0]+(int_list[1]-int_list[0])/4  
   avg_salary.append(avg_wage)  
​
df['月工资'] = avg_salary  
# 将清洗后的数据保存,以便检查  
df.to_csv('draft.csv', index = False)

 

4. 词云

咱们将职位福利这一列的数据汇总,生成一个字符串,按照词频生成词云实现python可视化。如下是原图和词云的对比图,可见五险一金在职位福利里出现的频率最高,平台、福利、发展空间、弹性工做次之。 在这里插入图片描述

5. 描述统计

在这里插入图片描述

可知,数据分析师的均值在14.6K,中位数在12.5K,算是较有前途的职业。数据分析散布在各个行业,但在高级层面上涉及到数据挖掘和机器学习,在IT业有长足的发展。 咱们再来看工资的分布,这对于求职来说是重要的参考:

在这里插入图片描述

工资在10-15K的职位最多,在15-20K的职位其次。我的愚见,10-15K的职位以建模为主,20K以上的职位以数据挖掘、大数据架构为主。 咱们再来看职位在各区的分布: 在这里插入图片描述

数据分析职位有62.9%在南山区,有25.8%在福田区,剩下少数分布在龙岗区、罗湖区、宝安区、龙华新区。咱们以小窥大,可知南山区和福田区是深圳市科技业的中心。

6. 实证统计

咱们但愿得到工资与工做经验、学历的关系,因为学历分三类,需设置3个虚拟变量:大专、本科、硕士。多元回归结果以下:

在这里插入图片描述

在0.05的显著性水平下,F值为82.53,说明回归关系是显著的。t检验和对应的P值都小于0.05代表,工做经验和3种学历在统计上都是显著的。另外,R-squared的值为0.41,说明工做经验和学历仅仅解释了工资变异性的41%。这点不难理解,即便职位都叫数据分析师,实际的工做内容差别比较大,有的只是用Excel作基本分析,有的用Python、R作数据挖掘。另外,各个公司的规模和它愿意开出的工资也不尽相同。而工做内容的差别和公司的大方程度是很难单凭招聘网页上的宣传而得到实际数据,致使了模型的拟合优度不是很好这一现实。

因为回归模型整体是显著的,咱们能够将自变量的值代入回归方程,得到各个学历的工资的指望值E。对于数据分析职位,以1年工做经验为例,大专学历的指望工资是7.8K,本科学历的指望工资是10.8K,硕士学历的指望工资是17.6K。这证明了“知识改变命运”这一说法。

7. 完整代码

因为每次运行爬虫耗时约30分钟,而运行数据分析耗时几秒钟,咱们将两部分的工做单独运行,以节省数据分析的时间。

7.1 爬虫部分的代码

 1 import requests  
 2 import math  
 3 import pandas as pd  
 4 import time  
 5 '''
 6 python学习交流群:821460695更多学习资料能够加群获取
 7 '''
 8 def get_json(url,num):  
 9    '''''从网页获取JSON,使用POST请求,加上头部信息'''  
10    my_headers = {  
11            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36',  
12            'Host':'www.lagou.com',  
13            'Referer':'https://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?labelWords=&fromSearch=true&suginput=',  
14            'X-Anit-Forge-Code':'0',  
15            'X-Anit-Forge-Token': 'None',  
16            'X-Requested-With':'XMLHttpRequest'  
17            }  
18 19    my_data = {  
20            'first': 'true',  
21            'pn':num,  
22            'kd':'数据分析'}  
23 24    res = requests.post(url, headers = my_headers, data = my_data)  
25    res.raise_for_status()  
26    res.encoding = 'utf-8'  
27    # 获得包含职位信息的字典  
28    page = res.json()  
29    return page  
30 31 32 def get_page_num(count):  
33    '''''计算要抓取的页数'''  
34    # 每页15个职位,向上取整  
35    res = math.ceil(count/15)  
36    # 拉勾网最多显示30页结果  
37    if res > 30:  
38        return 30  
39    else:  
40        return res  
41 42 def get_page_info(jobs_list):  
43    '''''对一个网页的职位信息进行解析,返回列表'''  
44    page_info_list = []  
45    for i in jobs_list:  
46        job_info = []  
47        job_info.append(i['companyFullName'])  
48        job_info.append(i['companyShortName'])  
49        job_info.append(i['companySize'])  
50        job_info.append(i['financeStage'])  
51        job_info.append(i['district'])  
52        job_info.append(i['positionName'])  
53        job_info.append(i['workYear'])  
54        job_info.append(i['education'])  
55        job_info.append(i['salary'])  
56        job_info.append(i['positionAdvantage'])  
57        page_info_list.append(job_info)  
58    return page_info_list  
59 60 def main():  
61    url = 'https://www.lagou.com/jobs/positionAjax.json?city=%E6%B7%B1%E5%9C%B3&needAddtionalResult=false'  
62    # 先设定页数为1,获取总的职位数  
63    page_1 = get_json(url,1)  
64    total_count = page_1['content']['positionResult']['totalCount']  
65    num = get_page_num(total_count)  
66    total_info = []  
67    time.sleep(20)  
68    print('职位总数:{},页数:{}'.format(total_count,num))  
69 70    for n in range(1,num+1):  
71        # 对每一个网页读取JSON, 获取每页数据  
72        page = get_json(url,n)  
73        jobs_list = page['content']['positionResult']['result']  
74        page_info = get_page_info(jobs_list)  
75        total_info += page_info  
76        print('已经抓取第{}页, 职位总数:{}'.format(n, len(total_info)))  
77        # 每次抓取完成后,暂停一会,防止被服务器拉黑  
78        time.sleep(30)  
79    #将总数据转化为data frame再输出  
80    df = pd.DataFrame(data = total_info,columns = ['公司全名','公司简称','公司规模','融资阶段','区域','职位名称','工做经验','学历要求','工资','职位福利'])   
81    df.to_csv('lagou_jobs.csv',index = False)  
82    print('已保存为csv文件.')  
83 84 if __name__== "__main__":   
85    main()

 

7.2 数据分析部分的代码

import pandas as pd  
import matplotlib.pyplot as plt  
import statsmodels.api as sm  
from wordcloud import WordCloud  
from scipy.misc import imread  
import jieba  
from pylab import mpl  
'''
python学习交流群:821460695更多学习资料能够加群获取
'''
# 使matplotlib模块能显示中文  
mpl.rcParams['font.sans-serif'] = ['SimHei'] # 指定默认字体  
mpl.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题  
# 读取数据  
df = pd.read_csv('lagou_jobs.csv', encoding = 'gbk')  
​
# 数据清洗,剔除实习岗位  
df.drop(df[df['职位名称'].str.contains('实习')].index, inplace=True)  
# print(df.describe())  
# 因为CSV文件内的数据是字符串形式,先用正则表达式将字符串转化为列表,再取区间的均值  
pattern = '\d+'  
df['工做年限'] = df['工做经验'].str.findall(pattern)  
​
avg_work_year = []  
for i in df['工做年限']:  
   # 若是工做经验为'不限'或'应届毕业生',那么匹配值为空,工做年限为0  
   if len(i) == 0:  
       avg_work_year.append(0)  
   # 若是匹配值为一个数值,那么返回该数值  
   elif len(i) == 1:  
       avg_work_year.append(int(''.join(i)))  
   # 若是匹配值为一个区间,那么取平均值  
   else:  
       num_list = [int(j) for j in i]  
       avg_year = sum(num_list)/2  
       avg_work_year.append(avg_year)  
​
df['经验'] = avg_work_year  
​
# 将字符串转化为列表,再取区间的前25%,比较贴近现实  
df['salary'] = df['工资'].str.findall(pattern)  
​
avg_salary = []  
for k in df['salary']:  
   int_list = [int(n) for n in k]  
   avg_wage = int_list[0]+(int_list[1]-int_list[0])/4  
   avg_salary.append(avg_wage)  
​
df['月工资'] = avg_salary  
# 将清洗后的数据保存,以便检查  
df.to_csv('draft.csv', index = False)  
​
# 描述统计  
print('数据分析师工资描述:\n{}'.format(df['月工资'].describe()))  
​
# 绘制频率直方图并保存  
plt.hist(df['月工资'],bins = 12)  
plt.xlabel('工资 (千元)')   
plt.ylabel('频数')   
plt.title("工资直方图")   
plt.savefig('histogram.jpg')  
plt.show()  
​
# 绘制饼图并保存  
count = df['区域'].value_counts()  
# 将龙华区和龙华新区的数据汇总  
count['龙华新区'] += count['龙华区']   
del count['龙华区']  
plt.pie(count, labels = count.keys(),labeldistance=1.4,autopct='%2.1f%%')  
plt.axis('equal')  # 使饼图为正圆形  
plt.legend(loc='upper left', bbox_to_anchor=(-0.1, 1))  
plt.savefig('pie_chart.jpg')  
plt.show()  
​
# 绘制词云,将职位福利中的字符串汇总  
text = ''  
for line in df['职位福利']:  
   text += line  
# 使用jieba模块将字符串分割为单词列表      
cut_text = ' '.join(jieba.cut(text))  
color_mask = imread('cloud.jpg')  #设置背景图  
cloud = WordCloud(  
       font_path = 'yahei.ttf',   
       background_color = 'white',  
       mask = color_mask,  
       max_words = 1000,  
       max_font_size = 100          
       )  
​
word_cloud = cloud.generate(cut_text)  
# 保存词云图片  
word_cloud.to_file('word_cloud.jpg')  
plt.imshow(word_cloud)  
plt.axis('off')  
plt.show()  
​
# 实证统计,将学历不限的职位要求认定为最低学历:大专  
df['学历要求'] = df['学历要求'].replace('不限','大专')  
​
# 学历分为大专\本科\硕士,将它们设定为虚拟变量  
dummy_edu = pd.get_dummies(df['学历要求'],prefix = '学历')  
# 构建回归数组  
df_with_dummy = pd.concat([df['月工资'],df['经验'],dummy_edu],axis = 1)  
​
# 创建多元回归模型  
y = df_with_dummy['月工资']  
X = df_with_dummy[['经验','学历_大专','学历_本科','学历_硕士']]  
X=sm.add_constant(X)   
model = sm.OLS(y,X)  
results = model.fit()  
print('回归方程的参数:\n{}\n'.format(results.params))  
print('回归结果:\n{}'.format(results.summary()))
相关文章
相关标签/搜索