上一篇讲了numpy,除此以外,还有一个工具咱们必定会使用,那就是pandas。若是说numpy中数据存储形式是列表的话,那么pandas中数据的存储形式更像是字典。为何这么说呢?由于pandas中的数据每一行每一列都有名字,而numpy中没有。本文主要介绍pandas的基本使用方法,更多高级用法你们能够参考 pandas官方文档app
安装:命令行中输入如下代码dom
pip3 install pandas
导入:为了简便,这里使用pd做为pandas的缩写(由于pandas依赖numpy,因此在使用以前须要安装和导入numpy)工具
import numpy as np import pandas as pd
建立方法:
pd.Series:建立pandas列表
pd.date_range:建立pandas日期列表
pd.DataFrame:建立pandas矩阵
矩阵属性
dtypes:数据类型
index:行名
columns:列名
values:数据值
describe():实值数据列的统计数据
T:矩阵的倒置
sort_index(axis=, ascending=):矩阵排序{axis:0(行排序),1(列排序)}{ascending:True(升序),False(降序)}
sort_values(by=, ascending=):按某一列的值排序{by:列名}命令行
s = pd.Series([1, 3, 6, np.nan, 23, 3]) dates = pd.date_range('20180708', periods=6) df = pd.DataFrame(np.random.randn(6, 4), index=dates, columns=['a', 'b', 'c', 'd']) df2 = pd.DataFrame({ 'a':pd.Series([1, 2, 3, 4]), 'b':pd.Timestamp('20180708'), 'c':pd.Categorical(['cate1', 'cate2', 'cate3', 'cate4']) }) print(df2) print(df2.dtypes) print(df2.index) print(df2.columns) print(df2.values) print(df2.describe()) print(df2.T) print(df2.sort_index(axis=1, ascending=False)) print(df2.sort_index(axis=0, ascending=False)) print(df2.sort_values(by='a', ascending=False))
.列名:选择某一列
[列名]:选择某一列
[start : end]:选择行索引以start开头,end - 1结尾的数据
[行名start:行名end]:选择行名以start开头,end结尾的数据
loc[行名选择, 列名选择]:根据行名和列名选择数据
iloc[行索引选择, 列索引选择]:根据行索引和列索引选择数据
ix[行 名/索引 选择,列 名/索引 选择]:混合 名/索引 选择数据
[布尔表达式]:根据布尔表达式结果选择数据,只有当布尔表达式为真时的数据才会被选择excel
dates = pd.date_range('20180709', periods=3) df = pd.DataFrame(np.arange(12).reshape((3, 4)), index=dates, columns=['A', 'B', 'C', 'D']) print(df.A) print(df['A']) print(df[2:3]) print(df['20180709':'20180710']) # loc: select by label print(df.loc['20180711']) print(df.loc[:,['B','C']]) # iloc : select by position print(df.iloc[1:3, 2:4]) print(df.iloc[[0, 2], 2:4]) # ix : mixed selection print(df.ix[[0, 2], ['B']]) # Boolean indexing print(df[df.A > 3])
首先选择数据,而后直接经过赋值表达式,便可将选择的数据设置为相应的值code
dates = pd.date_range('20180709', periods=3) df = pd.DataFrame(np.arange(12).reshape((3, 4)), index=dates, columns=['A', 'B', 'C', 'D']) df.loc['20180709', 'B'] = 666 df.iloc[2, 2] = 999 df.ix['20180709', 3] = 777 df.A[df.A > 3] = 888 df['F'] = np.nan print(df)
dropna(axis=, how=):丢弃NaN数据,{axis:0(按行丢弃),1(按列丢弃)} {how:'any'(只要含有NaN数据就丢弃),'all'(全部数据都为NaN时丢弃)}
fillna(value=):将NaN值都设置为value的值
isnull():对每各元素进行判断是不是NaN,返回结果矩阵
np.any(matrix) == value:判断matrix矩阵中是否有value值
np.all(matrix) == value:判断matrix矩阵中是否全部元素都是value值排序
dates = pd.date_range('20180709', periods=5) df = pd.DataFrame(np.arange(20).reshape((5, 4)), index=dates, columns=['A', 'B', 'C', 'D']) df.iloc[3, 3] = np.nan print(df.dropna(axis=1, how='all')) # how = {'any', 'all'} print(df.fillna(value=666)) print(df.isnull()) print(np.any(df.isnull()) == True) print(np.all(df.isnull()) == True)
根据数据的格式,pandas提供了多种数据读取和导出的方法,如:
读取数据:read_csv、read_table、read_fwf、read_clipboard、read_excel、read_hdf
导出数据:to_csv、to_table、to_fwf、to_clipboard、to_excel、to_hdf索引
df = pd.read_csv('Q1.csv') print(df) df.to_csv('Q1_pandas.csv')
concat方法
第一个参数:须要合并的矩阵
axis:合并维度,0:按行合并,1:按列合并
join:处理非公有 列/行 的方式,inner:去除非公有的 列/行,outer:对非公有的 列/行 进行NaN值填充而后合并
ignore_index:是否重排行索引ip
df1 = pd.DataFrame(np.arange(12).reshape(3, 4), columns=['A', 'B', 'C', 'D'], index=[0, 1, 2]) df2 = pd.DataFrame(np.ones((3, 4)), columns=['B', 'C', 'D', 'E'], index=[1, 2, 3]) print(pd.concat([df1, df2], join='outer', ignore_index=True)) # join = {'outer', 'inner'} print(pd.concat([df1, df2], axis=1, join_axes=[df1.index])) print(df1.append([df2], ignore_index=True))
merge方法
第一个参数、第二个参数:须要合并的矩阵
on:公有列名
how:处理非公有行的方式,inner:去除非公有行,outer:对非公有的行进行NaN值填充而后合并,left:保留左矩阵的全部行,对非公有的元素进行NaN值填充,right:保留右边矩阵的全部行,对非公有的元素进行NaN值填充
indicator:是否显示每一行的merge方式
suffixes:非公有列的列名后缀文档
df1 = pd.DataFrame({ 'key':['K1', 'K2', 'K3'], 'A':['A1', 'A2', 'A3'], 'B':['B1', 'B2', 'B3'] }) df2 = pd.DataFrame({ 'key':['K1', 'K2', 'K3'], 'C':['C1', 'C2', 'C3'], 'D':['D1', 'D2', 'D3'] }) print(pd.merge(df1, df2, on='key')) df3 = pd.DataFrame({ 'key1':['K1', 'K1', 'K0'], 'key2':['K1', 'K0', 'K1'], 'col':[1, 2, 3] }) df4 = pd.DataFrame({ 'key1':['K0', 'K1', 'K0'], 'key2':['K1', 'K0', 'K0'], 'col':[6, 7, 8] }) # how = {'inner', 'outer', 'left', 'right'} print(pd.merge(df3, df4, on=['key1', 'key2'], how='right', suffixes=['_left', '_right'], indicator=True))
pandas数据可视化依赖matplotlib库,因此在可视化数据以前应该先导入该库
import matplotlib.pyplot as plt
首先经过np.ramdom方法生成四列随机数据
而后经过cumsum对随机数据作累加
再经过scatter方法以其中两列为绿色点X, Y的值,另两列为蓝色点X, Y的值
最后使用plt.show()方法画图
data = pd.DataFrame(np.random.randn(1000, 4), index=np.arange(1000), columns=list("ABCD")) data = data.cumsum() # plot methods: # 'bar', 'hist', 'box', 'kde', 'area', 'scatter', 'hexbin', 'pie' ax = data.plot.scatter(x='A', y='B', color='blue', label='class 1') data.plot.scatter(x='C', y='D', color='green', label='class 2', ax=ax) plt.show()