当你们谈论到数据分析时,说起最多的语言就是Python和SQL,而Python之因此适合作数据分析,就是由于他有不少强大的第三方库来协助,pandas就是其中之一,它是基于Numpy构建的,正因pandas的出现,让Python语言也成为使用最普遍并且强大的数据分析环境之一。若是说没有pandas的出现,目前的金融数据分析领域还应该是R语言的天下。html
Pandas的主要功能:python
以上就是pandas能完成的一些基础操做,固然并不彻底,下面就来看看pandas究竟是怎么用的。数组
安装方法:数据结构
pip install pandasapp
引用方法:dom
import pandas as pd函数
Series是一种相似于一维数组的对象,由一组数据和一组与之相关的数据标签(索引)组成。在数据分析的过程当中很是经常使用。学习
第一种: pd.Series([4,5,6,7,8]) 执行结果: 0 4 1 5 2 6 3 7 4 8 dtype: int64 # 将数组索引以及数组的值打印出来,索引在左,值在右,因为没有为数据指定索引,因而会自动建立一个0到N-1(N为数据的长度)的整数型索引,取值的时候能够经过索引取值,跟以前学过的数组和列表同样 ----------------------------------------------- 第二种: pd.Series([4,5,6,7,8],index=['a','b','c','d','e']) 执行结果: a 4 b 5 c 6 d 7 e 8 dtype: int64 # 自定义索引,index是一个索引列表,里面包含的是字符串,依然能够经过默认索引取值。 ----------------------------------------------- 第三种: pd.Series({"a":1,"b":2}) 执行结果: a 1 b 2 dtype: int64 # 指定索引 ----------------------------------------------- 第四种: pd.Series(0,index=['a','b','c']) 执行结果: a 0 b 0 c 0 dtype: int64 # 建立一个值都是0的数组 -----------------------------------------------
对于Series,其实咱们能够认为它是一个长度固定且有序的字典,由于它的索引和数据是按位置进行匹配的,像咱们会使用字典的上下文,就确定也会使用Series测试
# 第一步,建立一个字典,经过Series方式建立一个Series对象 st = {"sean":18,"yang":19,"bella":20,"cloud":21} obj = pd.Series(st) obj 运行结果: sean 18 yang 19 bella 20 cloud 21 dtype: int64 ------------------------------------------ # 第二步 a = {'sean','yang','cloud','rocky'} # 定义一个索引变量 ------------------------------------------ #第三步 obj1 = pd.Series(st,index=a) obj1 # 将第二步定义的a变量做为索引传入 # 运行结果: rocky NaN cloud 21.0 sean 18.0 yang 19.0 dtype: float64 # 由于rocky没有出如今st的键中,因此返回的是缺失值
经过上面的代码演示,对于缺失值已经有了一个简单的了解,接下来就来看看如何判断缺失值url
一、 obj1.isnull() # 是缺失值返回Ture 运行结果: rocky True cloud False sean False yang False dtype: bool 二、 obj1.notnull() # 不是缺失值返回Ture 运行结果: rocky False cloud True sean True yang True dtype: bool 三、过滤缺失值 # 布尔型索引 obj1[obj1.notnull()] 运行结果: cloud 21.0 yang 19.0 sean 18.0 dtype: float64
import numpy as np import pandas as pd
arr = np.arange(10) sr = pd.Series(arr) # ndarray建立Series
srx = sr * 2 # 与标量(数字)进行运算
sr * srx # 两个Series运算
sr[sr>3] # 布尔值过滤
# 统计函数 sr.mean() sr.sum() sr.cumsum()
dic = {"A":1,"B":2,"C":3,"D":4,"E":5} # 字典建立Series dic_arr = pd.Series(dic)
"A" in dic_arr ------------------------------ for i in dic_arr: print(i)
dic_arr[['A','B']] # 键索引
dic_arr['A':'C'] # 键切片
dic_arr.get("A",default=0)
pandas当中的整数索引对象可能会让初次接触它的人很懵逼,接下来经过代码演示:
sr = pd.Series(np.arange(10)) sr1 = sr[3:].copy() sr1 运行结果: 3 3 4 4 5 5 6 6 7 7 8 8 9 9 dtype: int32 # 到这里会发现很正常,一点问题都没有,但是当使用整数索引取值的时候就会出现问题了。由于在pandas当中使用整数索引取值是优先以标签解释的,而不是下标 sr1[1]
解决方法:
sr1.iloc[1] # 如下标解释 sr1.loc[3] # 以标签解释
pandas在运算时,会按索引进行对齐而后计算。若是存在不一样的索引,则结果的索引是两个操做数索引的并集。
sr1 = pd.Series([12,23,34], index=['c','a','d']) sr2 = pd.Series([11,20,10], index=['d','c','a',]) sr1 + sr2 运行结果: a 33 c 32 d 45 dtype: int64 # 能够经过这种索引对齐直接将两个Series对象进行运算 sr3 = pd.Series([11,20,10,14], index=['d','c','a','b']) sr1 + sr3 运行结果: a 33.0 b NaN c 32.0 d 45.0 dtype: float64 # sr1 和 sr3的索引不一致,因此最终的运行会发现b索引对应的值没法运算,就返回了NaN,一个缺失值
将两个Series对象相加时将缺失值设为0:
sr1 = pd.Series([12,23,34], index=['c','a','d']) sr3 = pd.Series([11,20,10,14], index=['d','c','a','b']) sr1.add(sr3,fill_value=0) 运行结果: a 33.0 b 14.0 c 32.0 d 45.0 dtype: float64 # 将缺失值设为0,因此最后算出来b索引对应的结果为14
灵活的算术方法:add,sub,div,mul
到这里可能就会说了pandas就这么简单吗,那咱们接下来一块儿看看这个二维数组DataFraeme
DataFrame是一个表格型的数据结构,至关因而一个二维数组,含有一组有序的列。他能够被看作是由Series组成的字典,而且共用一个索引。接下来就一块儿来见识见识DataFrame数组的厉害吧!!!
建立一个DataFrame数组能够有多种方式,其中最为经常使用的方式就是利用包含等长度列表或Numpy数组的字典来造成DataFrame:
第一种: pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]}) # 产生的DataFrame会自动为Series分配所索引,而且列会按照排序的顺序排列 运行结果: one two 0 1 4 1 2 3 2 3 2 3 4 1 > 指定列 能够经过columns参数指定顺序排列 data = pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]}) pd.DataFrame(data,columns=['one','two']) # 打印结果会按照columns参数指定顺序 第二种: pd.DataFrame({'one':pd.Series([1,2,3],index=['a','b','c']),'two':pd.Series([1,2,3],index=['b','a','c'])}) 运行结果: one two a 1 2 b 2 1 c 3 3
以上建立方法简单了解就能够,由于在实际应用当中更可能是读数据,不须要本身手动建立
经常使用属性和方法:
one two a 1 2 b 2 1 c 3 3 # 这样一个数组df --------------------------------------------------------------------------- df.index > Index(['a', 'b', 'c'], dtype='object') --------------------------------------------------------------------------- df.columns > Index(['one', 'two'], dtype='object') -------------------------------------------------------------------------- df.T > a b c one 1 2 3 two 2 1 3 ------------------------------------------------------------------------- df.values > array([[1, 2], [2, 1], [3, 3]], dtype=int64) ------------------------------------------------------------------------ df.describe() > one two count 3.0 3.0 # 数据统计 mean 2.0 2.0 # 平均值 std 1.0 1.0 # 标准差 min 1.0 1.0 # 最小值 25% 1.5 1.5 # 四分之一均值 50% 2.0 2.0 # 二分之一均值 75% 2.5 2.5 # 四分之三均值 max 3.0 3.0 # 最大值
DataFrame使用索引切片:
import tushare as ts data = ts.get_k_data("000001") data['open'][:10] # 先取列再取行 data[:10]['open'] # 先取行再取列
data.loc[:10,"open":"low"] # 用标签取值 data.iloc[:10,1:5] # 用下标取值
处理时间对象多是咱们在进行数据分析的过程中最多见的,咱们会遇到各类格式的时间序列,也须要处理各类格式的时间序列,可是必定不能对这些数据懵逼,咱们须要找到最合适的招式来处理这些时间。接下来就一块儿来看吧!!!
import datetime # datetime.date() # date对象 today = datetime.date.today() # 获取当天日期,返回date对象 t1 = datetime.date(2019,4,18) # 设置时间格式为datetime.date # datetime.datetime() # datetime对象 now = datetime.datetime.now() # 获取当天日期,返回datetime对象 t2 = datetime.datetime(2019,4,18) # 设置时间格式为datetime.datetime # datetime.timedelta() # 时间差 today = datetime.datetime.today() yestoday = today - datetime.timedelta(1) # 以时间作运算 print(today,yestoday)
# 将时间格式转换为字符串 today.strftime("%Y-%m-%d") yestoday.strftime("%Y-%m-%d")
# 将日期字符串转成datetime时间格式,第二个参数由时间格式决定 datetime.datetime.strptime('2019-04-18','%Y-%m-%d')
import dateutil # 将字符串格式的日期转换为datetime对象 date = '2019 Jan 2nd' t3 = dateutil.parser.parse(date)
将字符串转换为为时间对象
from datetime import datetime import pandas as pd date1 = datetime(2019, 4, 18, 12, 24, 30) date2 = '2019-04-18' t4 = pd.to_datetime(date1) t5 = pd.to_datetime(date2) t6 = pd.to_datetime([date1,date2]) t4,t5,t6 # 转换单个时间数据是返回Timestamp对象,转换多个时间数据返回DatetimeIndex对象 > """ (Timestamp('2019-04-18 12:24:30'), Timestamp('2019-04-18 00:00:00'), DatetimeIndex(['2019-04-18 12:24:30', '2019-04-18 00:00:00'], dtype='datetime64[ns]', freq=None)) """
将索引设置为时间序列
ind = pd.to_datetime(['2018-03-01','2019 Feb 3','08/12-/019']) sr = pd.Series([1,2,3],index=ind) # 补充: """ pd.to_datetime(['2018-03-01','2019 Feb 3','08/12-/019']).to_pydatetime() > array([datetime.datetime(2018, 3, 1, 0, 0), datetime.datetime(2019, 2, 3, 0, 0), datetime.datetime(2019, 8, 12, 0, 0)], dtype=object) # 经过to_pydatetime()方法将其转换为ndarray数组 """
pd.date_range("2019-1-1","2019-2-2",freq="D") > DatetimeIndex(['2019-01-01', '2019-01-02', '2019-01-03', '2019-01-04', '2019-01-05', '2019-01-06', '2019-01-07', '2019-01-08', '2019-01-09', '2019-01-10', '2019-01-11', '2019-01-12', '2019-01-13', '2019-01-14', '2019-01-15', '2019-01-16', '2019-01-17', '2019-01-18', '2019-01-19', '2019-01-20', '2019-01-21', '2019-01-22', '2019-01-23', '2019-01-24', '2019-01-25', '2019-01-26', '2019-01-27', '2019-01-28', '2019-01-29', '2019-01-30', '2019-01-31', '2019-02-01', '2019-02-02'], dtype='datetime64[ns]', freq='D')
时间序列就是以时间对象为索引的Series或DataFrame。datetime对象做为索引时是存储在DatetimeIndex对象中的。
# 转换时间索引 dt = pd.date_range("2019-01-01","2019-02-02") # 生成一个带有时间数据的DataFrame数组 a = pd.DataFrame({"num":pd.Series(random.randint(-100,100) for _ in range(30)),"date":dt}) # 经过index修改索引 a.index = pd.to_datetime(a["date"])
特殊功能:
a.resample("3D").mean() # 计算每三天的均值 a.resample("3D").sum() # 计算每三天的和 ...
时间序列的处理在数据分析当中很是重要,可是有时候时间的格式不一致又会让人很是烦躁,只要把以上秘籍都学会就能够把时间序列制得服服帖帖。
在数据分析当中,咱们有时须要将数据拆分,而后在每个特定的组里进行运算,这些操做一般也是数据分析工做中的重要环节。
分组聚合相对来讲也是一个稍微难理解的点,须要各位有必定的功力来学习.
pandas对象(不管Series、DataFrame仍是其余的什么)当中的数据会根据提供的一个或者多个键被拆分为多组,拆分操做实在对象的特定轴上执行的。就好比DataFrame能够在他的行上或者列上进行分组,而后将一个函数应用到各个分组上并产生一个新的值。最后将全部的执行结果合并到最终的结果对象中。
分组键能够是多种样式,而且键不必定是彻底相同的类型:
后三种只是快捷方式,最终仍然是为了产生一组用于拆分对象的值。
首先,经过一个很简单的DataFrame数组尝试一下:
df = pd.DataFrame({'key1':['x','x','y','y','x', 'key2':['one','two','one',',two','one'], 'data1':np.random.randn(5), 'data2':np.random.randn(5)}) df > key1 key2 data1 data2 0 x one 0.951762 1.632336 1 x two -0.369843 0.602261 2 y one 1.512005 1.331759 3 y two 1.383214 1.025692 4 x one -0.475737 -1.182826
访问data1,并根据key1调用groupby:
f1 = df['data1'].groupby(df['key1']) f1 > <pandas.core.groupby.groupby.SeriesGroupBy object at 0x00000275906596D8>
上述运行是没有进行任何计算的,可是咱们想要的中间数据已经拿到了,接下来,就能够调用groupby进行任何计算
f1.mean() # 调用mean函数求出平均值 > key1 x 0.106183 y 2.895220 Name: data1, dtype: float64
以上数据通过分组键(一个Series数组)进行了聚合,产生了一个新的Series,索引就是key1
列中的惟一值。这些索引的名称就为key1
。接下来就尝试一次将多个数组的列表传进来
f2 = df['data1'].groupby([df['key1'],df['key2']]) f2.mean() > key1 key2 x one 0.083878 two 0.872437 y one -0.665888 two -0.144310 Name: data1, dtype: float64
传入多个数据以后会发现,获得的数据具备一个层次化的索引,key1对应的x\y;key2对应的one\two.
f2.mean().unstack() # 经过unstack方法就可让索引不堆叠在一块儿了 > key2 one two key1 x 0.083878 0.872437 y -0.665888 -0.144310
补充:
# 以上面的f2测试 f2.size() > key1 key2 x one 2 two 1 y one 1 two 1 Name: data1, dtype: int64
到这跟着我上面的步骤一步一步的分析,会发现仍是很简单的,可是必定不能干看,还要本身下手练,只有多练才能融汇贯通!!!
聚合是指任何可以从数组产生标量值的数据转换过程。刚才上面的操做会发现使用GroupBy并不会直接获得一个显性的结果,而是一个中间数据,能够经过执行相似mean、count、min等计算得出结果,常见的还有一些:
函数名 | 描述 |
---|---|
sum | 非NA值的和 |
median | 非NA值的算术中位数 |
std、var | 无偏(分母为n-1)标准差和方差 |
prod | 非NA值的积 |
first、last | 第一个和最后一个非NA值 |
自定义聚合函数
不只可使用这些经常使用的聚合运算,还能够本身自定义。
# 使用自定义的聚合函数,须要将其传入aggregate或者agg方法当中 def peak_to_peak(arr): return arr.max() - arr.min() f1.aggregate(peak_to_peak) 运行结果: key1 x 3.378482 y 1.951752 Name: data1, dtype: float64
多函数聚合:
f1.agg(['mean','std']) 运行结果: mean std key1 x -0.856065 0.554386 y -0.412916 0.214939
最终获得的列就会以相应的函数命名生成一个DataFrame数组
以上咱们是能够经过agg或者是aggregate来实现多函数聚合以及自定义聚合函数,可是必定要注意agg方法只能进行聚合操做,进行其余例如:排序,这些方法是会报错的。agg返回的是数据的标量,因此有些时候并不适合使用agg,这就要看咱们接下来的操做了。
GroupBy当中自由度最高的方法就是apply,它会将待处理的对象拆分为多个片断,而后各个片断分别调用传入的函数,最后将它们组合到一块儿。
df.apply(
['func', 'axis=0', 'broadcast=None', 'raw=False', 'reduce=None', 'result_type=None', 'args=()', '**kwds']
func:传入一个自定义函数
axis:函数传入参数当axis=1就会把一行数据做为Series的数据
# 分析欧洲杯和欧洲冠军联赛决赛名单 import pandas as pd url="https://en.wikipedia.org/wiki/List_of_European_Cup_and_UEFA_Champions_League_finals" eu_champions=pd.read_html(url) # 获取数据 a1 = eu_champions[2] # 取出决赛名单 a1.columns = a1.loc[0] # 使用第一行的数据替换默认的横向索引 a1.drop(0,inplace=True) # 将第一行的数据删除 a1.drop('#',axis=1,inplace=True) # 将以#为列名的那一列删除 a1.columns=['Season', 'Nation', 'Winners', 'Score', 'Runners_up', 'Runners_up_Nation', 'Venue','Attendance'] # 设置列名 a1.tail() # 查看后五行数据 a1.drop([64,65],inplace=True) # 删除其中的缺失行以及无用行 a1
运行结果:
如今想根据分组选出Attendance
列中值最高的三个。
# 先自定义一个函数 def top(df,n=3,column='Attendance'): return df.sort_values(by=column)[-n:] top(a1,n=3)
运行结果:
接下来,就对a1分组而且使用apply调用该函数:
a1.groupby('Nation').apply(top)
运行以后会发现,咱们经过这个操做将每一个国家各个年份时段出席的人数的前三名进行了一个提取。
以上top函数是在DataFrame的各个片断上调用,而后结果又经过pandas.concat组装到一块儿,而且以分组名称进行了标记。
以上只是基本用法,apply的强大之处就在于传入函数能作什么都由本身说了算,它只是返回一个pandas对象或者标量值就行
pandas经常使用方法(适用Series和DataFrame)