1. Series一维,带标签数组 2. DataFrame二维,Series容器
In [15]: a = {string.ascii_uppercase[i]:i for i in range(10)} # 字典推导式建立一个字典a In [16]: a Out[16]: {'A': 0, 'B': 1, 'C': 2, 'D': 3, 'E': 4, 'F': 5, 'G': 6, 'H': 7, 'I': 8, 'J': 9} In [17]: pd.Series(a) # 经过字典建立一个Series,注意其中的索引就是字典的键 Out[17]: A 0 B 1 C 2 D 3 E 4 F 5 G 6 H 7 I 8 J 9 dtype: int64 In [18]: pd.Series(a, index=list(string.ascii_uppercase[5:15])) # 从新给其指定其余索引以后,若是可以对应上,就取其值,若是不能就Nan Out[18]: F 5.0 G 6.0 H 7.0 I 8.0 J 9.0 K NaN L NaN M NaN N NaN O NaN dtype: float64 # pandas会自动根据数据类型更改series的dtype类型
咱们的这组数据存在csv中,咱们直接使用pd.read_csv便可mysql
和咱们想象的有些差异,咱们觉得他会是一个Series类型,可是他是一个DataFrame。sql
对于数据库好比mysql或者mongodb中的数据咱们如何使用呢?
pd.read_sql(sql_sentence, connection)mongodb
In [4]: t = pd.DataFrame(np.arange(12).reshape((3, 4))) In [5]: t Out[5]: 0 1 2 3 0 0 1 2 3 1 4 5 6 7 2 8 9 10 11
DataFrame对象既有行索引,又有列索引
行索引,代表不一样行,横向索引,叫index,0轴,axis=0
列索引,表名不一样列,纵向索引,叫columns,1轴,axis=1数据库
和一个ndarray同样,咱们经过shape,ndim,dtype了解这个ndarray的基本信息,那么对于DataFrame咱们有什么方法了解呢数组
DataFrame基础属性dom
df.shape # 行数 列数 df.dtypes # 列数据类型 df.nidm # 数据维度 df.index # 行索引 df.columns # 列索引 df.values # 对象值,二维ndarry数组
DataFrame总体状况查询函数
df.head(3) # 显示头部几行,默认5行 df.tail(3) # 显示末尾几行,默认5行 df.info() # 相关信息概览:行数,列数,列索引,列非空值个数,列类型,内存占用 df.describe() # 快速综合统计结果:计数,均值,标准差,最大值,四分位数,最小值 df.sort_values(by="Count_AnimalName", ascending=False) # 按照“Count_AnimalName”列降序排列
In [28]: df Out[28]: W X Y Z A 0 1 2 3 B 4 5 6 7 C 8 9 10 11 In [29]: df.loc["A", "W"] Out[29]: 0 In [30]: df.loc["A", ["W", "Z"]] Out[30]: W 0 Z 3 Name: A, dtype: int32 In [31]: type(df.loc["A", ["W", "Z"]]) Out[31]: pandas.core.series.Series # 选择间隔的多行 In [32]: df.loc[["A", "C"], ["W", "Z"]] Out[32]: W Z A 0 3 C 8 11 In [33]: df.loc["A":, ["W", "Z"]] Out[33]: W Z A 0 3 B 4 7 C 8 11 # 冒号在loc里面是闭合的,即会选择到冒号后面的数据 In [34]: df.loc["A":"C", ["W", "Z"]] Out[34]: W Z A 0 3 B 4 7 C 8 11
对于NaN的数据,在numpy中咱们是如何处理的?
在pandas中咱们处理起来很是容易优化
判断数据是否为NaN:pd.isnull(df), pd.notnull(df)code
处理方式1:删除NaN所在的行列dripna(axis=0, how='any', inplace=False)
处理方式2:填充数据,t.fillna(t.mean()), t.fillna(t.median()), t.fillna(0)orm
处理为0的数据:t[t==0]=np.nan
固然并非每次为0的数据都须要处理
计算平均值等状况,nan是不参加计算的,可是0会
# 评分的平均分 rating_mean = df["Rating"].mean() # 导演的人数 temp_list = df["Actors"].str.split(",").tolist() nums = set([i for j in temp_list for i in j]) # 电影时长的最大值 max_runtime = df["Runtime (Minutes)"].max() max_runtime_index = df["Runtime (Minutes)"].argmax() min_runtime = df["Runtime (Minutes)"].argmin() runtime_median = df["Runtime (Minutes)"].median()
In [6]: t1 Out[6]: M N X Y A 0.0 0.0 0.0 0.0 B 0.0 0.0 0.0 0.0 In [7]: t2 Out[7]: 1 2 3 A 1.0 1.0 1.0 B 1.0 1.0 1.0 C 1.0 1.0 1.0 In [8]: t2.join(t1) Out[8]: 1 2 3 M N X Y A 1.0 1.0 1.0 0.0 0.0 0.0 0.0 B 1.0 1.0 1.0 0.0 0.0 0.0 0.0 C 1.0 1.0 1.0 NaN NaN NaN NaN In [9]: t1.join(t2) Out[9]: M N X Y 1 2 3 A 0.0 0.0 0.0 0.0 1.0 1.0 1.0 B 0.0 0.0 0.0 0.0 1.0 1.0 1.0
merge:按照指定的列把数据按照必定的方式合并到一块儿
In [75]: t1 Out[75]: M N O P A 1.0 1.0 a 1.0 B 1.0 1.0 b 1.0 C 1.0 1.0 c 1.0 In [76]: t2 Out[76]: V W X Y Z A 0.0 0.0 c 0.0 0.0 B 0.0 0.0 d 0.0 0.0 In [77]: t1.merge(t2, left_on="O", right_on="X") Out[77]: M N O P V W X Y Z 0 1.0 1.0 c 1.0 0.0 0.0 c 0.0 0.0 In [78]: t1.merge(t2, left_on="O", right_on="X", how="inner") Out[78]: M N O P V W X Y Z 0 1.0 1.0 c 1.0 0.0 0.0 c 0.0 0.0 In [79]: t1.merge(t2, left_on="O", right_on="X", how="outer") Out[79]: M N O P V W X Y Z 0 1.0 1.0 a 1.0 NaN NaN NaN NaN NaN 1 1.0 1.0 b 1.0 NaN NaN NaN NaN NaN 2 1.0 1.0 c 1.0 0.0 0.0 c 0.0 0.0 3 NaN NaN NaN NaN 0.0 0.0 d 0.0 0.0 In [80]: t1.merge(t2, left_on="O", right_on="X", how="left") Out[80]: M N O P V W X Y Z 0 1.0 1.0 a 1.0 NaN NaN NaN NaN NaN 1 1.0 1.0 b 1.0 NaN NaN NaN NaN NaN 2 1.0 1.0 c 1.0 0.0 0.0 c 0.0 0.0 In [81]: t1.merge(t2, left_on="O", right_on="X", how="right") Out[81]: M N O P V W X Y Z 0 1.0 1.0 c 1.0 0.0 0.0 c 0.0 0.0 1 NaN NaN NaN NaN 0.0 0.0 d 0.0 0.0
grouped = df.groupby(by="columns name")
grouped是一个DataFrameGroupBy对象,是可迭代的
grouped中的每个元素是一个元组
元组里面是(索引(分组的值),分组以后的DataFrame)
DataFrameGroupBy对象有不少通过优化的方法
函数名|说明
--|--
count|分组中非NA值的数量
sum|非NA值的和
mean|非NA值的平均值
median|非NA值的算术中位数
std、var|无偏(分母为n-1)标准差和方差
min、max|非NA的最小值和最大值
若是咱们须要对国家和省份进行分组统计,应该怎么操做呢?
grouped = df.groupby(by=[df["Country"], df["State/Province"]])
获取分组以后的某一部分数据:
df.groupby(by=["Country", "State/Province"])["Country"].count()
对某几列进行分组:
df["Country"].groupby(by=[df["Country"], df["State/Province"]]).count()
观察结果,因为只选择了一列数据,因此结果是一个Series类型若是想返回一个DataFrame类型:
df[["Country"]].groupby(by=[df["Country"], df["State/Province"]]).count()
简单的索引操做:
pd.date_range(start=None, end=None, periods=None, freq='D')
start和end以及freq配合可以生成start和end范围内以频率freq的一组时间索引
start和periods以及freq配合可以生成从start开始的频率为freq的periods个时间索引
In [23]: pd.date_range(start='20170101', end='20180101') Out[23]: DatetimeIndex(['2017-01-01', '2017-01-02', '2017-01-03', '2017-01-04', '2017-01-05', '2017-01-06', '2017-01-07', '2017-01-08', '2017-01-09', '2017-01-10', ... '2017-12-23', '2017-12-24', '2017-12-25', '2017-12-26', '2017-12-27', '2017-12-28', '2017-12-29', '2017-12-30', '2017-12-31', '2018-01-01'], dtype='datetime64[ns]', length=366, freq='D') In [24]: pd.date_range(start='20170101', end='20180101', freq='BM') Out[24]: DatetimeIndex(['2017-01-31', '2017-02-28', '2017-03-31', '2017-04-28', '2017-05-31', '2017-06-30', '2017-07-31', '2017-08-31', '2017-09-29', '2017-10-31', '2017-11-30', '2017-12-29'], dtype='datetime64[ns]', freq='BM') In [25]: pd.date_range(start='20170101', end='20180101', freq='WOM-3FRI') Out[25]: DatetimeIndex(['2017-01-20', '2017-02-17', '2017-03-17', '2017-04-21', '2017-05-19', '2017-06-16', '2017-07-21', '2017-08-18', '2017-09-15', '2017-10-20', '2017-11-17', '2017-12-15'], dtype='datetime64[ns]', freq='WOM-3FRI')
别名 | 偏移量类型 | 说明 |
---|---|---|
D | Day | 每日历日 |
B | BusinessDay | 每工做日 |
H | Hour | 每小时 |
T或min | Minute | 每分 |
S | Second | 每秒 |
L | ms | Milli |
U | Micro | 每微秒 |
M | MonthEnd | 每个月最后一个日历日 |
BM | BusinessMonthEnd | 每个月最后一个工做日 |
MS | MonthBegin | 每个月第一个日历日 |
BMS | BusinessMonthBegin | 每个月第一个工做日 |
df["timeStamp"] = pd.to_datetime(df["timeStamp"], format="")
format参数大部分状况下能够不用写,可是对于pandas没法格式化的时间字符串,咱们可使用该参数,好比包含中文
重采样:指的是将时间序列从一个频率转化为另外一个频率进行处理的过程,将高频率数据转化为低频率数据为降采样,低频率转化为高频率为升采样
pandas提供了一个resample的方法来帮助咱们实现频率转化
In [78]: t = pd.DataFrame(np.random.uniform(10, 50, (100, 1)), index=pd.date_range(start="20170101", periods=100)) In [80]: t.resample("M").mean() Out[80]: 0 2017-01-31 28.025613 2017-02-28 30.814253 2017-03-31 33.023321 2017-04-30 27.950424 In [81]: t.resample("QS-JAN").count() Out[81]: 0 2017-01-01 90 2017-04-01 10