Pandas 数据处理:空值清洗、替换填充、级联与合并拼接

      针对空值的处理,首先要来了解一下空值的类型:java

1、pandas中的None  和  NaN 有什么区别?

      type(None)     --类型是  NoneType 空的对象类型python

      type(NaN)      --类型是  float 浮点型算法

      注意:Pandas中None 和 NaN 都视做np.nan 数组

2、Pandas 的空值操做

isnull()   判断null ,返回True/False 的数组
notnull()    空值判断
dropna()     过滤空值数据
fillna()    填充丢失数据

  一、使用pandas过滤空值:

 df.isnull().any(axis = 1)
# 解析: any中轴向:axis = 0  表示列   axis = 1  表示行
# 新函数:  all(axis = 0)   全部数据
           any(axis = 0)   任何一个

# df.isnull()表示返回一组True/False 的数组,any(axis = 1)表示横向判断行,一行中任意一个为true就这行就返回 True, 最后返回一维数组
#  最终返回结果以下:
1    False
2    True
3    False
4    False
5    True

#  扩展: df.isnull().all(axis = 1) 一行中任意一个为False就这行就返回 False, 最后返回一维数组

      notnull() 的使用方法和isnull()正好相反:app

 df.notnull().all(axis = 1)

# 一行中任意一个为False就这行就返回 False, 最后返回一维数组
#  最终返回结果以下:
1    True
2    False
3    True
4    True
5    False

# 总结:  固定搭配以下:
          isnull()  --> any()
          notnull()  -->all()

      最后过滤掉有空值的行函数

df.iloc[df.notnull().all(axis = 1)]

  二、df.dropna()  过滤空数据所在的行或列 (可直接过滤)

           df.dropna() 能够选择过滤的是行仍是列,默认是行,dropna中axis=0 表示行; axis=1 表示列测试

df.dropna(axis=0)  #等同于上面过滤方式,封装了上面操做

  三、fillna()  填充丢失/空值数据

            fillna中 axis=0 表示列;axis=1 表示行           编码

           可选择向前或向后填充:spa

  1.  method ='bfill'  向后覆盖(空值取前一个);
  2.  method ='ffill'  向前覆盖(空值取后一个);  
df.fillna(value =5555)   #填充df 中全部空值数据

df.fillna(method ='bfill',axis=0)   # 列里的空值取列里空值取前一个填充

   四、drop 删除数据      

         drop 中  axis=0 表示行,axis=1 表示列3d

         删除无用的列,列索引:'name','name1';inplace参数指是否替代原来的df

                   data.drop(labels=['name','name1'],axis = 1,inplace=True)     

          删除无用的行,行索引:'涨跌'

                   df.drop(['涨跌'], axis=0, inplace=True)   

    五、Pandas 删除空值行数据、替换空值案例代码: 

import pandas as pd
from pandas import Series,DataFram
import numpy as np

# 提取数据
data = pd.read_excel('./测试数据.excel')

# 删除无用的列,列索引:'name','name1'
data.drop(labels=['name','name1'],axis = 1,inplace=True)     

# 删除空数据所在的行
data.dropna(axis=0)    

# 覆盖
v_1 = data.fillna(method='ffill',axis=0) .fillna(method='bfill',axis=0) 

# 检测v_1中是否有空值
v_1.isnull().any(axis = 0)  #一般检测列里是否有空值,由于行数太多

3、pandas的级联操做

      定义:对DataFram 进行横向或纵向的拼接

                 使用pandas.concat()级联   

 一、匹配级联

            和numpy.concatenate同样,优先增长行数(默认axis=0 ),numpy.concatenate(axis=1)的时候是水平的级联,numpy中没有index,和columns,因此只要行列相等就能够级联,

            在pandas中,若是行 和 列不一致,可是shape相同,会级联成一个更大的df,不对应的值会填充NaN。

  •     注意: 

                   纵向级联 axis=0:按行拼接--->在行上增长,列索引不匹配填充NaN

                   横向级联 axis=1:按列拼接--->在列上增长,行索引不匹配填充NaN

        匹配级联拼接案例分析

import numpy as np
import pandas as pd
from pandas import Series,DataFrame
def make_df(cols,index): 
    data = {col:[str(col)+str(ind) for ind in index] for col in cols} 
    df = DataFrame(data = data,columns = cols ,index = index )
    return df

df1 = make_df(['a','b','c'],[1,2,3])
# 输出
    a   b   c
1 a1 b1 c1
2 a2 b2 c2
3 a3 b3 c3

df2 = make_df(['a','b','c'],[4,5,6])
# 输出
    a   b   c
4 a4 b4 c4
5 a5 b5 c5
6 a6 b6 c6

pd.concat([df1,df2],axis=1)
结果以下:
    a     b   c     a    b    c
1  a1    b1   c1   NaN  NaN  NaN
2  a2    b2   c2   NaN  NaN  NaN
3  a3    b3   c3   NaN  NaN  NaN
4  NaN  NaN  NaN   a4   b4   c4
5  NaN  NaN  NaN   a5   b5   c5
6  NaN  NaN  NaN   a6   b6   c6         

pd.concat([df1,df2],axis=0)
结果以下:
  a   b   c
1 a1 b1 c1
2 a2 b2 c2
3 a3 b3 c3
4 a4 b4 c4
5 a5 b5 c5
6 a6 b6 c6

  二、不匹配级联

        纵向级联( axis=0 -->在行上增长)时列索引不一致,

        横向级联( axis=1 -->在列上增长)时行索引不一致

      2.一、外链接:补NaN(默认)

df1 = make_df(['a','b','c'],[1,2,3])
# 输出
   a  b  c
1 a1 b1 c1
2 a2 b2 c2
3 a3 b3 c3

df5 = make_df(['c','d','e'],[3,4,5])
# 输出
   c  d  e
3 c3 d3 e3
4 c4 d4 e4
5 c5 d5 e5

df6 = pd.concat([df1,df5],axis=1)
# 输出
     a     b    c     c    d    e
1    a1    b1   c1   NaN  NaN  NaN
2    a2    b2   c2   NaN  NaN  NaN
3    a3    b3   c3   c3   d3   e3
4   NaN   NaN   NaN  c4   d4   e4
5   NaN   NaN   NaN  c5   d5   e5

df6 = pd.concat([df1,df5],axis=0)
# 输出
     a     b   c    d     e
1    a1   b1   c1   NaN  NaN
2    a2   b2   c2   NaN  NaN
3    a3   b3   c3   NaN  NaN
3   NaN  NaN   c3   d3    e3
4   NaN  NaN   c4   d4    e4
5   NaN  NaN   c5   d5    e5

  2.二、内链接(join='inner'):只链接匹配的项(行或者列)其余项(行或者列)忽略

        join_axes=[df1.columns] 的值是一个列表,表示指定以 df1.columns列索引 或 df1.index行索引为链接,只链接匹配的项(行或者列)

df6 = pd.concat([df1,df5],axis=1,join='inner')
# 输出
  a  b  c  c  d  e
3 a3 b3 c3 c3 d3 e3

df7 = pd.concat([df1,df5],join_axes=[df1.columns])
#join_axes 的值是一个列表[df1.index]
# 输出
    a  b  c
1  a1 b1  c1
2  a2 b2  c2
3  a3 b3  c3
3 NaN NaN c3
4 NaN NaN c4
5 NaN NaN c5

     2.三、使用append()函数添加 

      append专门用于在后面添加,append 和 concat 类似

      append是纵向拼接,( axis=0 -->在行上增长)

df1.append(df5)
# 同以下拼接方式
df6 = pd.concat([df1,df5],axis=0)
# 输出
  a   b   c   d   e
1 a1  b1  c1 NaN NaN
2 a2  b2  c2 NaN NaN
3 a3  b3  c3 NaN NaN
3 NaN NaN c3  d3  e3
4 NaN NaN c4  d4  e4
5 NaN NaN c5  d5  e5

4、Pandas的 合并拼接操做

       merge方法主要基于两个dataframe的共同列进行合并,

       join方法主要基于两个dataframe的索引进行合并,

       concat方法是对series或dataframe进行行拼接或列拼接。

  1. Merge方法

     pandas的merge方法是基于共同列,将两个dataframe链接起来。merge方法的主要参数:

  1. left/right:左/右位置的dataframe。
  2. how:数据合并的方式。left:基于左dataframe列的数据合并;right:基于右dataframe列的数据合并;outer:基于列的数据外合并(取并集);inner:基于列的数据内合并(取交集);默认为'inner'。
  3. on:用来合并的列名,这个参数须要保证两个dataframe有相同的列名。
  4. left_on/right_on:左/右dataframe合并的列名,也可为索引,数组和列表。
  5. left_index/right_index:是否以index做为数据合并的列名,True表示是。
  6. sort:根据dataframe合并的keys排序,默认是。
  7. suffixes:如有相同列且该列没有做为合并的列,可经过suffixes设置该列的后缀名,通常为元组和列表类型。

     merges经过设置how参数选择两个dataframe的链接方式,有内链接,外链接,左链接,右链接,下面经过例子介绍链接的含义。

   1.1 内链接

  how='inner',dataframe的连接方式为内链接,咱们能够理解基于共同列的交集进行链接,参数on设置链接的共有列名

# 单列的内链接
# 定义df1
import pandas as pd
import numpy as np

df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'feature1':[1,1,2,3,3,1],
            'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'pazham':['apple','orange','pine','pear'],
            'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])})
# print(df1)
# print(df2)
# 基于共同列alpha的内链接
df3 = pd.merge(df1,df2,how='inner',on='alpha')
df3

取共同列alpha值的交集进行链接。

  1.2 外链接

  how='outer',dataframe的连接方式为外链接,咱们能够理解基于共同列的并集进行链接,参数on设置链接的共有列名。

# 单列的外链接
# 定义df1
df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'feature1':[1,1,2,3,3,1],
                'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'pazham':['apple','orange','pine','pear'],
                        'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])})
# 基于共同列alpha的内链接
df4 = pd.merge(df1,df2,how='outer',on='alpha')
df4

     若两个dataframe间除了on设置的链接列外并没有相同列,则该列的值置为NaN。

 1.3 左链接

  how='left',dataframe的连接方式为左链接,咱们能够理解基于左边位置dataframe的列进行链接,参数on设置链接的共有列名。

# 单列的左链接
# 定义df1
df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'feature1':[1,1,2,3,3,1],
    'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'pazham':['apple','orange','pine','pear'],
                        'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])})
# 基于共同列alpha的左链接
df5 = pd.merge(df1,df2,how='left',on='alpha')
df5

     由于df2的链接列alpha有两个'A'值,因此左链接的df5有两个'A'值,若两个dataframe间除了on设置的链接列外并没有相同列,则该列的值置为NaN。

  1.4 右链接

  how='right',dataframe的连接方式为左链接,咱们能够理解基于右边位置dataframe的列进行链接,参数on设置链接的共有列名。 

# 单列的右链接
# 定义df1
df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'feature1':[1,1,2,3,3,1],
'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'pazham':['apple','orange','pine','pear'],
                        'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])})
# 基于共同列alpha的右链接
df6 = pd.merge(df1,df2,how='right',on='alpha')
df6

      由于df1的链接列alpha有两个'B'值,因此右链接的df6有两个'B'值。若两个dataframe间除了on设置的链接列外并没有相同列,则该列的值置为NaN。

 1.5 基于多列的链接算法 

  多列链接的算法与单列链接一致,本节只介绍基于多列的内链接和右链接,读者可本身编码并按照本文给出的图解方式去理解外链接和左链接。 

多列的内链接:

# 多列的内链接
# 定义df1
df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'beta':['a','a','b','c','c','e'],
                    'feature1':[1,1,2,3,3,1],'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'beta':['d','d','b','f'],'pazham':['apple','orange','pine','pear'],
                        'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])})
# 基于共同列alpha和beta的内链接
df7 = pd.merge(df1,df2,on=['alpha','beta'],how='inner')
df7

   多列的右链接:

# 多列的右链接
# 定义df1
df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'beta':['a','a','b','c','c','e'],
                    'feature1':[1,1,2,3,3,1],'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'beta':['d','d','b','f'],'pazham':['apple','orange','pine','pear'],
                        'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])})
print(df1)
print(df2)

# 基于共同列alpha和beta的右链接
df8 = pd.merge(df1,df2,on=['alpha','beta'],how='right')
df8

  1.6 基于index的链接方法

    前面介绍了基于column的链接方法,merge方法亦可基于index链接dataframe

# 基于column和index的右链接
# 定义df1
df1 = pd.DataFrame({'alpha':['A','B','B','C','D','E'],'beta':['a','a','b','c','c','e'],
                    'feature1':[1,1,2,3,3,1],'feature2':['low','medium','medium','high','low','high']})
# 定义df2
df2 = pd.DataFrame({'alpha':['A','A','B','F'],'pazham':['apple','orange','pine','pear'],
                        'kilo':['high','low','high','medium'],'price':np.array([5,6,5,7])},index=['d','d','b','f'])
print(df1)
print(df2)

# 基于df1的beta列和df2的index链接,left_on='beta' 表示左边这一列做为右边的索引
df9 = pd.merge(df1,df2,how='inner',left_on='beta',right_index=True)
df9

图解index和column的内链接方法:

 

 设置参数suffixes以修改除链接列外相同列的后缀名。

# 基于df1的alpha列和df2的index内链接
df9 = pd.merge(df1,df2,how='inner',left_on='beta',right_index=True,suffixes=('_df1','_df2'))
df9

 2. join方法

  join方法是基于index链接dataframe,merge方法是基于column链接,链接方法有内链接,外链接,左链接和右链接,与merge一致。 

       index与index的链接:

caller = pd.DataFrame({'key': ['K0', 'K1', 'K2', 'K3', 'K4', 'K5'], 'A': ['A0', 'A1', 'A2', 'A3', 'A4', 'A5']})
other = pd.DataFrame({'key': ['K0', 'K1', 'K2'],'B': ['B0', 'B1', 'B2']})
print(caller)print(other)
# lsuffix和rsuffix设置链接的后缀名 caller.join(other,lsuffix='_caller', rsuffix='_other',how='inner')

 join也能够基于列进行链接:

caller = pd.DataFrame({'key': ['K0', 'K1', 'K2', 'K3', 'K4', 'K5'], 'A': ['A0', 'A1', 'A2', 'A3', 'A4', 'A5']})
other = pd.DataFrame({'key': ['K0', 'K1', 'K2'],'B': ['B0', 'B1', 'B2']})
print(caller)
print(other)

# 基于key列进行链接
caller.set_index('key').join(other.set_index('key'),how='inner')

 所以,join和merge的链接方法相似,这里就不展开join方法了,建议用merge方法

相关文章
相关标签/搜索