级联,映射

一 . 级联

  咱们上次说过一个级联,numpy.concatenate, 接下来说的级联和这个相似,只是多了一些参数而已!

  正常操做,先倒包,后面就不在导包了

import numpy import pandas from pandas import Series,DataFrame

  1. 使用pandas.concat()级联

与numpy.concatenate函数相似只是多了一些参数: -- objs -- axis() -- keys -- join='outer'/ 'inter': 表示级联方式,outer会将全部的项进行级联(忽略是否匹配),inner只会将匹配的级联 -- ignore_index=False

  匹配级联

df1 = DataFrame(data=numpy.random.randint(0,100,size=(3,3)),index=['a','b','c'],columns=['A','B','C']) df2 = DataFrame(data=numpy.random.randint(0,100,size=(3,3)),index=['a','e','c'],columns=['A','E','C']) pandas.concat((df1,df1),axis=0,join='outer') pandas.concat((df1,df2),axis=0,join='inner')

  pandas.merge() 合并

1.merge和concat区别在于,merge须要依据某一共同的列来进行合并 2.使用pandas.merge()合并时,会自动根据二者相同column名称的列,做为key进行合并 3.注意每一列元素顺序能够不一致 参数: - how: out取并集,inner取交集 - on: 当有多列相同的时候,能够用on指定哪一列进行合并.on的值为一个列名

  合并实操

一对一合并(多对一和多对多同理) df1 = DataFrame({ 'employee':['Lias','Bob','Jack'], 'hire_date':[2000,2004,2008] }) df2 = DataFrame({ 'employee':['Bob','Jack','Lias'], 'group':['Account','Engineer','Engineer'] }) pandas.merge(df1,df2,how='outer')    # 合并,取并集,默认employee做为key

 

  

 

  

   df.sort.index() # 按索引排序数组

   df.sort.values() # 对元素排序app

  !!!  若是两个表的 列名 不一样,可是数据相同,能够用这两个列合并,left_on='列名',right='列名'

二 . 映射

   1. replace

Series替换操做
    单值替换
    普通替换
    字典替换(推荐)
    多值替换
    列表替换
    字典替换(推荐)
参数
    to_replace:被替换的元素

  单值普通替换

s = Series(data=[3,4,5,6,8,10,9]) s.replace(to_replace=6,value='six')

  多值替换

s.replace(to_replace=[3,4],value=['',''])

  DataFrame中替换操做

单值替换 普通替换:替换全部符合要求的元素:to_replace=666,value='六六六' 按列指定单值替换:to_replace={列标签:须要被替换值} value='要换成的值' 多值替换 列表替换:to_replace=[] value=[] 字典替换(推荐): to_replace={to_replace:value}

  下图就是df

 

  实操

df.replace(to_replace=666,value='六六六') df.replace(to_replace={30:'参拾'})

  map()函数:新建一列, map函数不是DataFrame的方法,而是Series的方法

map()能够映射新一列数据
map()中可使lambda表达式
map()可使用方法,能够是自定义方法

eg:map({to_replace:value}) 注意 map中不能使用sum之类的函数

  实操

dic = { 'name':['jay','tom','jay'], 'salary':[12000,800,12000] } df = DataFrame(data=dic)

  

  新增一列,给df中,添加一列,该列的值为英文名对应的中文名

# 映射关系表
dic ={ 'jay':'周杰伦', 'tom':'汤姆' } df['c_name']= df['name'].map(dic)   # map是Series的方法,因此要先取到Series对象

  

  map当作一种运算工具,至于执行何种运算,是有map函数决定的,(参数:lambda,函数)

def after_salary(s): if s<=3000: return s return s - (s-3000)*0.5

# 超过3000部分的钱缴纳50%的税
df['after_salary'] = df['salary'].map(after_salary)     # 这个salary就是after_salary函数中的参数s

  

  使用聚合操做对数据异常值检测和过滤

使用df.std()函数能够求的DataFrame对象每一列的标准差 建立一个1000行3列的df范围(0-1),求每一列的标准差

  简单的一个小例子

df = DataFrame(data=numpy.random.random(size=(1000,3)),columns=['A','B','C']) 对df进行删选,去除标准差太大的数据,过滤条件为C列的数据大于两倍的C列标准差 double_std = df['C'].std()*2   # C列的标准差的2倍
~(df['C'] > double_std) df.loc[~(df['C'] > double_std)]  # 清洗过的数据

  排序

使用 .take()函数排序 - take()函数接收一个索引列表,用数字表示,使得df根据列表中索引的顺序进行排序 - eg:df.take([1,3,5,2,4])

  小案例

# df = DataFrame(data=numpy.random.random(size=(1000,3)),columns=['A','B','C'])
df.take([2,1,0],axis=1)  # take的axis和drop是同样的, 1表明列 用隐式索引
 df.take(numpy.random.permutation(3),axis=1)    #也会生成3列

  数据分类处理(重点)

数据聚合是数据处理的最后一步,一般是要使每个数组生成一个单一的值 数据分类处理: - 分组:先把数据分为几组 - 用函数处理:为不一样组的数据应用不一样函数以转换数据 - 合并:把不一样组获得的结果合并起来 数据分类处理的核心: - groupby()函数 - groups属性:查看分组状况 - eg: df.groupby(by='item').groups

  分组

from pandas import DataFrame,Series df = DataFrame({ 'item':['Apple','Banana','Orange','Banana','Orange','Apple'], 'price':[4,3,3,2,5,4], 'color':['red','yellow','yellow','green','green','green'], 'weight':[12,20,50,30,20,44] })

  

  小案例

df.groupby(by='item',axis=0).groups # 给df建立一个新列,内容为各个水果的平均价格
mean_price = df.groupby(by='item',axis=0)['price'].mean() dic = mean_price.to_dict()   #变成字典格式
df['mean_price'] = df['item'].map(dic)

  

  高级数据聚合

使用groupby分组后,也可使用transform和apply提供自定义函数实现更多的运算 df.groupby('item')['price'].sum() <==> df.groupby('item')['price'].apply(sum) transform和apply都会进行运算,在transform或者apply中传入函数便可 transform和apply能够传入lambda表达式

  自定义方法

def func(s): sum = 0 for i in s: sum += i return sum/s.size # 使用apply函数求出水果的平均价格
df.groupby(by='item')['price'].apply(func)   # 返回的是没有映射的数据,func怎么定义根据调用它的数据类型决定
 df.groupby(by='item')['price'].transform(func)    # 返回的是映射过的数据

  !!! apply 还能够代替运算工具形式的map

  ### 补充一下dom

df['color'].value_counts() # 计数

  

相关文章
相关标签/搜索