pyspark中的dataframe的观察操做

来自于:http://www.bubuko.com/infodetail-2802814.html

一、读取:

  • sparkDF = spark.read.csv(path)
  • sparkDF = spark.read.text(path)

二、打印:

sparkDF.show()【这是pandas中没有的】:打印内容html

sparkDF.head():打印前面的内容函数

sparkDF.describe():统计信息spa

sparkDF.printSchema():打印schema,列的属性信息打印出来【这是pandas中没有的】htm

sparkDF.columns:将列名打印出来图片

三、选择列

【select函数,原pandas中没有】get

sparkDF.select(‘列名1‘,‘列名2‘).show():选择dataframe的两列数据显示出来pandas

sparkDF.select ( sparkDF[‘列名1‘]+1 , ‘列名2‘ ).show():直接对列1进行操做(值+1)打印出来spark

技术分享图片

 

四、筛选列:

filter【相似pandas中dataframe的采用列名来筛选功能】select

sparkDF.filter ( sparkDF[‘value‘] == 100 ).show():将value这一列值为100的行筛选出来csv

技术分享图片

 

 五、计算不重复值以及统计dataframe的行数

 distinct()函数:将重复值去除

sparkDF.count():统计dataframe中有多少行

技术分享图片

将评分为100的电影数量统计出来:

技术分享图片

相关文章
相关标签/搜索