二、建立DataFrame的方式

#1:DataFrame其实它是经过RDD的map方法读取每一条数据,而后把他存到“case class”中。最后经过这个RDD的toDF方法产生的。 #因为case class 中有属性字段,并且这些字段的类型都有了,是否是就是表结构??sql

#2:能够经过sqlContext.read.format("jdbc").options()建立DataFrame(详情笔记三)apache

#如何建立?代码以下json

package com.liufu.org.sql

import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, SQLContext}
import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by liufu on 2016/11/18.
  */
object DataFrameTest {
  def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setAppName("dataframTest").setMaster("local[2]")
    val sc: SparkContext = new SparkContext(conf)
    //建立SQLContext
    val sqlContext = new SQLContext(sc)

    //读取外部数据,而且切割成每一条信息,造成arr数组。
    val spilted: RDD[Array[String]] = sc.textFile("file:///E:/words.txt").map(_.split(" "))

    //这里的操做很容易出错,
    //当map中的逻辑很复杂的时候,通常不建议使用“_”来代替每个数据,
    // 而是使用“函数体”的形式来一步一步的操做实现。
    val personRDD: RDD[Person] = spilted.map(valueArr => Person(valueArr(0),valueArr(1).toInt))

    /**
      * 导入隐式转换,若是不到人没法将RDD转换成DataFrame
      * 将上述有RDD和case class产生的personSet变化成DataFrame。
      */
    import sqlContext.implicits._
    val dF: DataFrame = personRDD.toDF()

    //将DataFrame注册成表结构才可以使用SQL进行操做。
    dF.registerTempTable("person")

    //使用sqlContext执行sql语句进行查询操做。
    val selectDF: DataFrame = sqlContext.sql("select * from person")
    selectDF.show()

    sc.stop()
  }
}

//经过样例类来定义表结构。还能够经过structType产生一个shema的方式,可是太麻烦通常不怎么用
case class Person(name:String,age:Int)

#总结: 使用DataFrame的流程数组

  • 1:RDD的map方法中将信息写入到Person样例类中,这样数据就和表结构关联起来了。函数

    val personRDD: RDD[Person] = spilted.map(valueArr => Person(valueArr(0),valueArr(1).toInt))
  • 2:将RDD转化为DataFrame。注意:必定要引入sqlContext的隐式转换。spa

    /**
        * 导入隐式转换,若是不到人没法将RDD转换成DataFrame
        * 将上述有RDD和case class产生的personSet变化成DataFrame。
        */
      import sqlContext.implicits._
      val dF: DataFrame = personRDD.toDF()
  • 3:将DataFrame注册成表,由于只有注册成表以后才可以使用sql语句来查询code

    dF.registerTempTable("person")
  • 4:利用sqlContext对象来执行SQL语句来对表进行操做。orm

    val selectDF: DataFrame = sqlContext.sql("select * from person")
      //展现。 
      selectDF.show()
  • 5://将结果以JSON的方式存储到指定位置对象

    df.write.json("file:///E:/output1")
相关文章
相关标签/搜索