Spark源码解析之SparkSql

首先咱们回顾一下使用SparkSql的通常步骤: 1. 从数据源或者RDD读取数据,构造出一个DataFrame 2. 使用DataFrame的registerTempTable方法根据刚才读取的数据建立一个临时表 3. 调用sqlContext的sql方法执行sql语句java 那么在这里咱们就从sql语句的调用开始:web def sql(sqlText: String): DataFrame
相关文章
相关标签/搜索