spark sql集成hive步骤

SPARK ON HIVE:让spark sql通过sql的方式去读取hive当中的数据 HIVE ON SPARK:让hive的计算引擎由MapReduce改为SPARK 1、  先按官网的参考代码,构建 val conf = new SparkConf().setMaster("local[*]").setAppName("hotCount") val sc = new SparkContex
相关文章
相关标签/搜索