利用sparkcore进行ETL并输出为orc,parquet文件

前置条件:开启hivemetastore服务。能与hive进行交互 [[email protected] data]$ spark-shell --driver-class-path /home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/mysql-connector-java.jar scala> import org.apache.spark.sql.hive.o
相关文章
相关标签/搜索