Spark设置任务个数

今天使用spark读取hive的数据,而后保存到es,数据总共有,数据量1g左右,代码以下所示node package datasource import org.apache.spark.{SparkConf, SparkContext} import org.elasticsearch.spark.sql.EsSparkSQL object Data2ES { def main(args:
相关文章
相关标签/搜索