Spark动态资源分配

0x0 介绍 再java中使用SparkSession来执行spark任务在代码编写上很方便,可是有个问题:SparkSession关闭后没法再次开启,这致使咱们会一致占用申请到的Spark集群资源(包括内存和CPU),为了优化这一问题,笔者采用两种方式: 1、 采用SparkSubmit来提交任务,从而达到每次执行完JOB就释放资源,可是有个弊端:没法自由监控JOB执行过程; 关于编程式提交sp
相关文章
相关标签/搜索