Spark运行在Standalone模式下产生的临时目录的问题

Spark 的Job任务在运行过程当中产生大量的临时目录位置,致使某个分区磁盘写满,主要缘由spark运行产生临时目录的默认路径/tmp/spark* 项目中使用的版本状况 Hadoop: 2.7.1 Spark:1.6.0 JDK:1.8.0 一、项目运维需求 线上的Spark的集群相关/tmp/spark-* 日志会把 /分区磁盘写满,建议优化应用程序或更改日志路径到/home/ 子目录下 二
相关文章
相关标签/搜索