yarn 问题整理

问题一: Spark Job执行了两次 由于job内部有一个逻辑,如果第一次失败,第二次重试已没有意义,那么就没有必要让它跑第二次,如下图所示: 首先调查为什么默认是尝试两次,结果如下: <property> <name>yarn.resourcemanager.am.max-attempts</name> <value>2</value> <source>yarn-def
相关文章
相关标签/搜索