IDEA远程提交运行HDFS的Spark程序--优化篇1

以前说到,我能够直接让spark程序去引用HDFS上的jar包路径,解决由于上传依赖jar包致使的时间过长的问题。web 上次还有一个遗留问题,我必需要在hadoop-yarn-common-2.6.4.jar包下的 yarn-default.xml中修改hostname的值才能够正常提交,这显然不符合正常使用的要求,我配置了那么多信息,难道必须在各个jar包从新设置吗?ide 我从新观察了如下正
相关文章
相关标签/搜索