spark 中删除HDFS文件

在写spark代码的时候,常常会遇到文件夹路径存在的状况,通常有如下的解决方式html 1.在shell脚本中 直接调用hadoop fs -rm pathjava 2.经过设置可直接覆盖文件路径,此方法我没有测试shell [html]  view plain  copy yourSparkConf.set("spark.hadoop.validateOutputSpecs", "false")
相关文章
相关标签/搜索