spark sql 支持多级目录

当表的分区有子目录时,spark sql默认是不支持的,能够用如下设置:sql 在hive cli里直接set mapreduce.input.fileinputformat.input.dir.recursive=true;就能够正常使用spark sql引擎 在代码层面能够尝试 .set("spark.hive.mapred.supports.subdirectories","true") .
相关文章
相关标签/搜索