Spark default 分区为空时无法查询的问题解决

在创建了spark动态分区表时,如果插入数据时,分区值为null或者’‘, spark会将分区值设置成默认值: __HIVE_DEFAULT_PARTITION__ 这里,spark2.3在处理的时候,会忽略分区值为null的数据,因此会存在如下select语句查询不到结果的情况: select * from t where p =’__HIVE_DEFAULT_PARTITION__‘ 该问题出
相关文章
相关标签/搜索