Spark SQL 读取hive分区表出现分区字段为null的状况

今天在使用Spark SQL 读取hive分区表数据的时候,出现了下面的错误:python 因为这个表是数仓维护提供给我使用的,我并非很清楚表中数据的状况,因而我取查了一下这个表,发现分区字段pk_year,pk_month,pk_day这几个字段确实都存在为默认的状况:大数据 在hive里面表能够建立成分区表,可是当分区字段的值是''" 或者 null时 hive会自动将分区命名为默认分区名称。
相关文章
相关标签/搜索