在使用spark-streaming的时候,调用了spark-sql,会执行hive语句,这个时候在hive的目录下回产生不少.staging_hive文件,并且是操做哪一个表,就在哪一个表中产生。hive也会产生.staging_hive,可是hive产生后会被移除,而spark-sql不会移除,因此咱们须要手动处理这种状况。sql
<property> <name>hive.exec.stagingdir</name> <value>/tmp/staging/.hive-staging</value> </property>
参考:
hive任务中MoveTask的策略
hive insert overwrite1.2.1 没法删除旧文件的问题shell