spark2.2 sql 与 hive1.2.1出现的兼容性bug

    前几天作项目遇到的一个bug,给你们分享一下。sql 出现bug的句子:unix_timestamp(nvl(b.access_time,'2018-08-27 24:00:00'),'yyyy-MM-dd HH:mm:ss')spa 这个句子在hive下跑彻底没有问题,可是放到spark sql 里跑 就会出现数据性错误。unix 通过排查后发现是这个句子的问题。spark      将
相关文章
相关标签/搜索