sparkstreaming消费kafka如何保证输出结果只会产生一次

问题:spa sparkstreaming消费kafka如何保证输出结果只会产生一次 解决方案:kafka 1.本身实现commitsync方法 ,这个方法运行时毫秒级it 2.每次消费完以后将offset保存到hdfs或本地,启动的时候读这个文件而且加入新增的partition offset便可spark 可是!上面的方案仍是会出现问题。。。io 由于入库操做和commitc方法不是一个原子操做
相关文章
相关标签/搜索