Kafka重复消费~SparkStreaming

1.问题描述 使用SparkStreaming链接Kafka的demo程序每次重启,都会从Kafka队列里第一条数据开始消费。html 修改enable.auto.commit相关参数都无效。java 2.缘由分析 demo程序使用"KafkaUtils.createDirectStream"建立Kafka输入流,此API内部使用了Kafka客户端低阶API,不支持offset自动提交(提交到zo
相关文章
相关标签/搜索