[Hadoop] Kafka + Spark Streaming 数据零丢失

    Kafka:输入 Spark Streaming:伪实时流处理 batch批次 1s :> = 0 0,1...100... DB:输出 Redis/ES 雪崩效应  Job全部hung在那里 解决一般是手工kill ==> 如何保证数据0丢失 流处理程序 bug => 挂了 => 下次再启动,也要保证数据0丢失 生产上如何确认spark和kafka的版本:sparl.apache.orh
相关文章
相关标签/搜索