Spark Streaming和Kafka整合是如何保证数据零丢失

当咱们正确地部署好Spark Streaming,咱们就可使用Spark Streaming提供的零数据丢失机制。为了体验这个关键的特性,你须要知足如下几个先决条件:api   一、输入的数据来自可靠的数据源和可靠的接收器;   二、应用程序的metadata被application的driver持久化了(checkpointed );   三、启用了WAL特性(Write ahead log)。
相关文章
相关标签/搜索