Kafka到底会不会丢数据(data loss)? 一般不会,但有些状况下的确有可能会发生。下面的参数配置及Best practice列表能够较好地保证数据的持久性(固然是trade-off,牺牲了吞吐量)。笔者会在该列表以后对列表中的每一项进行讨论,有兴趣的同窗能够看下后面的分析。缓存
给出列表以后,咱们从两个方面来探讨一下数据为何会丢失:安全
1. Producer端网络
目前比较新版本的Kafka正式替换了Scala版本的old producer,使用了由Java重写的producer。新版本的producer采用异步发送机制。KafkaProducer.send(ProducerRecord)方法仅仅是把这条消息放入一个缓存中(即RecordAccumulator,本质上使用了队列来缓存记录),同时后台的IO线程会不断扫描该缓存区,将知足条件的消息封装到某个batch中而后发送出去。显然,这个过程当中就有一个数据丢失的窗口:若IO线程发送以前client端挂掉了,累积在accumulator中的数据的确有可能会丢失。异步
Producer的另外一个问题是消息的乱序问题。假设客户端代码依次执行下面的语句将两条消息发到相同的分区oop
producer.send(record1);
producer.send(record2);
若是此时因为某些缘由(好比瞬时的网络抖动)致使record1没有成功发送,同时Kafka又配置了重试机制和max.in.flight.requests.per.connection大于1(默认值是5,原本就是大于1的),那么重试record1成功后,record1在分区中就在record2以后,从而形成消息的乱序。不少某些要求强顺序保证的场景是不容许出现这种状况的。性能
鉴于producer的这两个问题,咱们应该如何规避呢??对于消息丢失的问题,很容易想到的一个方案就是:既然异步发送有可能丢失数据, 我改为同步发送总能够吧?好比这样:spa
producer.send(record).get();
这样固然是能够的,可是性能会不好,不建议这样使用。所以特地总结了一份配置列表。我的认为该配置清单应该可以比较好地规避producer端数据丢失状况的发生:(特此说明一下,软件配置的不少决策都是trade-off,下面的配置也不例外:应用了这些配置,你可能会发现你的producer/consumer 吞吐量会降低,这是正常的,由于你换取了更高的数据安全性)线程
2. Consumer端code
consumer端丢失消息的情形比较简单:若是在消息处理完成前就提交了offset,那么就有可能形成数据的丢失。因为Kafka consumer默认是自动提交位移的,因此在后台提交位移前必定要保证消息被正常处理了,所以不建议采用很重的处理逻辑,若是处理耗时很长,则建议把逻辑放到另外一个线程中去作。为了不数据丢失,现给出两点建议:blog