大数据 -- kafka学习笔记:知识点整理(部分转载)

一 为何须要消息系统

1.解耦

容许你独立的扩展或修改两边的处理过程,只要确保它们遵照一样的接口约束。html

2.冗余

消息队列把数据进行持久化直到它们已经被彻底处理,经过这一方式规避了数据丢失风险。许多消息队列所采用的"插入-获取-删除"范式中,在把一个消息从队列中删除以前,须要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。java

3.扩展性

由于消息队列解耦了你的处理过程,因此增大消息入队和处理的频率是很容易的,只要另外增长处理过程便可。算法

4.灵活性 & 峰值处理能力

在访问量剧增的状况下,应用仍然须要继续发挥做用,可是这样的突发流量并不常见。若是为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列可以使关键组件顶住突发的访问压力,而不会由于突发的超负荷的请求而彻底崩溃。apache

5.可恢复性

系统的一部分组件失效时,不会影响到整个系统。消息队列下降了进程间的耦合度,因此即便一个处理消息的进程挂掉,加入队列中的消息仍然能够在系统恢复后被处理。api

6.顺序保证

在大多使用场景下,数据处理的顺序都很重要。大部分消息队列原本就是排序的,而且能保证数据会按照特定的顺序来处理。(Kafka 保证一个 Partition 内的消息的有序性)安全

7.缓冲

有助于控制和优化数据流通过系统的速度,解决生产消息和消费消息的处理速度不一致的状况。服务器

8.异步通讯

不少时候,用户不想也不须要当即处理消息。消息队列提供了异步处理机制,容许用户把一个消息放入队列,但并不当即处理它。想向队列中放入多少消息就放多少,而后在须要的时候再去处理它们。网络

二 kafka 架构

一、 拓扑结构

二、相关概念

kafka 相关名词解释以下:多线程

  • producer:消息生产者,发布消息到 kafka 集群的终端或服务。
  • broker:kafka 集群中包含的服务器。
  • topic:每条发布到 kafka 集群的消息属于的类别,即 kafka 是面向 topic 的。
  • partition:partition 是物理上的概念,每一个 topic 包含一个或多个 partition。kafka 分配的单位是 partition。
  • consumer:从 kafka 集群中消费消息的终端或服务。
  • Consumer group:high-level consumer API 中,每一个 consumer 都属于一个 consumer group,每条消息只能被 consumer group 中的一个 Consumer 消费,但能够被多个 consumer group 消费。
  • replica:partition 的副本,保障 partition 的高可用。
  • leader:replica 中的一个角色, producer 和 consumer 只跟 leader 交互。
  • follower:replica 中的一个角色,从 leader 中复制数据。
  • controller:kafka 集群中的其中一个服务器,用来进行 leader election 以及各类 failover。
  • zookeeper:kafka 经过 zookeeper 来存储集群的 meta 信息。

三、 zookeeper 节点

kafka 在 zookeeper 中的存储结构以下图所示:架构

Zookeeper 主要用来跟踪Kafka 集群中的节点状态, 以及Kafka Topic, message 等等其余信息. 同时, Kafka 依赖于Zookeeper, 没有Zookeeper 是不能运行起来Kafka 的。

zookeeper服务开启后,进入客户端的命令:

zkCli.sh

zookeeper客户端更多经常使用命令参考博客:Kafka在zookeeper中存储结构和查看方式

三  producer 发布消息

一、写入方式

producer 采用 push 模式将消息发布到 broker,每条消息都被 append 到 patition 中,属于顺序写磁盘(顺序写磁盘效率比随机写内存要高,保障 kafka 吞吐率)。

二、消息路由

producer 发送消息到 broker 时,会根据分区算法选择将其存储到哪个 partition。其路由机制为:

  • 指定了 patition,则直接使用;
  • 未指定 patition 但指定 key,经过对 key 的 value 进行hash 选出一个 patition;
  • patition 和 key 都未指定,使用轮询选出一个 patition。

 附上 java 客户端分区源码,一目了然:

//建立消息实例
public ProducerRecord(String topic, Integer partition, Long timestamp, K key, V value) {
     if (topic == null)
          throw new IllegalArgumentException("Topic cannot be null");
     if (timestamp != null && timestamp < 0)
          throw new IllegalArgumentException("Invalid timestamp " + timestamp);
     this.topic = topic;
     this.partition = partition;
     this.key = key;
     this.value = value;
     this.timestamp = timestamp;
}

//计算 patition,若是指定了 patition 则直接使用,不然使用 key 计算
private int partition(ProducerRecord<K, V> record, byte[] serializedKey , byte[] serializedValue, Cluster cluster) {
     Integer partition = record.partition();
     if (partition != null) {
          List<PartitionInfo> partitions = cluster.partitionsForTopic(record.topic());
          int lastPartition = partitions.size() - 1;
          if (partition < 0 || partition > lastPartition) {
               throw new IllegalArgumentException(String.format("Invalid partition given with record: %d is not in the range [0...%d].", partition, lastPartition));
          }
          return partition;
     }
     return this.partitioner.partition(record.topic(), record.key(), serializedKey, record.value(), serializedValue, cluster);
}

// 使用 key 选取 patition
public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
     List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
     int numPartitions = partitions.size();
     if (keyBytes == null) {
          int nextValue = counter.getAndIncrement();
          List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);
          if (availablePartitions.size() > 0) {
               int part = DefaultPartitioner.toPositive(nextValue) % availablePartitions.size();
               return availablePartitions.get(part).partition();
          } else {
               return DefaultPartitioner.toPositive(nextValue) % numPartitions;
          }
     } else {
          //对 keyBytes 进行 hash 选出一个 patition
          return DefaultPartitioner.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
     }
}

3 、写入流程

producer 写入消息序列图以下所示:

流程说明:

1. producer 先从 zookeeper 的 "/brokers/.../state" 节点找到该 partition 的 leader
2. producer 将消息发送给该 leader
3. leader 将消息写入本地 log
4. followers 从 leader pull 消息,写入本地 log 后 leader 发送 ACK
5. leader 收到全部 ISR 中的 replica 的 ACK 后,增长 HW(high watermark,最后 commit 的 offset) 并向 producer 发送 ACK

四、producer delivery guarantee

通常状况下存在三种状况:

  • At most once 消息可能会丢,但毫不会重复传输;
  • At least one 消息毫不会丢,但可能会重复传输;
  • Exactly once 每条消息确定会被传输一次且仅传输一次。

当 producer 向 broker 发送消息时,一旦这条消息被 commit,因为 replication 的存在,它就不会丢。可是若是 producer 发送数据给 broker 后,遇到网络问题而形成通讯中断,那 Producer 就没法判断该条消息是否已经 commit。虽然 Kafka 没法肯定网络故障期间发生了什么,可是 producer 能够生成一种相似于主键的东西,发生故障时幂等性的重试屡次,这样就作到了 Exactly once,但目前还并未实现。因此目前默认状况下一条消息从 producer 到 broker 是确保了 At least once,可经过设置 producer 异步发送实现At most once。

4、broker 保存消息

一、存储方式

物理上把 topic 分红一个或多个 patition(能够经过配置 server.properties 中的 num.partitions指定默认值),每一个 patition 物理上对应一个文件夹(该文件夹存储该 patition 的全部消息和索引文件),以下:

topic为zy-test分区为0的数据保存在000000000000000000000000.log文件中。这个数据是序列化以后的。

2 、存储策略

不管消息是否被消费,kafka 都会保留全部消息。有两种策略能够删除旧数据:

  • 基于时间:log.retention.hours=168
  • 基于大小:log.retention.bytes=1073741824

须要注意的是,由于Kafka读取特定消息的时间复杂度为O(1),即与文件大小无关,因此这里删除过时文件与提升 Kafka 性能无关。

三、topic 建立与删除

建立 topic 的序列图以下所示:

流程说明:

1. controller 在 ZooKeeper 的 /brokers/topics 节点上注册 watcher,当 topic 被建立,则 controller 会经过 watch 获得该 topic 的 partition/replica 分配。
2. controller从 /brokers/ids 读取当前全部可用的 broker 列表,对于 set_p 中的每个 partition:
    2.1 从分配给该 partition 的全部 replica(称为AR)中任选一个可用的 broker 做为新的 leader,并将AR设置为新的 ISR
    2.2 将新的 leader 和 ISR 写入 /brokers/topics/[topic]/partitions/[partition]/state
3. controller 经过 RPC 向相关的 broker 发送 LeaderAndISRRequest。

删除 topic 的序列图以下所示:

流程说明:

1. controller 在 zooKeeper 的 /brokers/topics 节点上注册 watcher,当 topic 被删除,则 controller 会经过 watch 获得该 topic 的 partition/replica 分配。
2. 若 delete.topic.enable=false,结束;不然 controller 注册在 /admin/delete_topics 上的 watch 被 fire,controller 经过回调向对应的 broker 发送 StopReplicaRequest。

5、kafka HA

1 replication

如图2.1所示,同一个 partition 可能会有多个 replica。没有 replica 的状况下,一旦 broker 宕机,其上全部 patition 的数据都不可被消费,同时 producer 也不能再将数据存于其上的 partition。引入replication 以后,同一个 partition 可能会有多个 replica,而这时须要在这些 replica 之间选出一个 leader,producer 和 consumer 只与这个 leader 交互,其它 replica 做为 follower 从 leader 中复制数据。

Kafka 分配 replica 的算法以下:

  • 将全部 broker(假设共 n 个 broker)和待分配的 partition 排序 ;
  • 将第 i 个 partition 分配到第(i mod n)个 broker 上 ;
  • 将第 i 个 partition 的第 j 个 replica 分配到第((i + j) mode n)个 broker上。

二、leader failover

当 partition 对应的 leader 宕机时,须要从 follower 中选举出新 leader。在选举新leader时,一个基本的原则是,新的 leader 必须拥有旧 leader commit 过的全部消息。

kafka 在 zookeeper 中(/brokers/.../state)动态维护了一个 ISR(in-sync replicas),由3.3节的写入流程可知 ISR 里面的全部 replica 都跟上了 leader,只有 ISR 里面的成员才能选为 leader。对于 f+1 个 replica,一个 partition 能够在容忍 f 个 replica 失效的状况下保证消息不丢失。

当全部 replica 都不工做时,有两种可行的方案:

  • 等待 ISR 中的任一个 replica 活过来,并选它做为 leader。可保障数据不丢失,但时间可能相对较长;
  • 选择第一个活过来的 replica(不必定是 ISR 成员)做为 leader。没法保障数据不丢失,但相对不可用时间较短。

kafka 0.8.* 使用第二种方式。

kafka 经过 Controller 来选举 leader,流程请参考5.3节。

三、broker failover

kafka broker failover 序列图以下所示:

流程说明: 

1. controller 在 zookeeper 的 /brokers/ids/[brokerId] 节点注册 Watcher,当 broker 宕机时 zookeeper 会 fire watch;
2. controller 从 /brokers/ids 节点读取可用broker;
3. controller决定set_p,该集合包含宕机 broker 上的全部 partition;
4. 对 set_p 中的每个 partition:
    4.1 从/brokers/topics/[topic]/partitions/[partition]/state 节点读取 ISR;
    4.2 决定新 leader(如4.3节所描述);
    4.3 将新 leader、ISR、controller_epoch 和 leader_epoch 等信息写入 state 节点;
5. 经过 RPC 向相关 broker 发送 leaderAndISRRequest 命令。

四、controller failover

当 controller 宕机时会触发 controller failover。每一个 broker 都会在 zookeeper 的 "/controller" 节点注册 watcher,当 controller 宕机时 zookeeper 中的临时节点消失,全部存活的 broker 收到 fire 的通知,每一个 broker 都尝试建立新的 controller path,只有一个竞选成功并当选为 controller。

当新的 controller 当选时,会触发 KafkaController.onControllerFailover 方法,在该方法中完成以下操做:

1. 读取并增长 Controller Epoch;
2. 在 reassignedPartitions Patch(/admin/reassign_partitions) 上注册 watcher;
3. 在 preferredReplicaElection Path(/admin/preferred_replica_election) 上注册 watcher;
4. 经过 partitionStateMachine 在 broker Topics Patch(/brokers/topics) 上注册 watcher;
5. 若 delete.topic.enable=true(默认值是 false),则 partitionStateMachine 在 Delete Topic Patch(/admin/delete_topics) 上注册 watcher;
6. 经过 replicaStateMachine在 Broker Ids Patch(/brokers/ids)上注册Watch;
7. 初始化 ControllerContext 对象,设置当前全部 topic,“活”着的 broker 列表,全部 partition 的 leader 及 ISR等;
8. 启动 replicaStateMachine 和 partitionStateMachine;
9. 将 brokerState 状态设置为 RunningAsController;
10. 将每一个 partition 的 Leadership 信息发送给全部“活”着的 broker;
11. 若 auto.leader.rebalance.enable=true(默认值是true),则启动 partition-rebalance 线程;
12. 若 delete.topic.enable=true 且Delete Topic Patch(/admin/delete_topics)中有值,则删除相应的Topic。

六 consumer 消费消息

kafka 提供了两套 consumer API:

  • The high-level Consumer API ;

  • The SimpleConsumer API。

其中 high-level consumer API 提供了一个从 kafka 消费数据的高层抽象,而 SimpleConsumer API 则须要开发人员更多地关注细节。

一、The high-level consumer API

high-level consumer API 提供了 consumer group 的语义,一个消息只能被 group 内的一个 consumer 所消费,且 consumer 消费消息时不关注 offset,最后一个 offset 由 zookeeper 保存。

使用 high-level consumer API 能够是多线程的应用,应当注意:

  • 若是消费线程大于 patition 数量,则有些线程将收不到消息;
  • 若是 patition 数量大于线程数,则有些线程多收到多个 patition 的消息;
  • 若是一个线程消费多个 patition,则没法保证你收到的消息的顺序,而一个 patition 内的消息是有序的。

二、The SimpleConsumer API

若是你想要对 patition 有更多的控制权,那就应该使用 SimpleConsumer API,好比:

  • 屡次读取一个消息;
  • 只消费一个 patition 中的部分消息;
  • 使用事务来保证一个消息仅被消费一次。

可是使用此 API 时,partition、offset、broker、leader 等对你再也不透明,须要本身去管理。你须要作大量的额外工做:

  • 必须在应用程序中跟踪 offset,从而肯定下一条应该消费哪条消息 2;
  • 应用程序须要经过程序获知每一个 Partition 的 leader 是谁 ;
  • 须要处理 leader 的变动。

使用 SimpleConsumer API 的通常流程以下:

1. 查找到一个“活着”的 broker,而且找出每一个 partition 的 leader;
2. 找出每一个 partition 的 follower;
3. 定义好请求,该请求应该能描述应用程序须要哪些数据;
4. fetch 数据;
5. 识别 leader 的变化,并对之做出必要的响应;

如下针对 high-level Consumer API 进行说明:

3 consumer group

如 2.2 节所说, kafka 的分配单位是 pratition。每一个 consumer 都属于一个 group,一个 partition 只能被同一个 group 内的一个 consumer 所消费(也就保障了一个消息只能被 group 内的一个 consuemr 所消费),可是多个 group 能够同时消费这个 partition。

kafka 的设计目标之一就是同时实现离线处理和实时处理,根据这一特性,可使用 spark/Storm 这些实时处理系统对消息在线处理,同时使用 Hadoop 批处理系统进行离线处理,还能够将数据备份到另外一个数据中心,只须要保证这三者属于不一样的 consumer group。以下图所示:

四、消费方式

consumer 采用 pull 模式从 broker 中读取数据。

push 模式很难适应消费速率不一样的消费者,由于消息发送速率是由 broker 决定的。它的目标是尽量以最快速度传递消息,可是这样很容易形成 consumer 来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而 pull 模式则能够根据 consumer 的消费能力以适当的速率消费消息。

对于 Kafka 而言,pull 模式更合适,它可简化 broker 的设计,consumer 可自主控制消费消息的速率,同时 consumer 能够本身控制消费方式——便可批量消费也可逐条消费,同时还能选择不一样的提交方式从而实现不一样的传输语义。

五、Kafka提交offset机制

若是将 consumer 设置为 autocommit,consumer 一旦读到数据当即自动 commit。若是只讨论这一读取消息的过程,那 Kafka 确保了 Exactly once。

但实际使用中应用程序并不是在 consumer 读取完数据就结束了,而是要进行进一步处理,而数据处理与 commit 的顺序在很大程度上决定了consumer delivery guarantee:

1.读完消息先 commit 再处理消息。
    这种模式下,若是 consumer 在 commit 后还没来得及处理消息就 crash 了,下次从新开始工做后就没法读到刚刚已提交而未处理的消息,这就对应于 At most once;
2.读完消息先处理再 commit。
    这种模式下,若是在处理完消息以后 commit 以前 consumer crash 了,下次从新开始工做时还会处理刚刚未 commit 的消息,实际上该消息已经被处理过了。这就对应于 At least once;
3.若是必定要作到 Exactly once,就须要协调 offset 和实际操做的输出。
    精典的作法是引入两阶段提交。若是能让 offset 和操做输入存在同一个地方,会更简洁和通用。这种方式可能更好,由于许多输出系统可能不支持两阶段提交。好比,consumer 拿到数据后可能把数据放到 HDFS,若是把最新的 offset 和数据自己一块儿写到 HDFS,那就能够保证数据的输出和 offset 的更新要么都完成,要么都不完成,间接实现 Exactly once。(目前就 high-level API而言,offset 是存于Zookeeper 中的,没法存于HDFS,而SimpleConsuemr API的 offset 是由本身去维护的,能够将之存于 HDFS 中)

总之,Kafka 默认保证 At least once,而且容许经过设置 producer 异步提交来实现 At most once(见文章《kafka consumer防止数据丢失》《Kafka提交offset机制》《Kafka消费者-从Kafka读取数据》《Kafka消费者之指定位移消费》)。而 Exactly once 要求与外部存储系统协做,幸运的是 kafka 提供的 offset 能够很是直接很是容易得使用这种方式。

更多关于 kafka 传输语义的信息请参考《Message Delivery Semantics》。

5 consumer rebalance

当有 consumer 加入或退出、以及 partition 的改变(如 broker 加入或退出)时会触发 rebalance。consumer rebalance算法以下:

1. 将目标 topic 下的全部 partirtion 排序,存于PT;
2. 对某 consumer group 下全部 consumer 排序,存于 CG,第 i 个consumer 记为 Ci;
3. N=size(PT)/size(CG),向上取整;
4. 解除 Ci 对原来分配的 partition 的消费权(i从0开始);
5. 将第i*N到(i+1)*N-1个 partition 分配给 Ci。

 在 0.8.*版本,每一个 consumer 都只负责调整本身所消费的 partition,为了保证整个consumer group 的一致性,当一个 consumer 触发了 rebalance 时,该 consumer group 内的其它全部其它 consumer 也应该同时触发 rebalance。这会致使如下几个问题:

1.Herd effect
  任何 broker 或者 consumer 的增减都会触发全部的 consumer 的 rebalance;
2.Split Brain
  每一个 consumer 分别单独经过 zookeeper 判断哪些 broker 和 consumer 宕机了,那么不一样 consumer 在同一时刻从 zookeeper 看到的 view 就可能不同,这是由 zookeeper 的特性决定的,这就会形成不正确的 reblance 尝试;
3. 调整结果不可控
  全部的 consumer 都并不知道其它 consumer 的 rebalance 是否成功,这可能会致使 kafka 工做在一个不正确的状态。

 基于以上问题,kafka 设计者考虑在0.9.*版本开始使用中心 coordinator 来控制 consumer rebalance,而后又从简便性和验证要求两方面考虑,计划在 consumer 客户端实现分配方案。(见文章《Kafka Detailed Consumer Coordinator Design》和《Kafka Client-side Assignment Proposal》),此处再也不赘述。

六、API使用

关于API的使用能够参考一下博客:

[1]KAFKA的JAVA使用api

[2]KAFKA学习视频

[3]Kafka消费者之指定位移消费

参考文章

[1]Kafka剖析(一):Kafka背景及架构介绍

[2]Kafka设计解析(二):Kafka High Availability (上

[3]Kafka设计解析(二):Kafka High Availability (下)

[4]Kafka设计解析(四):Kafka Consumer解析

[5]Kafka设计解析(五):Kafka Benchmark

[6]Kafka学习整理三(borker(0.9.0及0.10.0)配置)

[6]Using the High Level Consumer

[8]Using SimpleConsumer

[9]Consumer Client Re-Design

[10]Message Delivery Semantics

[11]Kafka Detailed Consumer Coordinator Design

[12]Kafka Client-side Assignment Proposal

[13]Kafka和DistributedLog技术对比

[14]kafka安装和启动

[15]kafka consumer防止数据丢失

[16]kafka学习笔记:知识点整理(转自该篇)

相关文章
相关标签/搜索