原来这才是 Kafka!(多图+深刻)

做者:bai_nian_min_guo
https://www.cnblogs.com/baini...

1、kafka概述

1.一、定义

Kakfa是一个分布式的基于发布/订阅模式的消息队列(message queue),主要应用于大数据的实时处理领域html

1.二、消息队列

1.2.一、传统的消息队列&新式的消息队列的模式

上面是传统的消息队列,好比一个用户要注册信息,当用户信息写入数据库后,后面还有一些其余流程,好比发送短信,则须要等这些流程处理完成后,在返回给用户java

而新式的队列是,好比一个用户注册信息,数据直接丢进数据库,就直接返回给用户成功面试

1.2.二、使用消息队列的好处

A、        解耦数据库

B、        可恢复性后端

C、        缓冲微信

D、        灵活性&峰值处理能力网络

E、         异步通讯多线程

1.2.三、消息队列的模式

A、点对点模式架构

消息生产者发送消息到消息队列中,而后消息消费者从队列中取出而且消费消息,消息被消费后,队列中不在存储。因此消息消费者不可能消费到已经被消费的消息;队列支持存在多个消费者,可是对于一个消息而言,只会 有一个消费者能够消费;若是想发给多个消费者,则须要屡次发送该条消息并发

B】发布/订阅模式(一对多,消费者消费数据以后不会清除消息)

消息生产者将消息发布到topic中,同时有多个消息消费者(订阅)消费该消息,和点对点的方式不一样,发布到topic的消息会被全部的订阅者消费;可是数据保留是期限的,默认是7天,由于他不是存储系统;kafka就是这种模式的;有两种方式,一种是是消费者去主动去消费(拉取)消息,而不是生产者推送消息给消费者;另一种就是生产者主动推送消息给消费者,相似公众号

1.三、kafka的基础架构

kafka的基础架构主要有broker、生产者、消费者组构成,当前还包括zookeeper

生产者负责发送消息

broker负责缓冲消息,broker中能够建立topic,每一个topic又有partition和replication的概念

消费者组负责处理消息,同一个消费者组的中消费者不能消费同一个partition中的数据,消费者组主要是提升消费能力,好比以前是一个消费者消费100条数据,如今是2个消费者消费100条数据,能够提升消费能力;因此消费者组的消费者的个数要小于partition的个数,否则就会有消费者没有partition能够消费,形成资源的浪费

注:可是不一样的消费者组的消费者是能够消费相同的partition数据

Kakfa若是要组件集群,则只须要注册到一个zk中就能够了,zk中还保留消息消费的进度或者说偏移量或者消费位置

0.9版本以前偏移量存储在zk

0.9版本以后偏移量存储在kafka中,kafka定义了一个系统的topic,专用用来存储偏移量的数据;

为何要改?主要是考虑到频繁更改偏移量,对zk__的压力较大,并且kafka__自己本身的处理也较复杂

1.四、kafka安装

A、Kafka的安装只须要解压安装包就能够完成安装

tar -zxvf kafka_2.11 -2.1.1.tgz -C /usr/local/

B、查看配置文件

[root@es1 config]# pwd
/usr/local/kafka/config
[root@es1 config]# ll
total 84
-rw-r--r--. 1 root root  906 Feb  8  2019 connect-console-sink.properties
-rw-r--r--. 1 root root  909 Feb  8  2019 connect-console-source.properties
-rw-r--r--. 1 root root 5321 Feb  8  2019 connect-distributed.properties
-rw-r--r--. 1 root root  883 Feb  8  2019 connect-file-sink.properties
-rw-r--r--. 1 root root  881 Feb  8  2019 connect-file-source.properties
-rw-r--r--. 1 root root 1111 Feb  8  2019 connect-log4j.properties
-rw-r--r--. 1 root root 2262 Feb  8  2019 connect-standalone.properties
-rw-r--r--. 1 root root 1221 Feb  8  2019 consumer.properties
-rw-r--r--. 1 root root 4727 Feb  8  2019 log4j.properties
-rw-r--r--. 1 root root 1925 Feb  8  2019 producer.properties
-rw-r--r--. 1 root root 6865 Jan 16 22:00 server-1.properties
-rw-r--r--. 1 root root 6865 Jan 16 22:00 server-2.properties
-rw-r--r--. 1 root root 6873 Jan 16 03:57 server.properties
-rw-r--r--. 1 root root 1032 Feb  8  2019 tools-log4j.properties
-rw-r--r--. 1 root root 1169 Feb  8  2019 trogdor.conf
-rw-r--r--. 1 root root 1023 Feb  8  2019 zookeeper.properties

C、修改配置文件server.properties

设置broker.id 这个是kafka集群区分每一个节点的惟一标志符

D、设置kafka的数据存储路径

注:这个目录下不能有其余非kafka的目录,否则会致使kafka集群没法启动

E、设置是否能够删除topic,默认状况先kafka的topic是不容许删除的

F、Kafka的数据保留的时间,默认是7天

G、Log文件最大的大小,若是log文件超过1g会建立一个新的文件

H、Kafka链接的zk的地址和链接kafka的超时时间

J、默认的partition的个数

推荐阅读:6个步骤,全方位掌握 Kafka

1.五、启动kafka

A、启动方式1,kafka只能单节点启动,因此每一个kakfa节点都须要手动启动,下面的方式阻塞的方式启动

B、启动方式2,守护的方式启动,推荐

1.六、kafka操做

A、查看当前kafka集群已有的topic

注意:这里链接的zookeeper,而不是链接的kafka

B、建立topic,指定分片和副本个数

注:

replication-factor:副本数

replication-factor:分区数

Topic:主题名

若是当前kafka集群只有3个broker节点,则replication-factor最大就是3了,下面的例子建立副本为4,则会报错

C、删除topic

D、查看topic信息

1.七、启动生产者生产消息,kafka自带一个生产者和消费者的客户端

A、启动一个生产者,注意此时连的9092端口,链接的kafka集群

B、启动一个消费者,注意此时链接的仍是9092端口,在0.9版本以前链接的仍是2181端口


这里咱们启动2个消费者来测试一下

注:若是不指定的消费者组的配置文件的话,默认每一个消费者都属于不一样的消费者组

C、发送消息,能够看到每一个消费者都能收到消息



D、Kakfa中的实际的数据


2、kafka架构深刻

Kafka不能保证消息的全局有序,只能保证消息在partition内有序,由于消费者消费消息是在不一样的partition中随机的

2.一、kafka的工做流程

Kafka中的消息是以topic进行分类的,生产者生成消息,消费者消费消息,都是面向topic的

Topic是一个逻辑上的概念,而partition是物理上的概念

每一个partition又有副本的概念

每一个partition对应于一个log文件,该log文件中存储的就是生产者生成的数据,生产者生成的数据会不断的追加到该log的文件末端,且每条数据都有本身的offset,消费者都会实时记录本身消费到了那个offset,以便出错的时候从上次的位置继续消费,这个offset就保存在index文件中

kafka的offset是分区内有序的,可是在不一样分区中是无顺序的,kafka不保证数据的全局有序

2.二、kafka原理

因为生产者生产的消息会不断追加到log文件的末尾,为防止log文件过大致使数据定位效率低下,Kafka采用分片和索引的机制,将每一个partition分为多个segment,每一个segment对应2个文件----index文件和log文件,这2个文件位于一个相同的文件夹下,文件夹的命名规则为topic名称+分区序号

Indx和log的文件的文件名是当前这个索引是最小的数据的offset

Kafka如何快速的消费数据呢?

Index文件中存储的数据的索引信息,第一列是offset,第二列这这个数据所对应的log文件中的偏移量,就像咱们去读文件,使用seek()设置当前鼠标的位置同样,能够更快的找到数据

若是要去消费offset为3的数据,首先经过二分法找到数据在哪一个index文件中,而后在经过index中offset找到数据在log文件中的offset;这样就能够快速的定位到数据,并消费

因此kakfa虽然把数据存储在磁盘中,可是他的读取速度仍是很是快的。

关注微信公众号:Java技术栈,在后台回复:架构,能够获取我整理的 N 篇架构干货。

3、kafka的生产者和消费者

3.一、kafka的生产者

Kafka的partition的分区的做用

Kafka的分区的缘由主要就是提供并发提升性能,由于读写是partition为单位读写的;

那生产者发送消息是发送到哪一个partition中呢?

A、在客户端中指定partition

B、轮询(推荐)消息1去p1,消息2去p2,消息3去p3,消息4去p1,消息5去p2,消息6去p3 。。。。。。。

3.2 kafka如何保证数据可靠性呢?经过ack来保证

为保证生产者发送的数据,能可靠的发送到指定的topic,topic的每一个partition收到生产者发送的数据后,都须要向生产者发送ack(确认收到),若是生产者收到ack,就会进行下一轮的发送,不然从新发送数据

那么kafka何时向生产者发送ack

确保follower和leader同步完成,leader在发送ack给生产者,这样才能确保leader挂掉以后,能再follower中选举出新的leader后,数据不会丢失

那多少个follower同步完成后发送ack

方案1:半数已经完成同步,就发送ack

方案2:所有完成同步,才发送ack(kafka采用这种方式)

采用第二种方案后,设想如下场景,leader收到数据,全部的follower都开始同步数据,可是有一个follower由于某种故障,一直没法完成同步,那leader就要一直等下,直到他同步完成,才能发送ack,这样就很是影响效率,这个问题怎么解决?

Leader维护了一个动态的ISR列表(同步副本的做用),只须要这个列表的中的follower和leader同步;当ISR中的follower完成数据的同步以后,leader就会给生产者发送ack,若是follower长时间未向leader同步数据,则该follower将被剔除ISR,这个时间阈值也是自定义的;一样leader故障后,就会从ISR中选举新的leader

怎么选择ISR的节点呢?

首先通讯的时间要快,要和leader要能够很快的完成通讯,这个时间默认是10s

而后就看leader数据差距,消息条数默认是10000条(后面版本被移除)

为何移除:由于kafka发送消息是批量发送的,因此会一瞬间leader接受完成,可是follower尚未拉取,因此会频繁的踢出加入ISR,这个数据会保存到zk和内存中,因此会频繁的更新zk和内存。

可是对于某些不过重要的数据,对数据的可靠性要求不是很高,可以容忍数据的少许丢失,因此不必等ISR中的follower所有接受成功

因此kafka为用户提供了三种可靠性级别,用户能够根据可靠性和延迟进行权衡,这个设置在kafka的生成中设置:acks参数设置

A、acks为0

生产者不等ack,只管往topic丢数据就能够了,这个丢数据的几率很是高

B、ack为1

Leader落盘后就会返回ack,会有数据丢失的现象,若是leader在同步完成后出现故障,则会出现数据丢失

C、ack为-1(all)

Leader和follower(ISR)落盘才会返回ack,会有数据重复现象,若是在leader已经写完成,且follower同步完成,可是在返回ack的出现故障,则会出现数据重复现象;极限状况下,这个也会有数据丢失的状况,好比follower和leader通讯都很慢,因此ISR中只有一个leader节点,这个时候,leader完成落盘,就会返回ack,若是此时leader故障后,就会致使丢失数据

3.3 Kafka如何保证消费数据的一致性?经过HW来保证

LEO:指每一个follower的最大的offset

HW(高水位):指消费者能见到的最大的offset,LSR队列中最小的LEO,也就是说消费者只能看到1~6的数据,后面的数据看不到,也消费不了

避免leader挂掉后,好比当前消费者消费8这条数据后,leader挂   了,此时好比f2成为leader,f2根本就没有9这条数据,那么消费者就会报错,因此设计了HW这个参数,只暴露最少的数据给消费者,避免上面的问题

3.3.一、HW保证数据存储的一致性

A、Follower故障

Follower发生故障后会被临时提出LSR,待该follower恢复后,follower会读取本地的磁盘记录的上次的HW,并将该log文件高于HW的部分截取掉,从HW开始想leader进行同步,等该follower的LEO大于等于该Partition的hw,即follower追上leader后,就能够从新加入LSR

B、Leader故障

Leader发生故障后,会从ISR中选出一个新的leader,以后,为了保证多个副本之间的数据一致性,其他的follower会先将各自的log文件高于hw的部分截掉(新leader本身不会截掉),而后重新的leader同步数据

注意:这个是为了保证多个副本间的数据存储的一致性,并不能保证数据不丢失或者不重复

3.3.2精准一次(幂等性),保证数据不重复

Ack设置为-1,则能够保证数据不丢失,可是会出现数据重复(at least once)

Ack设置为0,则能够保证数据不重复,可是不能保证数据不丢失(at most once)

可是若是鱼和熊掌兼得,该怎么办?这个时候就就引入了Exactl once(精准一次)

在0.11版本后,引入幂等性解决kakfa集群内部的数据重复,在0.11版本以前,在消费者处本身作处理

若是启用了幂等性,则ack默认就是-1,kafka就会为每一个生产者分配一个pid,并未每条消息分配seqnumber,若是pid、partition、seqnumber三者同样,则kafka认为是重复数据,就不会落盘保存;可是若是生产者挂掉后,也会出现有数据重复的现象;因此幂等性解决在单次会话的单个分区的数据重复,可是在分区间或者跨会话的是数据重复的是没法解决的

3.4 kafka的消费者

3.4.1 消费方式

消息队列有两种消费消息的方式,push(微信公众号)、pull(kafka),push模式很难适应消费速率不一样的消费者,由于消费发送速率是由broker决定的,他的目标是尽量以最快的的速度传递消息,可是这样很容易形成消费者来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而pull的方式能够消费者的消费能力以适当的速率消费消息

Pull的模式不足之处是若是kafka没有数据,消费者可能会陷入死循环,一直返回空数据,针对这一点,kafka的消费者在消费数据时候回传递一个timeout参数,若是当时没有数据可供消费,消费者会等待一段时间在返回

3.4.2 分区分配策略

一个消费者组有多个消费者,一个topic有多个partition。因此必然会涉及到partition的分配问题,即肯定哪一个partition由哪一个消费者来消费

Kafka提供两种方式,一种是轮询(RountRobin)对于topic组生效,一种是(Range)对于单个topic生效

轮训:前置条件是须要一个消费者里的消费者订阅的是相同的topic。否则就会出现问题;非默认的的方式

同一个消费者组里的消费者不能同时消费同一个分区

好比三个消费者消费一个topic的9个分区

若是一个消费者组里有2个消费者,这个消费者组里同时消费2个topic,每一个topic又有三个partition

首先会把2个topic当作一个主题,而后根据topic和partition作hash,而后在按照hash排序。而后轮训分配给一个消费者组中的2个消费者

若是是下面这样的方式订阅的呢?

好比有3个topic,每一个topic有3个partition,一个消费者组中有2个消费者。消费者1订阅topic1和topic2,消费者2订阅topic2和topic3,那么这样的场景,使用轮训的方式订阅topic就会有问题

若是是下面这种方式订阅呢

好比有2个topic,每一个topic有3个partition,一个消费者组 有2个消费者,消费者1订阅topic1,消费者2订阅topic2,这样使用轮训的方式订阅topic也会有问题

因此咱们一直强调,使用轮训的方式订阅topic的前提是一个消费者组中的全部消费者订阅的主题是同样的;

因此轮训的方式不是kafka默认的方式

Range:是按照单个topic来划分的,默认的分配方式

Range的问题会出现消费者数据不均衡的问题

好比下面的例子,一个消费者组订阅了2个topic,就会出现消费者1消费4个partition,而另一个消费者只消费2个partition

分区策略何时会触发呢?当消费者组里的消费者个数变化的时候,会触发分区策略调整,好比消费者里增长消费者,或者减小消费者

3.4.3 offset的维护

因为消费者在消费过程当中可能会出现断电宕机等故障,消费者恢复后,须要从故障前的位置继续消费,因此消费者须要实施记录本身消费哪一个offset,以便故障恢复后继续消费

Offset保存的位置有2个,一个zk,一个是kafka

首先看下offset保存到zk

由消费者组、topic、partition三个元素肯定惟一的offset

因此消费者组中的某个消费者挂掉以后,或者的消费者仍是能够拿到这个offset的

Controller这个节点和zk通讯,同步数据,这个节点就是谁先起来,谁就先注册controller,谁就是controller。其余节点和controller信息保持同步

3.4.五、消费者组的案例

修改消费者组id

启动一个消费者发送3条数据

指定消费者组启动消费者,启动三个消费者,能够看到每一个消费者消费了一条数据



在演示下不一样组能够消费同一个topic的,咱们看到2个消费者的消费者都消费到同一条数据

再次启动一个消费者,这个消费者属于另一个消费者组


4、Kafka的高效读写机制

4.一、分布式部署

多节点并行操做

4.二、顺序写磁盘

Kafka的producer生产数据,要写入到log文件中,写的过程当中一直追加到文件末尾,为顺序写,官网有数据代表。一样的磁盘,顺序写能到600M/S,而随机写只有100K/S。这与磁盘的机械结构有关,顺序写之因此快,是由于其省去了大量磁头寻址的时间

4.三、零复制技术

正常状况下,先把数据读到内核空间,在从内核空间把数据读到用户空间,而后在调操做系统的io接口写到内核空间,最终在写到硬盘中

Kafka是这样作的,直接在内核空间流转io流,因此kafka的性能很是高

5、 zookeeper在kafka中的做用

Kafka集群中有一个broker会被选举为controller,负责管理集群broker的上下线,全部的topic的分区副本分配和leader选举等工做。

推荐去个人博客阅读更多:

1.Java JVM、集合、多线程、新特性系列教程

2.Spring MVC、Spring Boot、Spring Cloud 系列教程

3.Maven、Git、Eclipse、Intellij IDEA 系列工具教程

4.Java、后端、架构、阿里巴巴等大厂最新面试题

生活很美好,明天见~

相关文章
相关标签/搜索