Kafka(一)

Apache Kafka是一个分布式流平台。那么具体指什么?

一个流平台通常有三个功能:数据库

1 发布和订阅消息流,相似于消息队列或者专业的消息系统。服务器

2 以容错持久的方式存储消息流。负载均衡

3 处理接收到的消息流。分布式

Kafka通常普遍用于两类应用:函数

1 创建能够在系统或应用之间稳定获取数据的实时流数据通道。工具

2 创建转换货响应数据流的实时流应用。性能

为了搞清楚Kafka是怎么作到这些的,让咱们自底向上的深刻探索Kafka这些能力。测试

开始是一些概念:spa

1 Kafka是运行在能够扩展的多个数据中心集群上命令行

2 Kafka集群存储了称为topics的分类流数据

3 每条记录都包含了key,value和时间戳

Kafka有四个核心的API:

Producer API容许应用发布流记录到一个或更多的Kafka主题上。

Consumer API容许应用订阅到一个或更多的主题上并处理其上的流记录。

Streams API容许应用做为流处理者,从一个或更多的主题上消费而且生产输出流到一个或更多的输出主题上,高效地传递输入流到输出流。

Connector API容许创建和运行可重用生产者或消费者,链接Kafka主题到已有的应用或数据系统中。好比,链接到关系型数据库上的connector可能捕捉到每一个来自表的变化。

在Kafka中,客户端和服务端的通讯是简易,高可用,对语言不敏感的TCP协议。协议是分版本的而且向下兼容。咱们不只提供Kafka的Java客户端,还支持其余不少语言。

Topics和Logs

让咱们先来看下Kafka为流记录提供的核心抽象的组件——topic

topic是记录发布的分类或饲养者。在Kafka中的topics老是多个订阅,意思是说topic能够没有,或者有一个或许多个消费者来订阅写入其中的数据。

对于每一个topic来说,Kafka集群保留了一个分区日志以下图:

每一个分区是一个有序的,不可变的向一个结构化的提交日志中持续写入记录的序列。在分区中的记录都被记做一串叫作offset的惟一标识的数字串。

Kafka集群持久化全部的发布的记录——无论他们是否是消费了——食用一个可配置的保留时间。举个例子,若是保留测试是两天,那么在记录发布以后的两天,它能够被重复消费,在这以后它将会被丢弃来节省空间。Kafka的性能相对于数据大小来讲是有效的,因此长期存储数据不是问题。

事实上,只有保存在每一个消费者上的元数据会在日志中成为offset或者消费者位置。offset(偏移)被消费者控制:通常消费者都会在读取记录的同时设置offset,可是,实际上,既然位置被消费者控制了那么消费者就能够按照顺序消费。好比一个消费者能够重置一个较早时间的offset去响应以前的记录或者跳转到最近的记录并从“如今”开始消费。

这样的特性意味着Kafka消费者是很是廉价的——他们能够不用受到集群或者其余消费者的影响。好比,他们可使用命令行工具来“tail”任意topic的内容而无需改变已存在的消费者的消费内容。

日志中的分区有多种用途。首先,它们容许日志扩展到一个适合于单个服务器的大小。每一个单独的分区必须适合承载它的服务器,可是一个topic能够有许多分区,所以能够处理任意数量的数据。其次,它们做为一个并行的单元——在这点上能够作到更多的事情。

分布式

日志分区是分布在Kafka集群中的每一个服务器上,用来处理数据和共享分区的请求。每一个分区经过一个可配置的容错机制的服务器的拷贝。

每一个分区都有一个扮演这“leader”角色和多个(或无)扮演者“followers”角色的服务器。Leader处理全部的读和写请求,follwers被动地复制leader上的请求。若是leader发生宕机,一个follower会自动成为新的leader。每一个leader服务器充当它所在分区的leader或者其余分区的follower,所以集群内的负载均衡很好。

Geo-Replication

Kafka镜像为它的集群提供geo-replication支持。经过景象,消息在多个数据中心或云中复制。你能够用在主动或被动的环境下备份或还原;或者覆盖邻近你的用户的数据,或者支持本地数据需求。

Producers

生产者根据本身的选择发布数据到topics上。生产者有权选择将记录发布到topic中的哪一个分区上。这能够以轮询的方式简单的均衡负载或者根据一些语义上的分区函数(基于记录中的一些key)。因为秒级的建分区而被普遍使用。

Consumers

消费者把它们本身标记为消费者组名字,每一个发布到topic上的记录都会被传送到消费者组中一个消费者实例。消费者实例能够在不一样的进程或不一样的机器上。

若是全部的消费者实例都在一个消费者组中,记录就会在消费者实例中实现高效的负载均衡。

若是全部的消费者实例在不一样的消费者组中,则每一个记录都会被广播到全部的消费者进程中。

一个包含两个Kafka服务器的集群使用了四个分区(P0-P3)和两个消费者组。消费者组A有两个消费者实例,消费者组B有四个。

更通常的是,你的topic拥有很少的consumer groups,每个都充当“逻辑上的订阅者“。每一个group都由不少消费者实例组成以便扩展和容错考虑。党消费者集群代替了单个进程的时候发布-订阅语义是再好不过的了。

在Kafka中实现消费的方法是将日志中的分区划分到消费者实例中,这样每一个实例在任什么时候间点都是分区的“公平份额”的独占使用者。保持组里成员的地位是由Kafka的协议动态处理的。若是新实例加入了组它们会接管其余组成员的一些分区;若是一个实例死掉,他的分区就会分配给存在的实例。

Kafka只在一个分区中提供一个总体上有序的记录,而不会在topic的不一样分区上存有这些记录。每一个分区排序经过key和分区数据的能力结合对于大多数应用来讲已经足够了。然而,若是你须要一个来自topic上惟一一个分区上总体上有序的记录,那么每一个消费者组只有一个消费者进程。

相关文章
相关标签/搜索