Kafka 在华泰证券的探索与实践

引言算法

Apache Kafka 发源于 LinkedIn,于 2011 年成为 Apache 的孵化项目,随后于 2012 年成为 Apache 的顶级项目之一。按照官方定义,Kafka 是一个分布式流平台,具有流数据的发布及订阅(与消息队列或企业级消息系统相似)能力、容错方式的流数据存储能力以及流数据的实时处理能力。Kafka 的优点在于:apache

 

  • 可靠性:具备分区机制、副本机制和容错机制的分布式消息系统。api

  • 可扩展性:消息系统支持集群规模的热扩展。缓存

  • 高性能:在数据发布和订阅过程当中都能保证数据的高吞吐量。即使在 TB 级数据存储的状况下,仍然能保证稳定的性能。安全


目前,Kafka 在互联网、金融、传统行业等各类类型公司内部普遍使用,已成为全球范围内实时数据传输和处理领域的事实标准。服务器

 

基本原理及概念网络

一个典型的 Kafka 集群中包含:(1)若干 Producer,用于生产数据;(2)若干 Broker,构成集群吞吐数据;(3)若干 Consumer 消费数据;(4)一个 Zookeeper 集群,进行全局控制和管理。Kafka 的拓扑结构以下图所示:架构

 

图1 kafka 架构图运维

Kafka 经过 Zookeeper 管理集群配置、选举 leader,以及在 Consumer Group 发生变化时进行再平衡(rebalance)。Producer 使用 push 模式将消息发布到 broker,Consumer 使用 pull 模式从 broker 订阅并消费消息并更新消费的偏移量值(offset)。异步

基本概念:

  • Broker(代理):Kafka 集群的服务器节点称为 broker。

  • Topic(主题):在 Kafka 中,使用一个类别属性来划分数据的所属类,划分数据的这个类称为 topic。一个主题能够有零个、一个或多个消费者去订阅写到这个主题里面的数据。

  • Partition(分区):主题中的数据分割为一个或多个 partition,分区是一个有序、不变序列的记录集合,经过不断追加造成结构化的日志。

  • Producer(生产者):数据的发布者,该角色将消息发布到 Kafka 的 topic 中。生产者负责选择哪一个记录分配到指定主题的哪一个分区中。

  • Consumer(消费者):从 broker 中读取数据,消费者能够消费多个 topic 中的数据。

  • Consumer Group(消费者组):每一个 consumer 都属于一个特定的 group 组,一个 group 组能够包含多个 consumer,但一个组中只会有一个 consumer 消费数据。

     

主题和分区:


Topic 的本质就是一个目录,由一些 Partition Logs(分区日志)组成,其组织结构以下图所示。每一个 Partition 中的消息都是有序的,生产的消息被不断追加到 Partition log 上,其中的每个消息都被赋予了一个惟一的 offset 值。

 

图 2 Kafka分区数据存储示意图

对于传统的 message queue 而言,通常会删除已经被消费的消息,Kafka 集群会保存全部的消息,无论消息有没有被消费。Kafka 提供两种策略删除旧数据:(1)基于时间;(2)基于 Partition 文件大小。只有过时的数据才会被自动清除以释放磁盘空间。
Kafka 须要维持的元数据只有“已消费消息在 Partition 中的 offset 值”,Consumer 每消费一个消息,offset 就会加 1。其实消息的状态彻底是由 Consumer 控制的,Consumer 能够跟踪和重设这个 offset 值,这样 Consumer 就能够读取任意位置的消息。

数据备份机制:

 

Kafka 容许用户为每一个 topic 设置副本数量,副本数量决定了有几个 broker 来存放写入的数据。若是你的副本数量设置为 3,那么一份数据就会被存放在 3 台不一样的机器上,那么就容许有 2 个机器失败。通常推荐副本数量至少为 2,这样就能够保证增减、重启机器时不会影响到数据消费。若是对数据持久化有更高的要求,能够把副本数量设置为 3 或者更多。

核心api:


Producer API:容许应用去推送一个流记录到一个或多个 kafka 主题上。


Consumer API:容许应用去订阅一个或多个主题,并处理流数据。Consumer API 包含 high level API 和 Sample api 两套。使用 high level API 时,同一 Topic 的一条消息只能被同一个 Consumer Group 内的一个 Consumer 消费,但多个 Consumer Group 可同时消费这一消息。与之相对的 Sampleapi 是一个底层的 API,彻底无状态的,每次请求都须要指定 offset 值。


Streams API:容许应用做为一个流处理器,消费来自一个或多个主题的输入流,或生产一个输出流到一个或多个输出主题,并能够有效地将输入流转换为输出流。
其它 Kafka 的特性将在下面华泰证券的使用示例中进一步介绍。

Kafka在华泰证券背景介绍及建设现状

长期以来,华泰证券的系统建设依赖于服务厂商,厂商之间技术方案的差别性形成了系统之间的异构化,各类类型的系统架构长期存在,在消息中间件领域尤是如此。如短信平台使用 IBMMQ,CRM 系统使用 ESB 架构,自营业务使用 Oracletuxedo 架构,柜台系统使用恒生 MessageCenter 架构等。随着华泰证券自主研发的大规模投入,迫切须要改变这种烟囱式的系统建设方式,以统一化的服务化平台架构来建设系统。


2015 年,咱们经过对 Kafka、ActiveMQ 及 RabbitMQ 等开源消息中间件进行全面的测试对比,最终从性能及高可用方面考虑,选择 Kafka 做为了公司级消息中间件,通过两年多的探索和实践,Kafka 平台已承接大量重要生产业务系统,支撑了全公司业务的高速发展,积累了大量的生产实践经验。


通过将近三年的建设发展,目前在华泰证券内部已分别建设 0.9.0 和 0.10.1 版本的 Kafka 集群,整体集群数量 20 余台。


目前华泰内部 kafka 已为行情计算、交易回报、量化分析等核心系统提供稳定服务,同时涵盖了日志、数据分析等诸多运维领域的应用,日均消息吞吐量达 2.3TB,峰值流量超 4.8Gb/s,TOPIC 数量 190 余个,服务 30 个以上应用系统。

实践经验

(1)高可用双活架构
如图 3 所示,Kafka 高可用特性依赖于 zookeeper 来实现,因为 zookeeper 的 paxos 算法特性,故 zookeeper 采用同城三中心部署方式,保证 zookeeper 自己高可用,一般其中两个数据中心部署偶数台机器,另外一数据中心部署单台机器。


Kafkabroker 跨数据中心两节点部署,全部 topic 的 partition 保证在两中心都有副本。若是单数据中心出现问题,另外一个中心能自动进行接管,业务系统能够无感知切换。


因为Kafka的高带宽需求,主机采用万兆网卡,而且在网卡作 bond0 以保证网卡高可用,跨数据中心之间的网络通讯采用独立的万兆波分通道。

 

图 3 KAFKA 平台部署架构图

(2)参数调优
• 首先咱们在 JVM 层面作了不少尝试。对 Kafka 服务启动参数进行调优,使用 G1 回收器。kafka 内存配置通常选择 64G,其中 16G 给 Kafka 应用自己,剩余内存所有用于操做系统自己的 page cache.


• 此外为了保证核心系统的达到最佳的读写效果,咱们采用 SSD 硬盘,并作了 raid5 冗余,来保证硬盘的高效 IO 读写能力。


• 其次咱们经过调整 broker 的 num.io.threads,num.network.threads, num.replica.fetchers 等参数来保证集群之间快速复制和吞吐。


(3)数据一致性保证

Kafka 有本身一套独特的消息传输保障机制(at least once)。当 producer 向 broker 发送消息时,因为副本机制(replication)的存在,一旦这条消息被 broker 确认,它将不会丢失。但若是 producer 发送数据给 broker 后,遇到网络问题而形成通讯中断,那 producer 就没法判断该条消息是否已经被确认。这时 producer 能够重试,确保消息已经被 broker 确认,为了保证消息的可靠性,咱们要求业务作到:

• 保证发送端成功
当 producer 向 leader 发送数据时,能够经过 request.required.acks 参数来设置数据可靠性的级别:

1(默认) leader 已成功收到的数据并获得确认后发送下一条 message。若是 leader 宕机,则会丢失数据。
0 送端无需等待来自 broker 的确认而继续发送下一批消息。这种状况下数据传输效率最高,可是数据可靠性确是最低的。
-1(ALL) 发送端须要等待 ISR 列表中全部列表都确认接收数据后才算一次发送完成,可靠性最高。

• 保证消费者消费成功(at least once)

咱们要求消费者关闭自动提交(enable.auto.commit:false),同时当消费者每次 poll 处理完业务逻辑后必须完成手动同步提交(commitSync),若是消费者在消费过程当中发生 crash,下次启动时依然会从以前的位置开始消费,从而保证每次提交的内容都能被消费。

• 消息去重 

考虑到 producer,broker,consumer 之间都有可能形成消息重复,因此咱们要求接收端须要支持消息去重的功能,最好借助业务消息自己的幂等性来作。其中有些大数据组件,如 hbase,elasticsearch 自然就支持幂等操做。

 

图 4Kafka 消息可靠性机制

 

场景事例:行情数据 hbase 存储
在华泰内部使用 kafka 来缓存一段时间的行情数据,并作相应处理为了保证 kafka 中数据的完整性,发送端 API 参数配置:

props.put(“acks”, “all”);

为了防止某条发送影响后续的消息发送,采用带异步回调的模式发送

 

在接收端,启动专门的消费者拉取 kafka 数据存入 hbase。hbase 的 rowkey 的设计主要包括 SecurityId(股票id)和 timestamp(行情数据时间)。消费线程从 kafka 拉取数据后反序列化,而后批量插入 hbase,只有插入成功后才往 kafka 中持久化 offset。这样的好处是,若是在中间任意一个阶段发生报错,程序恢复后都会从上一次持久化 offset 的位置开始消费数据,而不会形成数据丢失。若是中途有重复消费的数据,则插入 hbase 的 rowkey 是相同的,数据只会覆盖不会重复,最终达到数据一致。


因此,从根本上说,kafka 上的数据传输也是数据最终一致性的典型场景。

 


图 5hbase 持久化逻辑

(4)ACL安全


目前华泰内部经过配置 allow.everyone.if.no.acl.found 参数(:true)让 Kafka 集群同时具有 ACL 和非 ACL 的能力,避免资源的浪费。咱们选用 SASL 做为 Kafka 鉴权方式,由于 SASL 虽然简单,但已知足需求,而 Kerberos 使用太重,过分复杂组件会给 Kafka 带来更多不肯定的因素,如示例所示,根据部门划分来分配用户。

示例:
KafkaServer {
org.apache.kafka.common.security.plain.PlainLoginModule required
ser_dep1=“ password 1”
user_dep2=“ password 2”
user_dep3=“ password 3”;
};


服务启动后,经过 Kafka 的 command line 接口,配置基于用户、ip、topic、groupid 等的 acl 权限来保证各业务之间的隔离。

将来规划

随着业务的不断发展,Kafka 在华泰证券内部已成为核心组件。将来重点进行 PaaS 平台建设,创建分级保障和 ACL 权限管控,对重点业务进行独立管理。目前 Kafka 的 topic 通常只有 2 个副本,在某些特殊场景下存在数据丢失的风险,将来咱们会经过升级扩容,基于业务的重要程度提高副本数,强化集群的高可用性。后续咱们还会深刻研究 Kafka1.0,与 KafkaStreaming、KQL、Storm、Spark、Flink 等流式计算引擎相结合,依托 Kafka 打造公司级流式计算平台。

相关文章
相关标签/搜索