Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也能够当作MQ系统),常见能够用于web/nginx日志、访问日志,消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。css
一个商业化消息队列的性能好坏,其文件存储机制设计是衡量一个消息队列服务技术水平和最关键指标之一。
下面将从Kafka文件存储机制和物理结构角度,分析Kafka是如何实现高效文件存储,及实际应用效果。html
Kafka部分名词解释以下:java
分析过程分为如下4个步骤:python
经过上述4过程详细分析,咱们就能够清楚认识到kafka文件存储机制的奥秘。nginx
假设实验环境中Kafka集群只有一个broker,xxx/message-folder为数据文件存储根目录,在Kafka broker中server.properties文件配置(参数log.dirs=xxx/message-folder),例如建立2个topic名称分别为report_push、launch_info, partitions数量都为partitions=4
存储路径和目录规则为:git
xxx/message-folder |--report_push-0 |--report_push-1 |--report_push-2 |--report_push-3 |--launch_info-0 |--launch_info-1 |--launch_info-2 |--launch_info-3
在Kafka文件存储中,同一个topic下有多个不一样partition,每一个partition为一个目录,partiton命名规则为topic名称+有序序号,第一个partiton序号从0开始,序号最大值为partitions数量减1。
若是是多broker分布状况,请参考kafka集群partition分布原理分析github
下面示意图形象说明了partition中文件存储方式:
web
图1
这样作的好处就是能快速删除无用文件,有效提升磁盘利用率。redis
读者从2.2节了解到Kafka文件系统partition存储方式,本节深刻分析partion中segment file组成和物理结构。sql
下面文件列表是笔者在Kafka broker上作的一个实验,建立一个topicXXX包含1 partition,设置每一个segment大小为500MB,并启动producer向Kafka broker写入大量数据,以下图2所示segment文件列表形象说明了上述2个规则:
图2
以上述图2中一对segment file文件为例,说明segment中index<—->data file对应关系物理结构以下:
图3
上述图3中索引文件存储大量元数据,数据文件存储大量消息,索引文件中元数据指向对应数据文件中message的物理偏移地址。
其中以索引文件中元数据3,497为例,依次在数据文件中表示第3个message(在全局partiton表示第368772个message)、以及该消息的物理偏移地址为497。
从上述图3了解到segment data file由许多message组成,下面详细说明message物理结构以下:
图4
关键字 | 解释说明 |
---|---|
8 byte offset | 在parition(分区)内的每条消息都有一个有序的id号,这个id号被称为偏移(offset),它能够惟一肯定每条消息在parition(分区)内的位置。即offset表示partiion的第多少message |
4 byte message size | message大小 |
4 byte CRC32 | 用crc32校验message |
1 byte “magic" | 表示本次发布Kafka服务程序协议版本号 |
1 byte “attributes" | 表示为独立版本、或标识压缩类型、或编码类型。 |
4 byte key length | 表示key的长度,当key为-1时,K byte key字段不填 |
K byte key | 可选 |
value bytes payload | 表示实际消息数据。 |
例如读取offset=368776的message,须要经过下面2个步骤查找。
第一步查找segment file
上述图2为例,其中00000000000000000000.index表示最开始的文件,起始偏移量(offset)为0.第二个文件00000000000000368769.index的消息量起始偏移量为368770 = 368769 + 1.一样,第三个文件00000000000000737337.index的起始偏移量为737338=737337 + 1,其余后续文件依次类推,以起始偏移量命名并排序这些文件,只要根据offset **二分查找**文件列表,就能够快速定位到具体文件。
当offset=368776时定位到00000000000000368769.index|log
第二步经过segment file查找message
经过第一步定位到segment file,当offset=368776时,依次定位到00000000000000368769.index的元数据物理位置和00000000000000368769.log的物理偏移地址,而后再经过00000000000000368769.log顺序查找直到offset=368776为止。
从上述图3可知这样作的优势,segment index file采起稀疏索引存储方式,它减小索引文件大小,经过mmap能够直接内存操做,稀疏索引为数据文件的每一个对应message设置一个元数据指针,它比稠密索引节省了更多的存储空间,但查找起来须要消耗更多的时间。
实验环境:
图5
从上述图5能够看出,Kafka运行时不多有大量读磁盘的操做,主要是按期批量写磁盘操做,所以操做磁盘很高效。这跟Kafka文件存储中读写message的设计是息息相关的。Kafka中读写message有以下特色:
写message
读message
下面分别说一下这三种存储方式的实现
下面的代码案例实现了test这一topic的数据连续消费
from kafka import KafkaConsumer class KafkaStreamTest: ''' This class consume all external Kafka topics''' def __init__(self): self.appName = "kafkatest" self.kafkaHosts = "192.168.4.201:6667,192.168.4.231:6667" self.kafkaAutoOffsetReset = "largest" self._kafka_topic = "test" def start(self): reload(sys) sys.setdefaultencoding('utf-8') elogging.debug(self.appName, elogging.normalCID(), "receiver starting") consumer = KafkaConsumer('test', bootstrap_servers=['192.168.4.201:6667','192.168.4.231:6667'], enable_auto_commit=True, auto_offset_reset='earliest') #consumer = KafkaConsumer('test', bootstrap_servers=['192.168.4.201:6667', '192.168.4.231:6667'], auto_offset_reset='earliest') while True: # The definition of KafkaMessage: # KafkaMessage = namedtuple("KafkaMessage", # ["topic", "partition", "offset", "key", "value"]) kafkaMsg = consumer.next() # for debug print kafkaMsg.topic, kafkaMsg.partition, kafkaMsg.offset, kafkaMsg.key, kafkaMsg.value if __name__ =="__main__": test = KafkaStreamTest() test.start()
enable_auto_commit (bool) – If True , the consumer’s offset will be periodically committed in the background. Default: True设置为true,表示offset自动托管到kafka内部的一个特定名称为__consumer_offsets的topic
auto_offset_reset:What to do when there is no initial offset in Kafka or if the current offset does not exist any more on the server (e.g. because that data has been deleted):
只有当offset不存在的时候,才用latest或者earliest
其余详细内容请参看
https://github.com/dpkp/kafka-python
https://kafka-python.readthedocs.io/en/master/apidoc/KafkaConsumer.html
https://stackoverflow.com/questions/35432326/how-to-get-latest-offset-for-a-partition-for-a-kafka-topic
Kafka 如何读取offset topic内容 (__consumer_offsets)
kafka 0.9.0.0 __consumer_offsets日志清理问题?
Kafka 0.10.2<auto.offset.reset和enable.auto.commit>
请参考
spark createDirectStream保存kafka offset
import os import sys sys.path.append("..") sys.path.append(sys.argv[0][:sys.argv[0].rfind(os.path.join('com','ericsson'))]) import copy import traceback import redis from pyspark import SparkContext, SparkConf from pyspark.streaming import StreamingContext, DStream from pyspark.sql import SQLContext import simplejson as json from com.ericsson.analytics.fms.common.common import ELogForDistributedApp,getSqlContextInstance from pyspark.streaming.kafka import KafkaUtils,TopicAndPartition from com.ericsson.analytics.oamf.client.logging import elogging from com.ericsson.analytics.fms.common.common import HDFSOperation class KafkaStreamTest: ''' This class consume all external Kafka topics, store the data into Parquet and send the data to internal Kafka topics ''' def __init__(self): self.appName = "kafkatest" self.kafkaHosts = "192.168.4.201:6667,192.168.4.231:6667" self.kafkaAutoOffsetReset = "largest" self.kafka_offset_redis_db = 6 self._kafka_topic = "test" self.redisHost = "192.168.4.231" self.redisPort = 6379 self.spark_batch_duration = 20 def createStreamingContext(self, sc): ssc = StreamingContext(sc, self.spark_batch_duration) ds = self.getDStreamFromKafka(ssc) if ds is not None: elogging.info(self.appName, elogging.normalCID(), "Kafka succeeded to getting the data") return ssc, ds else: return None, None def getDStreamFromKafka(self, ssc): kafkaParams = {"metadata.broker.list": self.kafkaHosts} elogging.debug(self.appName, elogging.normalCID(), kafkaParams) sc = ssc.sparkContext dstream = None try: redisConn = self.getRedisConnection(self.kafka_offset_redis_db) if redisConn.exists(self.appName): elogging.debug(self.appName, elogging.normalCID(), "key " + self.appName + " exists in redis") fromOffset = {} offsetListStr = redisConn.get(self.appName) offsetList = eval(offsetListStr) for offset in offsetList: elogging.debug(self.appName, elogging.normalCID(), str(offset)) topicPartion = TopicAndPartition(offset["topic"], offset["partition"]) fromOffset[topicPartion] = offset["untilOffset"] dstream = KafkaUtils.createDirectStream(ssc, [self._kafka_topic], kafkaParams, fromOffset) else: kafkaParams = {"metadata.broker.list": self.kafkaHosts, "auto.offset.reset": self.kafkaAutoOffsetReset} elogging.debug(self.appName, elogging.normalCID(), "key " + self.appName + " doesn't exist in redis") dstream = KafkaUtils.createDirectStream(ssc, [self._kafka_topic], kafkaParams) except: traceInfo = traceback.format_exc() elogging.error(self.appName, elogging.faultCID(), "failed to create DStream : " + traceInfo) return dstream def getRedisConnection(self, redisDB): try: pool = redis.ConnectionPool(host=self.redisHost, port=self.redisPort, db=redisDB) redisConn = redis.Redis(connection_pool=pool) except: traceInfo = traceback.format_exc() elogging.error(self.appName, elogging.faultCID(), "failed to create DStream : " + traceInfo) return None return redisConn def getOffSetRangesFromRDD(self, rdd): try: offsetRanges = rdd.offsetRanges() except: traceInfo = traceback.format_exc() elogging.error(self.appName, elogging.faultCID(), "failed to call rdd.offsetRanges() function : " + traceInfo) return None offsetList = [] for offset in offsetRanges: offsetList.append({"topic": offset.topic, "partition": offset.partition, "fromOffset": offset.fromOffset, "untilOffset": offset.untilOffset}) elogging.info(self.appName, elogging.normalCID(), "getOffSetRangesFromRDD, offsetList: " + str(offsetList)) return offsetList def saveOffSetRangesToRedis(self, offsetList): redisConn = self.getRedisConnection(self.kafka_offset_redis_db) if redisConn is not None: redisConn.set(self.appName, offsetList) elogging.info(self.appName, elogging.normalCID(), "saveOffSetRangesToRedis, offsetList : " + str(offsetList)) def handleMessages(self, runTime, rdd): elogging.debug(self.appName, elogging.normalCID(), "========= %s =========" % str(runTime)) offsetList = self.getOffSetRangesFromRDD(rdd) if offsetList is not None: self.saveOffSetRangesToRedis(offsetList) rddFilter = rdd.map(lambda p: p[1]) counts = rddFilter.flatMap(lambda line: line.split(" ")) \ .map(lambda word: (word, 1)) \ .reduceByKey(lambda a, b: a + b) sqlContext = getSqlContextInstance(rddFilter.context) if counts is not None: df = sqlContext.createDataFrame(counts) df.show() def start(self): reload(sys) sys.setdefaultencoding('utf-8') sc = SparkContext(appName=self.appName) eloggingConfig = None try: eloggingConfig = HDFSOperation.getConfigFromHDFS(ELogForDistributedApp.LOGHDFSPATH, sc) elogging.initLogFromDict(eloggingConfig) except StandardError, se: pass elogging.debug(self.appName, elogging.normalCID(), "receiver starting") configInfoStr = 'kafkaHosts:' + str(self.kafkaHosts) + ', kafkaAutoOffsetReset:' + str(self.kafkaAutoOffsetReset) + \ ', kafka_offset_redis_db:' + str(self.kafka_offset_redis_db) + ', spark_batch_duration:' + str(self.spark_batch_duration) + \ ', redisHost:' + str(self.redisHost) + ', redisPort:' + str(self.redisPort) elogging.info(self.appName, elogging.normalCID(), configInfoStr) ssc, newDS = self.createStreamingContext(sc) if newDS is not None: newDS.foreachRDD(self.handleMessages) ssc.start() elogging.debug(self.appName, elogging.normalCID(), "StreamingContext start") ssc.awaitTermination() elogging.debug(self.appName, elogging.normalCID(), "receiver end") else: traceInfo = traceback.format_exc() elogging.error(self.appName, elogging.faultCID(), "Failed to create DStream " + traceInfo) if __name__ =="__main__": test = KafkaStreamTest() test.start()
Kafka高效文件存储设计特色