Kafka Stream

    Kafka Stream是Apache Kafka从0.10版本引入的一个新Feature(当前:1.0.0-rc0,参见:https://github.com/apache/kafka/releases),它提供了对存储于Kafka内的数据进行流式处理和分析的功能。其主要特色以下:html

  • Kafka Stream提供了一个很是简单而轻量的Library,它能够很是方便地嵌入任意Java应用中,也能够任意方式打包和部署
  • 除了Kafka外,无任何外部依赖
  • 充分利用Kafka分区机制实现水平扩展和顺序性保证
  • 经过可容错的state store实现高效的状态操做(如windowed join和aggregation)
  • 支持正好一次处理语义(exactly once)
  • 提供记录级的处理能力,从而实现毫秒级的低延迟
  • 支持基于事件时间的窗口操做,而且可处理晚到的数据(late arrival of records)
  • 同时提供底层的处理原语Processor(相似于Storm的spout和bolt),以及高层抽象的DSL(相似于Spark的map/group/reduce)

   简言之,Kafka Streams解决了流式处理中的以下困难问题node

  • 毫秒级延迟的逐个事件处理
  • 有状态的处理,包括分布式链接和聚合
  • 方便的DSL
  • 使用相似DataFlow的模型对无序数据进行窗口化
  • 具备快速故障切换的分布式处理和容错能力
  • 无停机滚动部署

  为何要有Kafka Streamgit


      当前已经有很是多的流式处理系统,最知名且应用最多的开源流式处理系统有Spark Streaming和Apache Storm。Apache Storm发展多年,应用普遍,提供记录级别的处理能力,当前也支持SQL on Stream。而Spark Streaming基于Apache Spark,能够很是方便与图计算,SQL处理等集成,功能强大,对于熟悉其它Spark应用开发的用户而言使用门槛低。另外,目前主流的Hadoop发行版,如MapR,Cloudera和Hortonworks,都集成了Apache Storm和Apache Spark,使得部署更容易。既然Apache Spark与Apache Storm拥用如此多的优点,那为什么还须要Kafka Stream呢?主要有以下缘由:github

  • 第一,Spark和Storm都是流式处理框架,而Kafka Stream提供的是一个基于Kafka的流式处理类库。框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难了解框架的具体运行方式,从而使得调试成本高,而且使用受限。而Kafka Stream做为流式处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便使用和调试。
  • 第二,虽然Cloudera与Hortonworks方便了Storm和Spark的部署,可是这些框架的部署仍然相对复杂。而Kafka Stream做为类库,能够很是方便的嵌入应用程序中,它对应用的打包和部署基本没有任何要求。更为重要的是,Kafka Stream充分利用了Kafka的分区机制和Consumer的Rebalance机制,使得Kafka Stream能够很是方便的水平扩展,而且各个实例可使用不一样的部署方式。具体来讲,每一个运行Kafka Stream的应用程序实例都包含了Kafka Consumer实例,多个同一应用的实例之间并行处理数据集。而不一样实例之间的部署方式并不要求一致,好比部分实例能够运行在Web容器中,部分实例可运行在Docker或Kubernetes中。
  • 第三,就流式处理系统而言,基本都支持Kafka做为数据源。例如Storm具备专门的kafka-spout,而Spark也提供专门的spark-streaming-kafka模块。事实上,Kafka基本上是主流的流式处理系统的标准数据源。换言之,大部分流式系统中都已部署了Kafka,此时使用Kafka Stream的成本很是低
  • 第四,使用Storm或Spark Streaming时,须要为框架自己的进程预留资源,如Storm的supervisor和Spark on YARN的node manager。即便对于应用实例而言,框架自己也会占用部分资源,如Spark Streaming须要为shuffle和storage预留内存。
  • 第五,因为Kafka自己提供数据持久化,所以Kafka Stream提供滚动部署和滚动升级以及从新计算的能力。
  • 第六,因为Kafka Consumer Rebalance机制,Kafka Stream能够在线动态调整并行度。

KTable vs. KStream数据库


    KTable和KStream是Kafka Stream中很是重要的两个概念,它们是Kafka实现各类语义的基础。所以这里有必要分析下两者的区别。apache

  • KStream是一个数据流,能够认为全部记录都经过Insert only的方式插入进这个数据流里。
  • KTable: 表明一个完整的数据集能够理解为数据库中的表。因为每条记录都是Key-Value对,这里能够将Key理解为数据库中的Primary Key,而Value能够理解为一行记录。能够认为KTable中的数据都是经过Update only的方式进入的。也就意味着,若是KTable对应的Topic中新进入的数据的Key已经存在,那么从KTable只会取出同一Key对应的最后一条数据,至关于新的数据更新了旧的数据。

    如下图为例,假设有一个KStream和KTable,基于同一个Topic建立,而且该Topic中包含以下图所示5条数据。此时遍历KStream将获得与Topic内数据彻底同样的全部5条数据,且顺序不变。而此时遍历KTable时,由于这5条记录中有3个不一样的Key,因此将获得3条记录,每一个Key对应最新的值,而且这三条数据之间的顺序与原来在Topic中的顺序保持一致。这一点与Kafka的日志compact相同。网络

       

   此时若是对该KStream和KTable分别基于key作Group,对Value进行Sum,获得的结果将会不一样。对KStream的计算结果是<Jack,4>,<Lily,7>,<Mike,4>。而对Ktable的计算结果是<Mike,4>,<Jack,3>,<Lily,5>多线程

State store :      架构

   流式处理中,部分操做是无状态的,例如过滤操做(Kafka Stream DSL中用filer方法实现)。而部分操做是有状态的,须要记录中间状态,如Window操做和聚合计算。框架

   State store被用来存储中间状态。它能够是一个持久化的Key-Value存储,也能够是内存中的HashMap,或者是数据库。Kafka提供了基于Topic的状态存储。Topic中存储的数据记录自己是Key-Value形式的,同时Kafka的log compaction机制可对历史数据作compact操做,保留每一个Key对应的最后一个Value,从而在保证Key不丢失的前提下,减小总数据量,从而提升查询效率。

   构造KTable时,须要指定其state store name。默认状况下,该名字也即用于存储该KTable的状态的Topic的名字,遍历KTable的过程,实际就是遍历它对应的state store,或者说遍历Topic的全部key,并取每一个Key最新值的过程。为了使得该过程更加高效,默认状况下会对该Topic进行compact操做。

   另外,除了KTable,全部状态计算,都须要指定state store name,从而记录中间状态

时间:

   在流式数据处理中,时间是数据的一个很是重要的属性。从Kafka 0.10开始,每条记录除了Key和Value外,还增长了timestamp属性。目前Kafka Stream支持三种时间

  • 事件发生时间:事件发生的时间包含在数据记录中。发生时间由Producer在构造ProducerRecord时指定。而且须要Broker或者Topic将message.timestamp.type设置为CreateTime(默认值)才能生效。
  • 消息接收时间:也即消息存入Broker的时间。当Broker或Topic将message.timestamp.type设置为LogAppendTime时生效。此时Broker会在接收到消息后,存入磁盘前,将其timestamp属性值设置为当前机器时间。通常消息接收时间比较接近于事件发生时间,部分场景下可代替事件发生时间。
  • 消息处理时间:也即Kafka Stream处理消息时的时间。

   注:Kafka Stream容许经过实现org.apache.kafka.streams.processor.TimestampExtractor接口自定义记录时间。

窗口:

   流式数据是在时间上无界的数据而聚合操做只能做用在特定的数据集,也即有界的数据集上所以须要经过某种方式从无界的数据集上按特定的语义选取出有界的数据。窗口是一种很是经常使用的设定计算边界的方式。不一样的流式处理系统支持的窗口相似,但不尽相同。Kafka Stream支持的窗口以下:

  • Hopping Time Window:  该窗口定义以下图所示。它有两个属性,一个是Window size,一个是Advance interval。Window size指定了窗口的大小,也即每次计算的数据集的大小。而Advance interval定义输出的时间间隔。一个典型的应用场景是,每隔5秒钟输出一次过去1个小时内网站的PV或者UV
  •  
  • Tumbling Time Window: 能够认为它是Hopping Time Window的一种特例,也即Window size和Advance interval相等。它的特色是各个Window之间彻底不相交
  • Sliding Window:该窗口只用于2个KStream进行Join计算时。该窗口的大小定义了Join两侧KStream的数据记录被认为在同一个窗口的最大时间差。假设该窗口的大小为5秒,则参与Join的2个KStream中,记录时间差小于5的记录被认为在同一个窗口中,能够进行Join计算。
  • Session Window:该窗口用于对Key作Group后的聚合操做中。它须要对Key作分组,而后对组内的数据根据业务需求定义一个窗口的起始点和结束点。一个典型的案例是,但愿经过Session Window计算某个用户访问网站的时间。对于一个特定的用户(用Key表示)而言,当发生登陆操做时,该用户(Key)的窗口即开始,当发生退出操做或者超时时,该用户(Key)的窗口即结束。窗口结束时,可计算该用户的访问时间或者点击次数等。

Join:

    kafka Stream因为包含KStream和Ktable两种数据集,所以提供以下Join计算

  • KTable Join KTable 结果仍为KTable。任意一边有更新,结果KTable都会更新。
  • KStream Join KStream 结果为KStream。必须带窗口操做,不然会形成Join操做一直不结束。
  • KStream Join KTable / GlobakKTable 结果为KStream。只有当KStream中有新数据时,才会触发Join计算并输出结果。KStream无新数据时,KTable的更新并不会触发Join计算,也不会输出数据。而且该更新只对下次Join生效。一个典型的使用场景是,KStream中的订单信息与KTable中的用户信息作关联计算。

   对于Join操做,若是要获得正确的计算结果,须要保证参与Join的KTable或KStream中Key相同的数据被分配到同一个Task。具体方法是

  • 参与Join的KTable或KStream的Key类型相同(实际上,业务含意也应该相同)
  • 参与Join的KTable或KStream对应的Topic的Partition数相同
  • Partitioner策略的最终结果等效(实现不须要彻底同样,只要效果同样便可),也即Key相同的状况下,被分配到ID相同的Partition内  

聚合与乱序处理:

    聚合操做可应用于KStream和KTable。当聚合发生在KStream上时必须指定窗口,从而限定计算的目标数据集。须要说明的是,聚合操做的结果确定是KTable。由于KTable是可更新的,能够在晚到的数据到来时(也即发生数据乱序时)更新结果KTable。

    这里举例说明。假设对KStream以5秒为窗口大小,进行Tumbling Time Window上的Count操做。而且KStream前后出现时间为1秒, 3秒, 5秒的数据,此时5秒的窗口已达上限,Kafka Stream关闭该窗口,触发Count操做并将结果3输出到KTable中(假设该结果表示为<1-5,3>)。若1秒后,又收到了时间为2秒的记录,因为1-5秒的窗口已关闭,若直接抛弃该数据,则可认为以前的结果<1-5,3>不许确。而若是直接将完整的结果<1-5,4>输出到KStream中,则KStream中将会包含该窗口的2条记录,<1-5,3>, <1-5,4>,也会存在肮数据。所以Kafka Stream选择将聚合结果存于KTable中,此时新的结果<1-5,4>会替代旧的结果<1-5,3>。用户可获得完整的正确的结果。这种方式保证了数据准确性,同时也提升了容错性。

    但须要说明的是,Kafka Stream并不会对全部晚到的数据都从新计算并更新结果集,而是让用户设置一个retention period,将每一个窗口的结果集在内存中保留必定时间,该窗口内的数据晚到时,直接合并计算,并更新结果KTable。超过retention period后,该窗口结果将从内存中删除,而且晚到的数据即便落入窗口,也会被直接丢弃。

容错:

    Kafka Stream从以下几个方面进行容错:

  • 高可用的Partition保证无数据丢失。每一个Task计算一个Partition,而Kafka数据复制机制保证了Partition内数据的高可用性,故无数据丢失风险。同时因为数据是持久化的,即便任务失败,依然能够从新计算。
  • 状态存储实现快速故障恢复和从故障点继续处理。对于Join和聚合及窗口等有状态计算,状态存储可保存中间状态。即便发生Failover或Consumer Rebalance,仍然能够经过状态存储恢复中间状态,从而能够继续从Failover或Consumer Rebalance前的点继续计算。
  • KTable与retention period提供了对乱序数据的处理能力。

Kafka Stream总体架构


    kafka stream的架构以下:

     

    前(Kafka 0.11.0.0)Kafka Stream的数据源只能如上图所示是Kafka。可是处理结果并不必定要如上图所示输出到Kafka。上图中的Consumer和Producer并不须要开发者在应用中显示实例化,而是由Kafka Stream根据参数隐式实例化和管理,从而下降了使用门槛。开发者只须要专一于开发核心业务逻辑,也即上图中Task内的部分。

Processor Topology:基于Kafka Stream的流式应用的业务逻辑所有经过一个被称为Processor Topology的地方执行。它与Storm的Topology和Spark的DAG相似,都定义了数据在各个处理单元(在Kafka Stream中被称做Processor)间的流动方式,或者说定义了数据的处理逻辑。 

Kafka Stream并行模型:Kafka Stream的并行模型中,最小粒度为Task,而每一个Task包含一个特定子Topology的全部Processor。所以每一个Task所执行的代码彻底同样,惟一的不一样在于所处理的数据集互补。以下图展现了在一个进程(Instance)中以2个Topic(Partition数均为4)为数据源的Kafka Stream应用的并行模型。从图中能够看到,因为Kafka Stream应用的默认线程数为1,因此4个Task所有在一个线程中运行。

       

为了充分利用多线程的优点,能够设置Kafka Stream的线程数。下图展现了线程数为2时的并行模型。

       

 Kafka Stream可被嵌入任意Java应用(理论上基于JVM的应用均可以)中,下图展现了在同一台机器的不一样进程中同时启动同一Kafka Stream应用时的并行模型。注意,这里要保证两个进程的StreamsConfig.APPLICATION_ID_CONFIG彻底同样。由于Kafka Stream将APPLICATION_ID_CONFI做为隐式启动的Consumer的Group ID。只有保证APPLICATION_ID_CONFI相同,才能保证这两个进程的Consumer属于同一个Group,从而能够经过Consumer Rebalance机制拿到互补的数据集。

      

既然实现了多进程部署,能够以一样的方式实现多机器部署。该部署方式也要求全部进程的APPLICATION_ID_CONFIG彻底同样。从图上也能够看到,每一个实例中的线程数并不要求同样。可是不管如何部署,Task总数总会保证一致。

      

应用示例 


   示例完整代码地址: https://github.com/habren/KafkaExample  ,Schemal结构说明:

  • orderStream:  订单KStream, 底层Topic的Partition数为3, Key为用户名,  Value包含用户名,商品名,订单时间,数量。
  • userTable:    用户KTable,  底层Topic的Partition数为3,  Key为用户名,  Value包含性别,地址和年龄。
  • itemTable:    商品KTable,  底层Topic的Partition数为6,  Key为商品名,  Value包含价格,种类和产地。

      如今但愿计算每小时购买产地与本身所在地相同的用户总数。

  1. 首先因为但愿使用订单时间,而它包含在orderStream的Value中,须要经过提供一个实现TimestampExtractor接口的类从orderStream对应的Topic中抽取出订单时
    • public class OrderTimestampExtractor implements TimestampExtractor {
      
        @Override
        public long extract(ConsumerRecord<Object, Object> record) {
          if(record instanceof Order) {
            return ((Order)record).getTS();
          } else {
            return 0;
          }
        }
      }

       

  2. 经过将orderStream与userTable进行Join,来获取订单用户所在地。因为两者对应的Topic的Partition数相同,且Key都为用户名,再假设Producer往这两个Topic写数据时所用的Partitioner实现相同,则此时上文所述Join条件知足,可直接进行Join(代码注释: 从下面代码中,能够看到,Join时须要指定如何从参与Join双方的记录生成结果记录的Value。Key不须要指定,由于结果记录的Key与Join Key相同,故无须指定。Join结果存于名为orderUserStream的KStream中)
    • orderUserStream = orderStream
          .leftJoin(userTable, 
               // 该lamda表达式定义了如何从orderStream与userTable生成结果集的Value
              (Order order, User user) -> OrderUser.fromOrderUser(order, user), 
               // 结果集Key序列化方式
              Serdes.String(),
               // 结果集Value序列化方式
               SerdesFactory.serdFrom(Order.class))
          .filter((String userName, OrderUser orderUser) -> orderUser.userAddress != null)

       

  3. 接下来须要将orderUserStream与itemTable进行Join,从而获取商品产地。此时orderUserStream的Key仍为用户名,而itemTable对应的Topic的Key为产品名,而且两者的Partition数不同,所以没法直接Join。此时须要经过through方法,对其中一方或双方进行从新分区,使得两者知足Join条件。这一过程至关于Spark的Shuffle过程和Storm的FieldGrouping(代码注释:从下面代码可见,through时须要指定Key的序列化器,Value的序列化器,以及分区方式和结果集所在的Topic。这里要注意,该Topic(orderuser-repartition-by-item)的Partition数必须与itemTable对应Topic的Partition数相同,而且through使用的分区方法必须与iteamTable对应Topic的分区方式同样。通过这种through操做,orderUserStream与itemTable知足了Join条件,可直接进行Join)
    • orderUserStrea
          .through(
              // Key的序列化方式
              Serdes.String(),
              // Value的序列化方式 
              SerdesFactory.serdFrom(OrderUser.class), 
              // 从新按照商品名进行分区,具体取商品名的哈希值,而后对分区数取模
              (String key, OrderUser orderUser, int numPartitions) -> (orderUser.getItemName().hashCode() & 0x7FFFFFFF) % numPartitions, 
              "orderuser-repartition-by-item")
          .leftJoin(itemTable, (OrderUser orderUser, Item item) -> OrderUserItem.fromOrderUser(orderUser, item), Serdes.String(), SerdesFactory.serdFrom(OrderUser.class))

小结:


  1. Kafka Stream的并行模型彻底基于Kafka的分区机制和Rebalance机制,实现了在线动态调整并行度
  2. 同一Task包含了一个子Topology的全部Processor,使得全部处理逻辑都在同一线程内完成,避免了没必要的网络通讯开销,从而提升了效率。
  3. through方法提供了相似Spark的Shuffle机制,为使用不一样分区策略的数据提供了Join的可能
  4. log compact提升了基于Kafka的state store的加载效率
  5. state store为状态计算提供了可能
  6. 基于offset的计算进度管理以及基于state store的中间状态管理为发生Consumer rebalance或Failover时从断点处继续处理提供了可能,并为系统容错性提供了保障
  7. KTable的引入,使得聚合计算拥用了处理乱序问题的能力

参考资料:


相关文章
相关标签/搜索