Apache Pulsar 是 Yahoo 开源的下一代分布式消息系统,在2018年9月从 Apache 软件基金会毕业成为顶级项目。Pulsar 特有的分层分片的架构,在保证大数据消息流系统的性能和吞吐量的同时,也提供了高可用性、高可扩展性和易维护性。算法
分片架构将消息流数据的存储粒度从分区拉低到了分片,以及相应的层级化存储,使 Pulsar 成为 unbounded streaming data storage 的不二之选。这使得 Pulsar 能够更完美地匹配和适配 Flink 的批流一体的计算模式。数据库
随着开源后,各行业企业能够根据不一样需求,为 Pulsar 赋予更丰富的功能,因此目前它也再也不只是中间件的功能,而是慢慢发展成为一个 Event Streaming Platform(事件流处理平台),具备 Connect(链接)、Store(存储)和 Process(处理)功能。json
在链接方面,Pulsar 具备本身单独的 Pub/Sub 模型,能够同时知足 Kafka 和 RocketMQ 的应用场景。同时 Pulsar IO 的功能,其实就是 Connector,能够很是方便地将数据源导入到 Pulsar 或从 Pulsar 导出等。缓存
另外,在Pulsar 2.5.0 中,咱们新增了一个重要机制:Protocol handler。这个机制支持在 broker 自定义添加额外的协议支持,能够保证在不更改原数据库的基础上,也能享用 Pulsar 的一些高级功能。因此 Pulsar 也延展出好比:KoP、ActiveMQ、Rest 等。网络
Pulsar 提供了可让用户导入的途径后就必然须要考虑在 Pulsar 上进行存储。Pulsar 采用的是分布式存储,最开始是在 Apache BookKeeper 上进行。后来添加了更多的层级存储,经过 JCloud 和 HDFS 等多种模式进行存储的选择。固然,层级存储也受限于存储容量。多线程
Pulsar 提供了一个无限存储的抽象,方便第三方平台进行更好的批流融合的计算。即 Pulsar 的数据处理能力。Pulsar 的数据处理能力其实是按照你数据计算的难易程度、实效性等进行了切分。架构
目前 Pulsar 包含如下几类集成融合处理方式:并发
从使用来看,Pulsar 的用法与传统的消息系统相似,是基于发布-订阅模型的。使用者被分为生产者(Producer)和消费者(Consumer)两个角色,对于更具体的需求,还能够以 Reader 的角色来消费数据。用户能够以生产者的身份将数据发布在特定的主题之下,也能够以消费者的身份订阅(Subscription)特定的主题,从而获取数据。在这个过程当中,Pulsar 实现了数据的持久化与数据分发,Pulsar 还提供了Schema 功能,可以对数据进行验证。分布式
以下图所示,Pulsar 里面有几种订阅模式:函数
Pulsar 里的主题分红两类,一类是分区主题(Partitioned Topic),一类是非分区主题(Not Partitioned Topic)。
分区主题其实是由多个非分区主题组成的。主题和分区都是逻辑上的概念,咱们能够把主题看做是一个大的无限的事件流,被分区切分红几条小的无限事件流。
而对应的,在物理上,Pulsar 采用分层结构。每一条事件流存储在一个 Segment 中,每一个Segment 包括了许多个Entry,Entry 里面存放的才是用户发送过来的一条或多条消息实体。
Message 是 Entry 中存放的数据,也是 Pulsar 中消费者消费一次得到的数据。Message 中除了包括字节流数据,还有 Key 属性,两种时间属性和 MessageId 以及其余信息。MessageId 是消息的惟一标识,包括了ledger-id、entry-id、 batch-index、 partition-index 的信息,以下图,分别记录了消息在Pulsar 中的Segment、Entry、Message、Partition 存储位置, 所以也能够据此从物理上找到Message的信息内容。
一个 Pulsar 集群由 Brokers 集群和 Bookies 集群组成。Brokers 之间是相互独立的,负责向生产者和消费者提供关于某个主题的服务。Bookies 之间也是相互独立的,负责存储 Segment 的数据,是消息持久化的地方。为了管理配置信息和代理信息,Pulsar 还借助了 Zookeeper 这个组件,Brokers 和 Bookies 都会在 zookeeper 上注册,下面从消息的具体读写路径(见下图)来介绍 Pulsar 的结构。
在写路径中,生产者建立并发送一条消息到主题中,该消息可能会以某种算法(好比Round robin)被路由到一个具体的分区上,Pulsar 会选择一个Broker 为这个分区服务,该分区的消息实际会被发送到这个 Broker上。当Broker 拿到一条消息,它会以 Write Quorum (Qw)的方式将消息写入到 Bookies 中。当成功写入到 Bookies 的数量达到设定时,Broker 会收到完成通知,而且 Broker 也会返回通知生产者写入成功。
在读路径中,消费者首先要发起一次订阅,以后才能与主题对应的 Broker 进行链接,Broker 从 Bookies 请求数据并发送给消费者。当数据接受成功,消费者能够选择向 Broker 发送确认信息,使得 Broker 可以更新消费者的访问位置信息。前面也提到,对于刚写入的数据,Pulsar 会存储在缓存中,那么就能够直接从 Brokers 的缓存中读取了,缩短了读取路径。
Pulsar 将存储与服务相分离,实现了很好的可拓展性,在平台层面,可以经过调整Bookies 的数量来知足不一样的需求。在用户层面,只须要跟 Brokers 通讯,而Brokers 自己被设计成没有状态的,当某个 Broker 因故障没法使用时,能够动态的生成一个新的 Broker 来替换。
首先,Pulsar Connector 在使用上是比较简单的,由一个 Source 和一个 Sink 组成,source 的功能就是将一个或多个主题下的消息传入到 Flink 的Source中,Sink的功能就是从 Flink 的 Sink 中获取数据并放入到某些主题下,在使用方式上,以下所示,与 Kafa Connector 很类似,使用时须要设置一些参数。
StreamExecutionEnvironment see = StreamExecutionEnvironment.getExecutionEnvironment(); Properties props = new Properties(); props.setProperty("topic", "test-source-topic") FlinkPulsarSource<String> source = new FlinkPulsarSource<>( serviceUrl, adminUrl, new SimpleStringSchema(), props); DataStream<String> stream = see.addSource(source); FlinkPulsarSink<Person> sink = new FlinkPulsarSink( serviceUrl, adminUrl, Optional.of(topic), // mandatory target topic props, TopicKeyExtractor.NULL, // replace this to extract key or topic for each record Person.class); stream.addSink(sink);
如今介绍 Kulsar Connector 一些特性的实现机制。
由于 Pulsar 中的 MessageId 是全局惟一且有序的,与消息在 Pulsar 中的物理存储也对应,所以为了实现 Exactly Once,Pulsar Connector 借助 Flink 的 Checkpoint 机制,将 MessageId 存储到 Checkpoint。
对于链接器的 Source 任务,在每次触发 Checkpoint 的时候,会将各个分区当前处理的 MessageId 保存到状态存储里面,这样在任务重启的时候,每一个分区均可以经过 Pulsar 提供的 Reader seek 接口找到 MessageId 对应的消息位置,而后从这个位置以后读取消息数据。
经过 Checkpoint 机制,还可以向存储数据的节点发送数据使用完毕的通知,从而能准确删除过时的数据,作到存储的合理利用。
考虑到Flink中的任务都是长时间运行的,在运行任务的过程当中,用户也许会须要动态的增长部分主题或者分区,Pulsar Connector 提供了自动发现的解决方案。
Pulsar 的策略是另外启动一个线程,按期的去查询设定的主题是否改变,分区有没有增删,若是发生了新增分区的状况,那么就额外建立新的Reader 任务去完成主题下的数据的反序列化,固然若是是删除分区,也会相应的减小读取任务。
在读取主题下的数据的过程当中,咱们能够将数据转化成一条条结构化的记录来处理。Pulsar 支持 Avro schema and avro/json/protobuf Message 格式类型的数据转化成 Flink 中的 Row格式数据。对于用户关心的元数据,Pulsar 也在 Row 中提供了对应的元数据域。
另外,Pulsar 基于 Flink 1.9 版本进行了新的开发,支持 Table API 和 Catalog,Pulsar 作了一个简单的映射,以下图所示,将 Pulsar 的租户/命名空间对应到 Catalog 的数据库,将主题对应为库中的具体表。
首先,以前提到 Pulsar 将数据存储在 Bookeeper 中,还能够导入到 Hdfs 或者 S3 这样的文件系统中,但对于分析型应用来讲,咱们每每只关心全部数据中每条数据的部分属性,所以采用列存储的方式对 IO 和网络都会有性能提高,Pulsar 也在尝试在Segment 中以列的方式存储。
其次,在原来的读路径中,不论是 Reader 仍是Comsumer,都须要经过 Brokers 来传递数据。若是采用新的 Bypass Broker方式,经过查询元数据,就能直接找到每条 Message 存储的 Bookie 位置,这样能够直接从 Bookie 读取数据,缩短读取路径,从而提高效率。
最后,Pulsar 相对 Kafka 来讲,因为数据在物理上是存放在一个个 Segment 中的,那么在读取的过程当中,经过提升并行化的方式,创建多线程同时读取多个 Segment,就可以提高整个做业的完成效率,不过这也须要你的任务自身对每一个Topic 分区的访问顺序没有严格要求,而且对于新产生的数据,是不保存在 Segement 的,仍是须要作缓存的访问来获取数据,所以,并行读取将成为一个可选项,为用户提供更多的选择方案。