PostgreSQL逻辑复制到kafka-实践

kafka 安装java

  wget http://mirror.bit.edu.cn/apache/kafka/2.3.0/kafka_2.12-2.3.0.tgznode

  cp kafka_2.12-2.0.1.tgz  kafka.tgzgit

      sudo tar xzvf kafka.tgz --directory=/opt/java/kafka --strip 1github

 

启动 kafka须要先启动本地的 zookeeper,注意修改配置文件中zk的链接地址web

 

  /opt/kafka/bin/kafka-server-start.sh   /opt/kafka/config/server.propertiessql

 

kafkacat 是一个C语言编写的 kafka 生产者、消费者程序。安装过程须要一些库可能须要手动下载。apache

postgres 逻辑解码, 程序 jsoncdcjson

jsoncdc 依赖于rust可能须要先安装 rust 或者能够使用 wal2json替代bootstrap

编译好以后本地目录下有 jsoncdc.so 或者 wal2json.sovim

 

postgres 安装解码插件:

vim  $PGDATA/postgresql.conf

shared_preload_libraries = 'jsoncdc.so'

安装完成插件

postgres 插入数据

 

生产数据到本地 kafka

/opt/bin/pgsql/pg_10/bin/pg_recvlogical -d postgres -S jsoncdc --start -o pretty-print=1 -f - | ./kafkacat/kafkacat -b 127.0.0.1:9092 -t pg

 Auto-selecting Producer mode (use -P or -C to override)

 

消费数据测试:

./kafkacat/kafkacat -b 127.0.0.1:9092 -t pg

 

 

kafka自消费实验:

 

启动zk,我这边有zk服务器,所以不须要启动:

bin/zookeeper-server-start.sh config/zookeeper.properties &

 

启动kafka

bin/kafka-server-start.sh config/server.properties

在里面修改zk链接信息

 

建立topic

bin/kafka-topics.sh --create --zookeeper --replication-factor 1 --partitions 1 --topic test

 

建立一个叫作“test”topic,它只有一个分区,一个副本。

> bin/kafka-topics.sh --create --zookeeper 10.9.5.20:4119,10.9.5.21:4119,10.9.5.22:4119,10.9.5.24:4119,10.9.5.35:4119,10.9.5.36:4119 --replication-factor 1 --partitions 1 --topic test

 

能够经过list命令查看建立的topic:

> bin/kafka-topics.sh --list --zookeeper localhost:2181

test

 

运行producer并在控制台中输一些消息,这些消息将被发送到服务端:

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 

This is a messageThis is another message

ctrl+c能够退出发送。

 

消费消息:

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --consumer.config config/server.properties --topic test --from-beginning

 

接下来想写一个nodejs程序,将pg的变化动态回放到web中,显示出来。

相关文章
相关标签/搜索