kafka系列-kafka多分区的状况下保证数据的有序性

场景 mysql的数据-->经过canal-->发送到kafka-->mysql、hivejava 在作canal集成kafka的时候,发现一个问题,多分区的状况下,跨分区的数据消费是无序的。mysql 这时候就会出现问题,若是消费端消费的更新日志在插入日志以前,就会由于数据缺失致使异常(这样的状况随着并发出现的几率会增大),因此,须要保证新增的日志和更新的日志是有序的被消费。sql kafka发
相关文章
相关标签/搜索