核桃编程Delta Lake实时数仓应用实践

1.3 架构改造前方案 现有指标都是将Kafka/Mysql等的数据写入HDFS,使用Hive离线批处理,每10分钟执行一次,循环统计历史累计指标,再定时把数据同步到Mysql,提供给数据后台查询。如下图所示: image 1.4 遇到的问题 随着计算的数据量越来越大,逐渐不能满足业务的更新频率要求。 使用Apache Sqoop做全量数据同步,会对业务Mysql库/HDFS造成压力。 使用Apa
相关文章
相关标签/搜索