【干货】Kafka实现淘宝亿万级数据统计(上)

在ActiveMQ、RabbitMQ、RocketMQ、Kafka消息中间件之间,咱们为何要选择Kafka?数据库

下面详细介绍一下,2012年9月份我在支付宝作余额宝研发,2013年6月支付宝正式推出余额宝,2013年8月担任支付宝淘宝彩票项目经理带领兄弟们一块儿作研发,期间须要与淘宝和500万对接竞彩接口数据。缓存

经过业余时间与淘宝同事沟通,了解到天猫在电商节如何处理大数据?技术架构上采用了哪些策略?session

一、应用无状态(淘宝session框架)架构

二、有效使用缓存(Tair)并发

三、应用拆分(HSF)框架

四、数据库拆分(TDDL)异步

五、异步通讯(Notify)分布式

六、非结构化数据存储 ( TFS,NOSQL)学习

七、监控、预警系统大数据

八、配置统一管理

天猫的同事把大体的架构跟我描述了一番,心有感悟。我们来看一下2018年双11当天的成交额。

2、kafka实现天猫亿万级数据统计架构

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各种数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各类数据接受方(可定制)的能力。

Data Access:数据通道

Computing:计算

Persistence:执行保存方式

spout:表示一个流的源头,产生tuple

bolt:处理输入流并产生多个输出流,能够作简单的数据转换计算,复杂的流处理通常须要通过多个bolt进行处理。

为何不能用分布式文件HDFS集群?

一、实时性:hdfs的实时性没有kafka高。

二、消费量的记录:hdfs不会记录你这个块文件消费到了哪里,而基于zookeeper的kafka会记录你消费的点。

三、并发消费:hdfs不支持并发消费,而kafka支持并发消费,即多个consumer。

四、弹性且有序:当数据量会很大,并且处理完以后就能够删除时,频繁的读写会对hdfs中NameNode形成很大的压力。而kafka的消费点是记录在zookeeper的,而且kafka的每条数据都是有“坐标”的,因此消费的时候只要这个“坐标”向后移动就好了,并且删除的时候只要把这个“坐标”以前的数据删掉便可。

3、什么是Kafka?

经过上图就能够了解到,生产者Producers(农民和厨师),消费主题top(鱼,骨头,草,香蕉),消费者Comsumer(猫,狗,老牛,猴子),生产者根据消费主题获取本身想要的食物。

4、Kafka架构原理

欢迎加入Java进阶架构交流:加入142019080。

直接点击连接加群。https://jq.qq.com/?_wv=1027&k=5lXBNZ7 获取最新学习资料

相关文章
相关标签/搜索