前言
随着公司规模的增加,对大数据的离线应用开发的需求愈来愈多,这些需求包括但不限于离线数据同步(MySQL/Hive/Hbase/Elastic Search 等之间的离线同步)、离线计算(Hive/MapReduce/Spark 等)、定时调度、运行结果的查询以及失败场景的报警等等。架构
在统一的大数据开发平台产生以前,面临一系列的问题: 并发
多个开发和调度入口,不一样的业务部门之间的项目或组件很难复用,同时带来繁重的运维成本
Hadoop 的环境对业务团队的同事来说不友好(除了要熟悉业务之外还须要对底层框架有比较深刻的了解)
重复的开发工做(例如导表、调度等原本能够复用的模块,却须要在多个项目中重复实现)
频繁的跨部门需求沟通和讨论
为了解决上述遇到的各种问题,同时参考了业界其余公司的大数据解决方案,咱们设计并实现了大数据开发平台(Data Platform,简称 DP) ,经过可视化的交互界面,解决离线大数据计算相关的各类环境和工具。负载均衡
本文将介绍 DP 的系统设计以及在有赞的落地状况,内容包括:框架
DP 的系统设计,包括架构设计,以及重点介绍了调度模块的设计
目前在有赞的落地现状
总结和展望
大数据开发平台的设计
架构设计
图1 DP系统架构图
大数据开发平台包括调度模块(基于开源airflow二次开发)、基础组件(包括公共的数据同步模块/权限管理等)、服务层(做业生命周期管理/资源管理/测试任务分发/Slave管理等)和监控(机器资源/日志/基于预测的监控)。这些模块具体功能和职责为:运维
**任务调度模块:**支持基于任务优先级的多队列、分布式调度。在开源的 airflow 基础上进行了二次开发,主要新增功能包括: * 增长多种任务类型(datax/datay/导出邮件/导出es/Spark等) * 根据任务的上下游关系以及重要程度,计算任务的全局优先级,根据全局优先级调度(优先级高的优先执行,低的则进入队列等待) * 跨 Dag 的任务依赖关系展现(基于全局 Dag,经过任务的读写Hive表信息创建跨 Dag 的依赖关系) * 一键 Clear 当前节点的全部依赖下游节点(支持跨Dag)
**基础模块:**包括离线的全量/增量数据同步、基于Binlog的增量同步、Hive 导出 ES /邮件、MySQL 同步到 Hbase (开发中)等,参考图2。
图2 DP支持的离线数据同步方式(箭头表示数据流向)
**服务模块:**负责做业的生命周期管理,包括做业的建立(修改)、测试、发布、运维等,服务部署采用 Master / Slave 模式,参考图3所示。其中 * Master 节点支持 HA 以及热重启(重启期间另一台提供服务,所以对用户是无感知的)。Master 节点的主要职责是做业的生命周期管理、测试任务分发、资源管理、经过心跳的方式监控 Slaves 等。 * Slave 节点分布在调度集群中,与 Airflow 的 worker 节点公用机器。Slave 节点的主要职责是执行 Master 分发的命令(包括测试、机器监控脚本等)、更新资源(经过 Gitlab )等。
图3 DP 部署图
**监控模块:**对调度集群的机器、资源、调度任务进行全方位的监控和预警。按照监控的粒度和维度分红三类: * _基础监控:_结合运维监控(进程、IO等)和自定义监控(包括任务环比波动监控、关键任务的产出时间监控等)对DP的Master节点和Worker节点进行基础的监控和报警。 * _日志监控:_经过将任务运行时产出的日志采集到 Kafka,而后通过 Spark Steaming 解析和分析,能够计算每一个任务运行的起止时间、Owner、使用到的资源量( MySQL 读写量、 Yarn 的 CPU / Memory 使用量、调度 Slot 的占用状况等),更进一步能够分析Yarn任务的实时运行日志,发现诸如数据倾斜、报错堆栈信息等数据。最后将这些数据存储在 NoSQL(好比 Redis )以进一步的加工和展现。 * _任务预测监控:_经过提早一段时间模拟任务的调度(不真正的跑任务),来预测任务的开始/结束时间,同时能够提前知道可能失败、超时的任务列表,进而在问题发生以前进行规避。分布式
* 现阶段已经实现的功能:分析可能失败的任务列表(失败的缘由多是DB的配置发生更改、上游的节点失败等)并发送告警信息;基于过去一段时间的运行时间数据,模拟整个任务调度,能够计算出任务的开始/结束时间以及超时告警。
* 将来规划:任务的运行时长不是基于过去的数据,而是经过读取的数据量、集群资源使用率、任务计算复杂程度等多个特征维度来预测运行时长。
复制代码
任务调度设计
大数据开发平台的任务调度是指在做业发布以后,按照做业配置中指定的调度周期(经过 crontab 指定)在一段时间范围内(经过开始/结束时间指定)周期性的执行用户代码。任务调度须要解决的问题包括:高并发
如何支持不一样类型任务?
如何提供任务调度的高并发(高峰时期每秒须要处理上百个任务执行)?
如何保证相对重要的任务(数据仓库任务)优先获取资源并执行?
如何在多台调度机器上实现负载均衡(主要指CPU/内存资源)?
如何保证调度的高可用?
任务调度的状态、日志等信息怎么比较友好的展现?
为了解决上述问题,咱们调研了多种开源框架(Azkaban/Oozie/Airflow等),最终决定采用 Airflow + Celery + Redis + MySQL 做为 DP 的任务调度模块,并结合公司的业务场景和需求,作了一些深度定制,给出了以下的解决方案(参考图4):工具
图4 基于Airflow + Celery + Redis + MySQL的任务调度
针对问题1 ,在 Airflow 原始的任务类型基础上,DP 定制了多种任务(实现 Operator ),包括基于 Datax 的导入导出任务、基于 Binlog 的 Datay 任务、Hive 导出 Email 任务、 Hive 导出 ElasticSearch 任务等等。
针对问题2 ,一方面经过 Airflow 提供的 Pool + Queue + Slot 的方式实现任务并发个数的管理,以及把未能立刻执行的任务放在队列中排队。另外一方面经过 Celery 能够实现了任意多台Worker的分布式部署(水平扩展),理论上调度没有并发上限。
针对问题3 ,在 Airflow 自己支持的优先级队列调度基础之上,咱们根据任务的上下游关系以及标记重要的任务节点,经过全局DAG计算出每一个节点的全局优先级,经过将该优先级做为任务调度的优先级。这样能够保证重要的任务会优先调度,确保重要任务产出时间的稳定性。
针对问题4 ,首先不一样类型的任务须要耗费不一样类型的资源,好比 Spark 任务是内存密集型、Datax 任务是 CPU 密集型等,若是将同一类任务集中在一台机器上执行,容易致使部分系统资源耗尽而另一部分资源空闲,同时若是一台机器的并发任务数过多,容易引发内存 OOM 以及 CPU 不断地切换进程上下文等问题。所以咱们的解决方式是:
将任务按照须要的资源量分红不一样类型的任务,每种类型的任务放到一个单独的调度队列中管理。
每一个队列设置不一样的 Slot ,即容许的最大并发数
每台 Worker 机器同时配置多个队列
基于这些配置,咱们能够保证每台 Worker 机器的 CPU /内存使用率保持在相对合理的使用率范围内,如图5所示
图5 调度Worker机器的内存使用状况
针对问题5 ,任务调度模块涉及到的角色包括 Scheduler (生产者)和 Worker (消费者),由于 Worker 原本就是分布式部署,所以部分机器不可用不会致使整个调度的不可用(其余节点能够继续服务)。而 Scheduler 存在单点问题,咱们的解决方案是除了 Active Scheduler 节点以外,新增一个 Standby Scheduler(参考图3),Standby节点会周期性地监听 Active 节点的健康状况,一旦发现 Active Scheduler 不可用的状况,则 Standby 切换为 Active 。这样能够保证 Scheduler 的高可用。
针对问题6 ,Airflow 自带的 Web 展现功能已经比较友好了。
现状
DP项目从2017年1月开始立项开发,6月份正式投入生产,以后通过了N轮功能迭代,在易用性和稳定性方面有了显著提高,目前调度集群包括2台Master和13台 Slave(调度)节点(其中2台用于 Scheduler ,另外11台用于 Worker ),天天支持7k+的任务调度,知足数据仓库、数据中心、BI、商品、支付等多个产品线的应用。oop
图6 DP调度任务数趋势图
目前DP支持的任务类型包括:测试
离线数据同步:
从 MySQL 到 Hive 的全量/增量数据同步(基于 Datax 二次开发)
从 Hive 到 MySQL 的全量/增量数据同步(基于 Datax 二次开发)
从 MySQL 经过 Binlog ,通过 Nsq/Hdfs/MapReduce 增量同步到 Hive( Datay ,自研)
从 MySQL 同步到 Hbase (基于 Datax 二次开发)
从 Hive 同步到 ElasticSearch (基于 Datax 二次开发)
Hadoop 任务:
Hive/MapReduce/Spark/Spark SQL
其余任务:
将 Hive 表数据以邮件形式导出(支持 PDF/Excel/Txt 格式的附件)
Python/Shell/Jar 形式的脚本任务
总结和展望
DP 在通过一年半的不断功能迭代和完善以后,目前日均支持7k+的任务调度,同时在稳定性和易用性方面也有了较大的提高,能够知足用户平常对大数据离线开发的大部分使用场景。同时咱们也意识到大数据开发这块还有不少能够挖掘和提高的点,将来咱们可能会从这些方面进一步完善平台的功能和提高用户体验:
更加丰富的任务类型
进一步整合其余平台或工具,作到大数据开发的一站式体验
提供用户首页(空间),提供平常运维工具和管理页面,更加方便任务的集中管理
任务日志管理优化(包括快速定位出错信息/拉取和分析 Yarn 日志等)