Hadoop系统架构

1、Hadoop系统架构图架构

Hadoop1.0与hadoop2.0架构对比图框架

 

YARN架构:分布式

ResourceManager函数

–处理客户端请求
–启动/监控ApplicationMaster
–监控NodeManager
–资源分配与调度

NodeManageroop

–单个节点上的资源管理
–处理来自ResourceManager的命令
–处理来自ApplicationMaster的命令

ApplicationMaster设计

–数据切分
–为应用程序申请资源,并分配给内部任务
–任务监控与容错
 
YARN做业处理流程:
 

步骤1 用户向YARN 中提交应用程序, 其中包括ApplicationMaster 程序、启动ApplicationMaster 的命令、用户程序等。blog

步骤2 ResourceManager 为该应用程序分配第一个Container, 并与对应的NodeManager 通讯,要求它在这个Container 中启动应用程序的ApplicationMaster。排序

步骤3 ApplicationMaster 首先向ResourceManager 注册, 这样用户能够直接经过ResourceManage 查看应用程序的运行状态,而后它将为各个任务申请资源,并监控它的运行状态,直到运行结束,即重复步骤4~7。进程

步骤4 ApplicationMaster 采用轮询的方式经过RPC 协议向ResourceManager 申请和领取资源。hadoop

步骤5 一旦ApplicationMaster 申请到资源后,便与对应的NodeManager 通讯,要求它启动任务。

步骤6 NodeManager 为任务设置好运行环境(包括环境变量、JAR 包、二进制程序

等)后,将任务启动命令写到一个脚本中,并经过运行该脚本启动任务。

步骤7 各个任务经过某个RPC 协议向ApplicationMaster 汇报本身的状态和进度,以让ApplicationMaster 随时掌握各个任务的运行状态,从而能够在任务失败时从新启动任务。在应用程序运行过程当中,用户可随时经过RPC 向ApplicationMaster 查询应用程序的当

前运行状态。

步骤8 应用程序运行完成后,ApplicationMaster 向ResourceManager 注销并关闭本身。

 

运行在YARN上带来的好处 :

–一个集群部署多个版本
–计算资源按需伸缩
–不一样负载应用混搭,集群利用率高
–共享底层存储,避免数据跨集群迁移
 
Hadoop 2.0  HA实现方式说明:

利用共享存储在两个NN间同步edits信息,如NFS等中高端存储设备内部的各类RAID以及冗余硬件

DataNode同时向两个NN汇报块信息,让Standby NN保持集群最新状态

用FailoverController watchdog进程监视和控制NN进程,防止因  NN FullGC挂起没法发送heart beat

防止脑裂(brain-split):主备切换时因为切换不完全等缘由致使Slave误觉得出现两个active master,一般采用Fencing机制:

-共享存储fencing,确保只有一个NN能够写入edits

-客户端fencing,确保只有一个NN能够响应客户端的请求

- DN fencing,确保只有一个NN能够向DN下发删除等命令

 

HDFS文件读取:

 

HDFS文件写入:

 

MapReduce基本流程:

从MapReduce 自身的命名特色能够看出, MapReduce 由两个阶段组成:Map 和Reduce。用户只需编写map() 和 reduce() 两个函数,便可完成简单的分布式程序的设计。

map() 函数以key/value 对做为输入,产生另一系列 key/value 对做为中间输出写入本地磁盘。 MapReduce 框架会自动将这些中间数据按照 key 值进行汇集,且key 值相同(用户可设定汇集策略,默认状况下是对 key 值进行哈希取模)的数据被统一交给 reduce() 函数处理。

reduce() 函数以key 及对应的value 列表做为输入,经合并 key 相同的value 值后,产生另一系列 key/value 对做为最终输出写入HDFS

hello world --WordCount

用户编写完MapReduce 程序后,按照必定的规则指定程序的输入和输出目录,并提交到Hadoop 集群中。做业在Hadoop 中的执行过程如图所示。Hadoop 将输入数据切分红若干个输入分片(input split,后面简称split),并将每一个split 交给一个Map Task 处理;Map Task 不断地从对应的split 中解析出一个个key/value,并调用map() 函数处理,处理完以后根据Reduce Task 个数将结果分红若干个分片(partition)写到本地磁盘;同时,每一个Reduce Task 从每一个Map Task 上读取属于本身的那个partition,而后使用基于排序的方法将key 相同的数据汇集在一块儿,调用reduce() 函数处理,并将结果输出到文件中

相关文章
相关标签/搜索