spark的任务执行流程解析

1、从架构上看Spark的Job工做(Master\Worker)算法 [睡着的水-hzjs-2016.8.18]shell 1.Master节点上是Master进程,主要是管理资源的,资源主要是内存和CPU。Master可以接收客户端发送的程序而且为程序进行注册。worker节点有worker进程,负责当前节点的内存和cpu的使用,spark是主从结构式架构。编程 2.Spark运行做业的方式有
相关文章
相关标签/搜索