大数据之spark集群架构

大数据之spark集群架构 采用主/从(Master-Slave)结构 Mater = Driver(驱动器):负责中央协调,调度各个分布式工做节点,控制器,负责整个集群的正常运行 Slave = worker(工做节点):计算节点,接收主节点命令、进行状态汇报 Executor(执行器):负责任务的执行
相关文章
相关标签/搜索