Spark的架构中的基本组件。

·ClusterManager:在Standalone模式中即为Master(主节点),控制整个集群,监控 Worker。 在YARN模式中为资源管理器。 ·Worker:从节点,负责控制计算节点,启动Executor或Driver。 在YARN模式中为 NodeManager,负责计算节点的控制。 ·Driver:运行Application的main()函数并建立SparkContext。 ·E
相关文章
相关标签/搜索