大数据之Spark面试题(不定时更新,欢迎补充)

  ### Spark有哪些组件 1)master:管理集群和节点,不参与计算。  2)worker:计算节点,进程自己不参与计算,和master汇报。  3)Driver:运行程序的main方法,建立spark context对象。  4)spark context:控制整个application的生命周期,包括dagsheduler和task scheduler等组件。  5)client:用
相关文章
相关标签/搜索