Spark工作原理

  基本概念 理解Spark的运行模式涉及一系列概念: (1)Cluster Manager:在集群上获取资源的外部服务。目前有三种类型:1. Standalone, Spark原生的资源管理;2. Apache Mesos, 和Hadoop Mapreduce兼容性良好  的资源调度框架;3. Hadoop Yarn, 主要指YARN中的ResourceManager. (2)Applicati
相关文章
相关标签/搜索