大数据面试系列之——Spark

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。html 1.Spark有几种部署模式,各个模式的特色 1.本地模式 Spark不必定非要跑在hadoop集群,能够在本地,起多个线程的方式来指定。方便调试,本地模式分三类 local:只启动一个executor local[k]: 启动k个executor local:启动跟cpu数目相同的 executor 2.stan
相关文章
相关标签/搜索