Spark读取HDFS文件,任务本地化(NODE_LOCAL)

Spark也有数据本地化的概念(Data Locality),这和MapReduce的Local Task差很少,若是读取HDFS文件,Spark则会根据数据的存储位置,分配离数据存储最近的Executor去执行任务。sql 这么理解没错,我搭建的Spark集群状况是这样:网络 15台DataNode节点的HDFS集群,我在每一个DataNode上都部署了一个Spark Worker,而且,启动S
相关文章
相关标签/搜索