Spark集群搭建

一、上传解压压缩包,包括spark 和 scala 的压缩包,解压到/home/hadoop/apps目录下 二、修改conf 目录下配置文件 a. 修改 slaves 文件,( 若没有 slaves 文件能够 cp slaves.template slaves 建立), 添加 worker 节点的 Hostname, 修改后内容以下: # A Spark Worker will be start
相关文章
相关标签/搜索