spark集群安装

1.准备环境 2.安装JDK 3.下载spark安装包(可以先下载在Windows端再上传到Linux端) 4.解压spark并修改配置文件(两个配置文件,第一个配置文件添加了3个配置文件) 5.将配置好的spark安装程序拷贝给其他机器 6.启动spark(sbin/start-all.sh) 问题:Worker怎么知道Master在哪里呢? 给其他机器发送指令其实是调用:spark/sbin/
相关文章
相关标签/搜索