Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程

一、修改hosts文件 在主节点,就是第一台主机的命令行下; vim /etc/hosts 我的是三台云主机: 在原文件的基础上加上; ip1 master worker0 namenode ip2 worker1 datanode1 ip3 worker2 datanode2 其中的ipN代表一个可用的集群IP,ip1为master的主节点,ip2和iip3为从节点。 二、ssh互信(免密码登录
相关文章
相关标签/搜索