Spark分布式集群搭建(一)Spark虚拟机集群搭建:Hadoop+Spark伪分布式集群(虚拟机)+IntellJIdea 的环境搭建

环境搭建顺序:1)安装hadoop  2)在hadoop上安装Spark集群  3)IntellJIdea连接Spark集群 写在前面:凡是涉及到的linux系统操作,建议以root用户权限进行工作 准备工作共有两项:虚拟机配置+SSH服务安装 准备工作1:虚拟机配置 1.1  安装 VMware Workstation 12 player(虚拟机软件) 1.2   在 VMware Workst
相关文章
相关标签/搜索