Spark开始 ———环境搭建

Standalone模式 准备好两台以上的Linux机器,安装好JDK1.7+ 1.下载并上传Spark安装包 注意与hadoop对应得版本号 下载链接:https://archive.apache.org/dist/spark/ 解压命令:tar -xf spark-2.1.1-bin-hadoop2.6.tgz -C ..........   2.配置Spark 配置位于conf文件夹中 1.
相关文章
相关标签/搜索