搭建Spark集群

前提:系统已经安装了:JDK  Scala  Hadoopjava 1.解压安装包到指定目录 2.配置spark-env.sh export SCALA_HOME=/usr/scala export SPARK_HOME=/usr/spark export JAVA_HOME=/usr/java/jdk export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop
相关文章
相关标签/搜索