由于以前安装过hadoop,因此,在“Choose a package type”后面须要选择“Pre-build with user-provided Hadoop [can use with most Hadoop distributions]”,而后,点击“Download Spark”后面的“spark-2.1.0-bin-without-hadoop.tgz”下载便可。Pre-build with user-provided Hadoop: 属于“Hadoop free”版,这样,下载到的Spark,可应用到任意Hadoop 版本。 python
mv spark-2.1.0-bin-without-hadoop/ sparkweb
cp spark-env.sh.template spark-env.shshell
mv slaves.template slaves app
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)分布式
#上述表示Spark能够把数据存储到Hadoop分布式文件系统HDFS中,也能够从HDFS中读取数据。若是没有配置上面信息,Spark就只能读写本地数据,没法读写HDFS数据。ide
export JAVA_HOME=/usr/local/jdk64/jdk1.8.0oop
bin/run-example SparkPiui
bin/run-example SparkPi 2>&1 | grep "Pi is" #过滤显示出pi的值url
web界面为8080端口spa
spark-submit
--class <main-class> #须要运行的程序的主类,应用程序的入口点
--master <master-url> #Master URL,下面会有具体解释
--deploy-mode <deploy-mode> #部署模式
... # other options #其余参数
<application-jar> #应用程序JAR包
[application-arguments] #传递给主类的主方法的参数