基于Livy的Spark提交平台搭建与开发

  为了方便使用Spark的同窗提交任务以及增强任务管理等缘由,经调研采用Livy比较靠谱,下图大体罗列一下几种提交平台的差异。html

 

  本文会以基于mac的单机环境搭建一套Spark+Livy+Hadoop来展现如何提交任务运行,本文只针对框架可以运行起来,至于各个组件参数怎么配置性能更好,各位兄弟就自行找度娘了。java

一.搭建Sparknode

    访问http://spark.apache.org/downloads.html下载安装包,而后按照如下步骤操做便可。apache

1.下载完成后解压到某个目录下,在该目录执行如下命令vim

    tar zxvf spark-2.1.0-hadoop2.7.tgz框架

2.配置Spark环境变量oop

    Mac环境变量通常在/etc/profile下配置,打开profile文件在文件中添加。性能

    #SPARK VARIABLES START测试

    export SPARK_HOME =/usr/local/spark-2.1.0-hadoop2.7lua

    export PATH = ${PATH}:${SPARK_HOME}/bin

    #SPARK VARIABLES END

3.配置Java环境

    一样在/etc/profile下配置。在此以前已经安装scala和jdk相关环境。将java安装目录添加到里面export JAVA_HOME =/Library/java/javaVirtualMachines/jdk1.8.0_111.jdk/COntents/Home 设置完成后,保存退出,最后使用source /etc/profile 使环境变量生效。

4.执行sbin/start-all.sh,启动spark

5.测试

 打开终端,输入pyspark,出现下面的画面即表示安装成功。

 

 

二.Livy安装

1.去https://www.apache.org/dyn/closer.lua/incubator/livy/0.6.0-incubating/apache-livy-0.6.0-incubating-bin.zip下载安装包。

2.解压安装包,而且编辑livy.conf,添加红框中的参数便可。

 

 

而后编辑livy-env.sh,添加Spark的安装目录配置。

 

 

3.最后bin/livy-server start启动Livy便可

 

 

三.Hadoop安装

1.去https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/下载安装包,并解压

2.修改各类配置,vim core-site.xml,修改成

 

 修改hdfs-site.xml为

 

3.配置环境变量

export HADOOP_HOME=/User/deploy/software/hadoop/hadoop-2.8.5

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"

export  HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

4.格式化节点

 

5.执行sbin/start-all.sh启动Hadoop,出现如下界面说明安装成功

yarn和hadoop安装是一体的,访问判断yarn是否安装成功

 

6.若是datanode没有启动成功,就去配置的NameNode下的current/VERSION中的clusterID复制到DataNode下的VERSION便可。

四.开发代码提交任务

    经过上面的步骤基础环境就已经搭建好,接着就是开发接口提交任务。部分代码截图以下:

 

 

 

 

 

 五.关注公众号获取源码

相关文章
相关标签/搜索