在Yarn上运行spark-shell和spark-sql命令行

转载自:http://lxw1234.com/archives/2015/08/448.htmjava 若是你已经有一个正常运行的Hadoop Yarn环境,那么只须要下载相应版本的Spark,解压以后作为Spark客户端便可。mysql 须要配置Yarn的配置文件目录,export HADOOP_CONF_DIR=/etc/hadoop/conf 这个能够配置在spark-env.sh中。web
相关文章
相关标签/搜索