hadoop 初识spark

spark部署 三台云服务器配置均为单核CPU、2G内存,集群开启zookeeper、journalnode、yarn。node 官网下载spark2.4.3 解压后在etc/profile加入SPARK_HOME/bin 编辑SPARK_HOME/conf/spark-env.sh,添加export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/had
相关文章
相关标签/搜索