spark 3.0 集群配置

下载spark安装包:https://spark.apache.org/downloads.html 下载对应hadoop版本的spark即可。 解压,得到目录如下: 配置环境变量。依然采用在/etc/profile.d/下创建spark.sh。 配置spark: 进入conf文件夹,复制配置文件的模板,命名为spark-env.sh。 cp spark-env.sh.template spark
相关文章
相关标签/搜索