CDH版本中的集群安装更新spark2问题

CDH版本中的集群安装更新spark2问题 我使用的是CDH5.12.1,所以以此为例 在CDH5.12.1集群中,默认安装的Spark是1.6版本,这里需要将其升级为Spark2.1版本。经查阅官方文档,发现Spark1.6和2.x是可以并行安装的,也就是说可以不用删除默认的1.6版本,可以直接安装2.x版本,它们各自用的端口也是不一样的。 Cloudera发布Apache Spark 2概述(
相关文章
相关标签/搜索