在ubuntu上搭建spark (单机环境)

在ubuntu上搭建spark,记录一下   环境:ubuntu 16.04 spark-2.3.1-bin-hadoop2.7.tgz http://spark.apache.org/docs/latest/quick-start.html   使用已有的hadoop用户登录 1.安装JDK,配置Java环境; 2.安装Scala 注意Scala和Spark的版本对应关系 sudo apt in
相关文章
相关标签/搜索