spark1.63升级到spark2.3.1环境变量配置

因为spark2.3须要jdk1.8的支持,所以spark-submit与spark-sql须要指定jdk版本,具体方式见测试用例 1.修改我的用户配置文件.bashrc ,注释之前的spark环境与java环境,添加java vi ~/.bashrcsql #export SPARK_HOME=/opt/core/spark-1.6.3-bin-hadoop2.6shell #export JA
相关文章
相关标签/搜索