spark1.6转到spark2.3总结(依赖、版本、初始化问题)

问题:pom里面不写spark版本(<spark.version>2.0.0</spark.version>)的话,可能会默认用spark1.6致使版本冲突异常——语法经过但没法编译运行 问题(spark版本必须对应Scala版本):参考https://mvnrepository.com/artifact/org.apache.spark/spark-hive上面的spark和Scala混搭版本(
相关文章
相关标签/搜索