spark与scala jar包版本冲突问题

例如spark1.6.0是基于scala2.10.x的,若是用intellj建立基于scala2.11.x的项目,打包出来的jar包,用spark-submit运行spark任务时,会遇到NoSuchMethodError:scala.Predef$.ArrowAssoc异常。java 例如代码里有下面这样的Map代码,apache val numbers = Map("one" -> 1, "t
相关文章
相关标签/搜索