scala:spark版本导致的错误

笔者用的是1.6的老版本spark,在本地环境用的是2.11.8来完成代码编译,但是提交到集群跑的时候,报了上图的错。 查了一下,1.6的spark默认是用2.10的scala来编译的,而我本地用的是2.11,所以就出现了如上错误。 解决也很简单,将本地的scala环境换成scala2.10的就完事了。
相关文章
相关标签/搜索