启动spark-shell遇到的问题

系统:Windows10 Spark 2.1.1+Hadoop 2.8.3+Scala 2.11.8+jdk1.8.0_171 最近在学习spark的东西,本来想按照官方文档学的,但是第一个例子就报错。 找了一下是启动spark-shell的时候就报错了已经 报错信息如下: <console>:14: error: not found: valuespark       import spark.
相关文章
相关标签/搜索