error: not found: value spark import spark.implicits._和not found: value spark import spark.sql

当启动spark的时候报这个错误 情况一:首先检查配置文件 /export/servers/spark/conf/spark-env.sh   情况二:如果第一步都没问题 ,就在此检查是否有这个错误   如果有你就查看 /export/servers/spark/jars里面是否有msql的包 如果没有将hive里面的lib下的包导入即可  cp /export/servers/hive-1.1.
相关文章
相关标签/搜索