windows下 执行spark-shell 和 pyspark 自动退出 启动失败

spark hadoop jdk 环境均配置正确,可是在:shell 在cmd下执行spark-shell 或 pyspark 老是启动失败,在网上百度下,也没找到解决方案,后来试了下用“使用管理员的身份运行”cmd 再执行spark-shell 或 pyspark  启动成功oop
相关文章
相关标签/搜索