windows使用命令行启动pyspark报错

安装Hadoop https://www.cnblogs.com/chevin/p/9090683.html 安装Spark https://www.cnblogs.com/chevin/p/11064854.html 这里有一个坑,一开始电脑用的是3.8的python,然后命令行启动pyspark一直报错,如下图 无法正确初始化Spark和SparkContext Traceback (most
相关文章
相关标签/搜索