python调用pyspark的环境配置

1.安装jdk并配置JAVA_HOME以及添加到环境变量中。 2.首先在本地安装spark的运行环境,如果是纯粹使用spark,那么本地可以不配置hadoop_home。 下载好压缩文件之后进行解压,本地新建spark_home文件夹,之后配置环境变量SPARK_HOME,在PATH中添加%SPARK_HOME%\bin。 3.使用pyspark之前首先安装python,这里安装了python,但
相关文章
相关标签/搜索