pyspark本地开发环境配置

1、工具原料 java jdk;python;spark-2.3.0-bin-hadoop2.7;winutils.exe 2、配置流程 (1)、jdk正确安装、配置环境变量 (2)、python正确安装、配置环境变量 (3)、环境变量Path,加入spark-2.3.0-bin-hadoop2.7\bin所在路径 (4)、将winutils.exe加入spark-2.3.0-bin-hadoop
相关文章
相关标签/搜索