PYSpark环境构建总结

一、需要的软件及版本 jdk版本:1.8 spark 版本:-2.4.0-bin-hadoop2.7 scala版本:2.12 (可选) hadoop版本:2.7 ====另外需要 python版本:3.7 或者anaconda pyspark以及py4j pycharm的安装,暂时用社区版吧 二、环境变量配置: JAVA_HOME=C:\gyhProgramFiles\jdk\jdk8 SPAR
相关文章
相关标签/搜索