win10 安装单机版 pyspark

参考这篇博客: https://blog.csdn.net/weixin_38556445/article/details/78182264 默认已经电脑已经安装java 和 python。 1  需要安装spark 和 hadoop (python3.6 需要spark2.1以上版本) 两者作相同处理:解压之后,还需要完成SPARK_HOME和bin环境变量相关配置;HADOOP_HOME  和
相关文章
相关标签/搜索