Windows下Spark python 单机开发环境

Spark提供的pyspark可以像scala shell一样提供交互式的开发,本文介绍在windows下单机环境下的pyspark配置,当然数据量小,任务简单,条件有限的可以在单机上这样做示例,数据量大任务重的还是配置linux集群环境。 1.官网下载好的Spark包解压至某目录,如E:\spark-2.1.0-bin-hadoop2.6, 2.添加环境变量SPARK_HOME如下: 3.安装f
相关文章
相关标签/搜索