windows环境安装spark,无法导入pyspark模块

随便打开一个project,pycharm右上角“run”三角形的左边有一个edit configurition,打开它。  设置configurition---Environment--- Environment variables ---点击“...”,出现框框,点击+, 输入两个name, 一个是SPARK_HOME  =  D:/spark-2.1.1-bin-hadoop2.7 一个是P
相关文章
相关标签/搜索