Linux虚拟机RDD和PySpark基本操作

我用的是spark-2.3.0-bin-hadoop2.7.tar这版本的。 下面我来说一下的操作步走,想使用spark我们肯定要安装它 第一步: 在你的虚拟机中输入pip install pyspark如果出现下图说明证明 第二步: 如果你有安装了XFT这个插件就用你的这个插件把你的pyspark这个压缩包放进去 第三步: 我们解压这个文件tar -xvf  spark-2.3.0-bin-ha
相关文章
相关标签/搜索