Pyspark,Python下安装Spark,无需安装Hadoop

又是装环境斗志斗勇的一天,苦笑html 以前一直不想搭虚拟机/Hadoop/spark这些环境,后来python三千万行数据实在跑不动了,知道有pyspark这等好东西,觉得conda install pyspark一下就能够了,发现并无那么简单。找了不少资料,搜了不少也没找到合适的教程,正好记录一下,但愿能帮到须要的同窗。不用虚拟机不用Hadoop。java 环境:anconda 3.0 win
相关文章
相关标签/搜索