windows下安装spark

1、安装jdk 2、安装scala 3、下载spark spark下载地址 3.1安装spark 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:\Program Files 作者解压到了这里, 将spark的bin路径添加到path中 cmd输入spark-shell,成功安装啦,有个报错是因为还没安装Hadoop, 4、安装hadoop 由于spark版本为spark-2.
相关文章
相关标签/搜索