Win10下安装spark(本地模式)

Win10下安装spark(本地模式) 相关软件及环境准备: win10 需要提前安装anaconda java 环境:JDK1.8 版本 hadoop运行在windows环境的插件: hadoop-2.7.1(winutils-master) spark包:spark-2.4.4-bin-hadoop2.7 spark-2.4.4-bin-hadoop2.7 和winutils-master 下
相关文章
相关标签/搜索