windows下spark开发环境配置

--本篇随笔由同事葛同学提供。 windows下spark开发环境配置 特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已经安装了eclipse、maven、jdk等软件 spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8   我选择的spark是spark-1.4.
相关文章
相关标签/搜索