spark2.2.0编译及遇到的问题

环境 1)java8 2)hadoop2.7.3 3)scala2.11.2 4)R3.4.4(如果不需要sparkR的话R可以不用) 修改spark目录下的dev/make-distribution.sh脚本文件 把对应代码的改成自己对应的版本(可以加快编译速度不用脚本自行寻找版本) 编译之前需要安装一些依赖: sudo apt install pandoc pip install pypand
相关文章
相关标签/搜索