基于Hadoop集群的Spark集群搭建

基于Hadoop集群的Spark集群搭建html 一. 单机版Spark搭建web (1)将下载下来的软件包拉至集群中(主节点上) (2)解压至指定目录 (3)将解压下的文件移至某个特定目录下并查看 (4)修改环境变量 (5)使环境变量生效并进入scala命令行测试; (6)解压scala压缩包并放置指定目录; (7)添加环境变量 (8)生效环境变量并测试spark(source .bash_pr
相关文章
相关标签/搜索