利用docker搭建spark hadoop workbench

目的 用docker实现所有服务 在spark-notebook中编写Scala代码,实时提交到spark集群中运行 在HDFS中存储数据文件,spark-notebook中直接读取 组件 Spark (Standalone模式, 1个master节点 + 可扩展的worker节点) Spark-notebook Hadoop name node Hadoop data node HDFS Fil
相关文章
相关标签/搜索