Spark的基本工做原理

一、分布式         答:分布式是啥?:一个集群上面有多个节点,多个节点对于数据的存储数据的计算,可能可能是经过多个节点并行来处理的         好比:读取90万条数据,节点1存放30万条数据,节点2存放30万条数据,节点3也是30万条数据:         (Spark程序会被提提交到Spark集群上面运行,Spark集群会先去执行Hadoop里面的数据,         由于Hado
相关文章
相关标签/搜索