spark是什么,就看看

Spark是一种计算框架,Spark实现的是实时查询、批处理,流处理功能三合一,经常用它和hadoop这个生态系统进行比较。hadoop的计算框架有mapreduce,map reduce每次计算都会把中间过程存在本地hdfs上,这个比较消耗资源和拖慢进程,spark就是直接将中间计算结果存在内存,所以速度很快(?对内存消耗很大吧,能支持么?) Spark使用的语言是scala最佳,也支持pyth
相关文章
相关标签/搜索