大数据hadoop和spark有什么区别?

其实这是两种框架的区别,Hadoop框架比较侧重离线大批量计算,而spark框架则侧重于内存和实时计算。 在这些基础上,衍生出了一些常用的附属组件,比如Hadoop生态下的HBASE、hive、HDFS等,HDFS可用于数据存储,MR可用于分布式计算框架。同样,在spark的基础上也衍生出了很多组件,比如spark streaming、spark SQL、mllib等。其中spark score完
相关文章
相关标签/搜索