如何系统的学习大数据框架 hadoop 和spark?

hadoop和Spark是两种不一样的大数据生态系统,Hadoop框架比较侧重离线大批量计算,而spark框架则侧重于内存和实时计算。python 在这些基础上,衍生出了一些经常使用的附属组件,好比Hadoop生态下的HBASE、hive、HDFS等,HDFS可用于数据存储,MR可用于分布式计算框架。一样,在spark的基础上也衍生出了不少组件,好比spark streaming、spark SQ
相关文章
相关标签/搜索