初学者看大数据生态圈

  先从Hadoop说起。   经常看到有大咖在语录中提及:有了Spark,就永远不要Hadoop了,真有大咖这么说的,不信百度能看见。   仔细想下,有点道理:如果只是作为业务层面的开发者,对于大数据技术而言,确实只学Spark就可以了,但是如果是系统架构师的话,hadoop还是要学的,因为作为大数据的系统架构师,没办法回避hadoop。 Hadoop的三个概念组件, spark在这里主要替代的
相关文章
相关标签/搜索