Spark-Hadoop、Hive、Spark 之间是什么关系?

原文连接 程序员 本文来自知乎:Xiaoyu Ma ,大数据工程师 算法 大数据自己是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的。你能够把它比做一个厨房因此须要的各类工具。锅碗瓢盆,各有各的用处,互相之间又有重合。你能够用汤锅直接当碗吃饭喝汤,你能够用小刀或者刨子去皮。可是每一个工具备本身的特性,虽然奇怪的组合也能工做,可是未必是最佳选择。数
相关文章
相关标签/搜索