大数据的生态圈 Hadoop,hive,spark

大数据自己是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的。各有各的用处,互相之间又有重合。可是每一个工具备本身的特性,虽然奇怪的组合也能工做,可是未必是最佳选择。程序员 HDFS:算法 传统的文件系统是单机的,不能横跨不一样的机器。HDFS(Hadoop Distributed FileSystem)的设计本质上是为了大量的数据能横跨成百上千台
相关文章
相关标签/搜索