Hadoop2体系结构

hadoop1.0需要解决的几个问题:    1:单点故障问题,HDFS和MapReduce都是Master-Slave的结构,但是Master节点都是单点,一旦出现故障,那么集群就不能正常运行。    2:HDFS存储海量数据是按照Block来存储的,整个存储只有一种格式,企业存储受限,企业的数据非常多样,存储起来容易造成资源的浪费。         当namenode所在机器的内存不够时,集群
相关文章
相关标签/搜索