HDFS冗余数据块的自动删除

HDFS冗余数据块的自动删除 在平常维护hadoop集群的过程当中发现这样一种状况: 某个节点因为网络故障或者DataNode进程死亡,被NameNode断定为死亡, HDFS立刻自动开始数据块的容错拷贝; 当该节点从新添加到集群中时,因为该节点上的数据其实并无损坏, 因此形成了HDFS上某些block的备份数超过了设定的备份数。 经过观察发现,这些多余的数据块通过很长的一段时间才会被彻底删除掉,
相关文章
相关标签/搜索