Hdfs的数据磁盘大小不均衡如何处理

最近浪尖在纠结一个如今看起来很简单的问题。 node 现象描述web 建集群的时候,datanode的节点数据磁盘总共是四块磁盘作矩阵成了一个7.2TB的sdb1(data1),两块经过矩阵作了一个3.6TB的sdc1(data2)磁盘,运维作的,历史缘由。刚开始没有发现,而后集群过了一段时间,随着数据量的增长,发现集群有不少磁盘超过使用率90%告警,浪尖设置磁盘告警阈值是90%,超过阈值就会发短
相关文章
相关标签/搜索