HDFS 中向 DataNode 写入数据失败了怎么办

上传100M的文件,上传到50M,突然断了,HDFS会怎么处理? 如果向DataNode写入数据失败了怎么办? 如果这种情况发生,那么就会执行一些操作: ① Pipeline数据流管道会被关闭,ACK queue中的packets会被添加到data queue的前面以确保不会发生packets数据包的丢失 ② 在正常的DataNode节点上的以保存好的block的ID版本会升级——这样发生故障的D
相关文章
相关标签/搜索