错误:java
10/12/08 20:10:31 INFO hdfs.DFSClient: Could not obtain block blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY from any node: java.io.IOException: No live nodes contain current block. Will get new block locations from namenode and retrynode
缘由:url
Datanode 有一个同时处理文件的上限. 这个参数叫 xcievers。若是没有这一项配置,你可能会遇到奇怪的失败。你会在Datanode的日志中看到xcievers exceeded,可是运行起来会报 missing blocks错误日志
解决方法:code
在conf/hdfs-site.xml里面的添加以下配置xml
<property>blog
<name>dfs.datanode.max.xcievers</name>ci
<value>4096</value>get
<dedication> Datanode 有一个同时处理文件的上限,至少要有4096</dedication>博客
</property>
若是,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】。
若是,您但愿更容易地发现个人新博客,不妨点击一下左下角的【关注我】。
若是,您对个人博客所讲述的内容有兴趣,请继续关注个人后续博客,我是【刘超★ljc】。
本文版权归做者和博客园共有,欢迎转载,但未经做者赞成必须保留此段声明,且在文章页面明显位置给出原文链接,不然保留追究法律责任的权利。