hadoop错误DataXceiver error processing WRITE_BLOCK operation

错误:node

    DataXceiver error processing WRITE_BLOCK operationurl

缘由:code

    文件操做超租期,实际上就是data stream操做过程当中文件被删掉了。xml

解决办法:blog

    修改hdfs-site.xml (针对2.x版本,1.x版本属性名应该是:dfs.datanode.max.xcievers):ci

    <property>get

        <name>dfs.datanode.max.transfer.threads</name>           博客

        <value>8192</value>it

    </property>io

    拷贝到各datanode节点并重启datanode便可

 

若是,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】。
若是,您但愿更容易地发现个人新博客,不妨点击一下左下角的【关注我】。
若是,您对个人博客所讲述的内容有兴趣,请继续关注个人后续博客,我是【刘超★ljc】。

本文版权归做者和博客园共有,欢迎转载,但未经做者赞成必须保留此段声明,且在文章页面明显位置给出原文链接,不然保留追究法律责任的权利。

相关文章
相关标签/搜索