CentOS 5.6 64位 重编译Hadoop 2.6.0

  1. 采用yum安装 gcc,gcc++,jdk 1.7,cmake.java

  2. 下载并tar xvpfz 如下包node

    apache-ant-1.9.5-bin.tar.gzmysql

    apache-maven-3.3.3-bin.tar.gz,c++

    findbugs-2.0.2.tar.gzsql

    protobuf-2.5.0.tar.gzapache

    hadoop-2.6.0-src.tar.gz服务器

  3. 配置/etc/profilemaven

    export ANT_HOME=/home/hadoop/apache-ant-1.9.5oop

    export FINDBUGS_HOME=/home/hadoop/findbugs-2.0.2spa

    export MAVEN_HOME=/home/hadoop/apache-maven-3.3.3

    export JAVA_HOME=/usr/java/jdk1.7.0_75

    export CLASS_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$JAVA_HOME/jre/lib/ext/mysql5.jar

    export HADOOP_PREFIX=/home/hadoop/hadoop-2.6.0

    export PATH=$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin:$HADOOP_HOME/bin:$ANT_HOME/bin:$FINDBUGS_HOME/bin

    运行source /etc/profile

  4. 编译并安装 protobuf

  5. ./configure


       make;make install;

       ldconfig -v 

  5.  进入hadoop src用mvn编译。

      mvn clean package -DskipTests -Pdist,native -Dtar

      也有加-Pdist,native,doc 打包javadoc的,若是慢能够不用。

      中途出错或断网,从新编译不成功,能够删除rm -fr hadoop.2.6.0-src,从新tar xvpfz,再编译,不然能够反复编译不成功。

  6. 能够直接打编译好的lib拷贝到hadoop-2.6.0.tar.gz翻译出来的lib下,覆盖以使用。具体目录是

     cp /home/hadoop/hadoop-src.2.6.0/hadoop-dist/target/hadoop-2.6.0/lib/native /home/hadoop/hadoop-2.6.0/lib/native

     slave node的服务器上的lib能够不拷。

    经过hadoop 下的start-dfs.sh启动dfs,默认以http://w.x.y.z:50070   查看 dfs运行start-yarn.sh 以http://w.x.y.z:8088 查看 yarn运行,能够会慢些才显示出来、

7. 经过 hdfs dfsadmin -report 检查运行状况,并看看是否还有 Unable to load native-hadoop library for your platform WARNING信息。正常是没有了。

相关文章
相关标签/搜索