优于别人,并不高贵,真正的高贵应该是优于过去的本身
应用场景以下:好比有三台主机master1,slave1,slave2若是简历彻底分布式的集群就须要将文件从master1拷贝到slave从机上node
那么能够使用rsync命令分发单个文件,也能够使用以下脚本分发文件夹或者文件git
#!/bin/bash #1 获取输入参数个数,若是没有参数,直接退出 # $#表明得到命令行参数个数 pcount=$# if((pcount==0)); then echo no args; exit; fi #2 获取文件名称 # $1表明得到命令行第一个参数 p1=$1 fname=`basename $p1` echo fname=$fname #3 获取上级目录到绝对路径 pdir=`cd -P $(dirname $p1); pwd` echo pdir=$pdir #4 获取当前用户名称 user=`whoami` #5 rsync命令能够分发文件到指定主机 # 这里slave就是从机的机名 for((host=1; host<3; host++)) do echo ------------------- slave$host -------------- rsync -rvl $pdir/$fname $user@slave$host:$pdir done
hadoop102 | hadoop103 | hadoop104 | |
---|---|---|---|
HDFS | NameNodeDataNode | DataNode | SecondaryNameNode<br/>DataNode |
YARN | NodeManager | ResourceManager<br/>NodeManager | NodeManager |
配置文件都在hadoop2.7.2/etc/hadoop下github
<!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop102:9000</value> </property> <!-- 指定Hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/module/hadoop-2.7.2/data/tmp</value> </property>
export JAVA_HOME=/opt/module/jdk1.8.0_144
<!-- 指定副本数量 --> <property> <name>dfs.replication</name> <value>3</value> </property> <!-- 指定SecondaryNamenode主机配置 --> <property> <name>dfs.namenode.secondary.http-address</name> <value>hadoop104:50090</value> </property>
export JAVA_HOME=/opt/module/jdk1.8.0_144
<!-- reducer获取数据的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- 指定YARN的ResourceManager的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>hadoop103</value> </property>
export JAVA_HOME=/opt/module/jdk1.8.0_144
【须要拷贝mapred-site.xml.template 而后重命名便可】面试
<!-- 指定mr运行在yarn上 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
# xsync就是刚刚编写的分发脚本 xsync /opt/module/hadoop-2.7.2/
# 这部分必须没有报错才行,否则就重来一篇,必须在hadoop根目录下执行 hadoop namenode -format
在主机hadooop102在sbin目录下,运行start-dfs.sh启动HDFS 在主机hadooop103在sbin目录下,运行start-yarn.sh启动yarn 而后使用jps查看进程便可
本文配套 GitHub: https://github.com/zhutiansam...本文配套公众号:FocusBigData shell
回复【大数据面经】【大数据面试经验】【大数据学习路线图】会有惊喜哦bash