无需密码自动登陆,系统用户名shiyanlou,密码shiyanlouhtml
本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到桌面上的程序:前端
使用GVim编辑器输入实验所需的代码,而后使用XfceTerminal命令行环境进行编译运行,查看运行结果,运行后能够截图并分享本身的实验成果,实验楼提供的截图是后台截图,没法做弊,能够真实有效证实您已经完成了实验。java
实验记录页面能够在“个人课程”中查看,其中含有每次实验的截图及笔记,以及每次实验的有效学习时间(指的是在实验桌面内操做的时间,若是没有操做,系统会记录为发呆时间)。这些都是您学习的真实性证实。sql
本实验参考下列文档内容制做:apache
Hadoop集群有三种启动模式:vim
须要先添加用来运行Hadoop进程的用户组hadoop及用户hadoop。浏览器
建立用户hadoopruby
$ sudo adduser hadoop
须要输入shiyanlou的密码:shiyanlou。并按照提示输入hadoop用户的密码。bash
将hadoop用户添加进sudo用户组ssh
$ sudo usermod -G sudo hadoop
$ sudo apt-get update $ sudo apt-get install openssh-server rsync $ sudo service ssh restart $ sudo apt-get install openjdk-7-jdk $ java -version
切换到hadoop用户,须要输入添加hadoop用户时配置的密码。后续步骤都将在hadoop用户的环境中执行。
$ su -l hadoop
配置ssh环境免密码登陆。
$ ssh-keygen -t rsa -P ""
在/home/hadoop/.ssh目录下生成了id_rsa(私钥)和id_rsa.pub(公钥)两个文件,将公钥追加到authorized_keys中,该文件保存全部容许以当前用户身份登陆到ssh客户端用户的公钥内容。
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
验证登陆本机是否还须要密码,配置正确的话是能够不需密码登陆的。
$ ssh localhost
在hadoop用户登陆的环境中进行下列操做:
$ wget http://labfile.oss.aliyuncs.com/hadoop-2.6.0.tar.gz
$ tar zxvf hadoop-2.6.0.tar.gz $ sudo mv hadoop-2.6.0 /usr/local/hadoop $ sudo chmod 774 /usr/local/hadoop
$ vim /home/hadoop/.bashrc
在/home/hadoop/.bashrc文件末尾添加下列内容:
#HADOOP START export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64 export HADOOP_INSTALL=/usr/local/hadoop export PATH=$PATH:$HADOOP_INSTALL/bin export PATH=$PATH:$HADOOP_INSTALL/sbin export HADOOP_MAPRED_HOME=$HADOOP_INSTALL export HADOOP_COMMON_HOME=$HADOOP_INSTALL export HADOOP_HDFS_HOME=$HADOOP_INSTALL export YARN_HOME=$HADOOP_INSTALL export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib" #HADOOP END
保存退出后,激活新加的环境变量
$ source ~/.bashrc
至此,Hadoop单机模式安装完成,能够经过下述步骤的测试来验证安装是否成功。
建立输入的数据,暂时采用/etc/protocols文件做为测试
$ cd /usr/local/hadoop $ sudo mkdir input $ sudo cp /etc/protocols ./input
执行Hadoop WordCount应用(词频统计)
$ bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.6.0-sources.jar org.apache.hadoop.examples.WordCount input output
查看生成的单词统计数据
$ cat output/*
注意:若是要继续下一节“伪分布式部署”实验,请勿中止本实验环境,直接点击文档上方的“下一个实验”按钮进入,由于伪分布式部署模式须要在单机模式基础上进行配置。
最后一步:点击屏幕上方的“实验截图”将上述命令执行后的截图保存并分享给朋友们吧,这是你学习Hadoop安装的证实。
本实验中介绍了Hadoop单机模式的安装方法,并运行wordcount进行基本测试。
请使用hadoop的wordcount对日志文件/var/log/dpkg.log进行词频统计。