Hadoop:Hadoop的分布式(伪分布式)部署安装

今天总结一下hadoop的分布式部署安装,因为寡人资源实在是有限,在学习的时候,是在一台机器上模拟多台服务器进行部署的,后面咱们在写集群。html

原创文章,转载请注明出处:http://blog.csdn.net/jessonlv/article/details/18270041java

一、安装前的准备node

在安装软件以前,咱们的linux系统具体要进行一下操做,否则,hadoop安装不成功!linux

一、关闭防火墙,sql

RedHat 内置一个文本行的管理工具,能够管理防火墙、ip 地址、各种服务等信息的设置。使用setup 命令调出该工具。很简单,我就不赘述了。。
浏览器

二、修改IP地址安全

将虚拟机的ip地址和宿主机的ip地址设置在一个网段,互相ping通。命令也很简单,不赘述。服务器

三、修改hostname为hadoop网络

命令“hostname 新主机名”,意味着修改主机名,但只对本次会话有效,重启机器后失效。咱们要想永久改主机名,须要修改配置文:/etc/sysconfig/network咱们这里将主机名改成:hadoopssh

四、设置ssh自动登陆。

设置ssh自动登陆。

若是咱们须要远程管理其余机器的话,通常使用远程桌面或者telnet。linxu 服务器几乎都是命令行,因此只能使用telnet 了。telnet 的缺点是通讯不加密,很是不安全,只适合于
内网访问。为解决这个问题,推出了加密的通讯协议,即SSH。SSH 的全称是Secure Shell,使用非对称加密方式,传输内容使用rsa 或者dsa 加密,能够有效避免网络窃听。
hadoop 的进程之间通讯使用ssh 方式,须要每次都要输入密码。为了实现自动化操做,咱们下面配置SSH 的免密码登陆方式.

首先到用户主目录下:


在“ls -a”命令显示的文件中,最后一列中间一项是“.ssh”,该文件夹是存放密钥的。注意该文件夹是以“.”开头的,是隐藏文件。待会咱们生成的密钥都会放到这个文件夹中。
如今执行命令,生成密钥


解释一下:
命令“ssh-keygen -t rsa”表示使用rsa 加密方式生成密钥, 回车后,会提示三次输入信息,咱们直接回车便可。
而后进入密钥文件夹,执行命令,


其中,命令“cp id_rsa.pub authorized_keys”用于生成受权文件。至此,配置部分完成了。这里为何要使用ssh 登陆本机哪?由于hadoop 在本机部署时,须要使用ssh 访问。
注意:文件夹“.ssh”中的三个文件的权限,是有要求的,“本身以外的任何人对每一个文件都没有写权限”。另外,“.ssh”文件夹是700 权限。若是权限有问题,会形成SSH 访问
失败。
如今开始验证SSH 无密码登陆


执行“ssh localhost”意味着使用“ssh”通讯协议访问主机“localhost”,第一次执行时须要确认;第二次再也不确认了。这就是无密码登陆。当登陆到对方机器后,退出使用命令
“exit”。这两次操做时,注意观察主机名变化。读者能够执行命令“ssh book0”,验证dns对book0 解析是否正确。

注意:使用命令ssh 时,必定要观察主机名的变化。不少同窗在操做ssh 时,因为大量的使用ssh 登陆退出,忘记本身目前在哪台机器了,执行了大量错误的操做。
另外,若是屡次执行ssh,每次都要输入确认信息的话,说明配置失败了。能够删除文件夹“.ssh”,从新配置。也能够重启虚拟机再配置。只要严格按照上面的步骤操做,保证
可以成功的。
若是还搞不定,给你个绝招” 删除/etc/udev/rules.d/70-persistent-net.rules 文件,重启
系统”。
配置出错,能够查看/var/log/secure 日志文件,找缘由。

以上四项完成之后下面我安装jdk和hadoop

二、安装jdk和hadoop

(1)jdk-6u24-linux-xxx.bin
(2)hadoop-1.1.2.tar.gz


将这个两个文件放在/usr/local 下,分别解压,并将解压后的文件分别命名为: hadoop  和 jdk

一、首先配置jdk

咱们知道,jdk的配置在/etc/profile里。hadoop的配置道理和jdk是同样的,看图中红线圈中的部分。


固然,编辑完配置文件后,还要执行

source /etc/profile
验证执行 java -version 等命令。

三、修改hadoop的四个配置文件
这四个配置文件分别为:

一、hadoop-env.sh

用vi编辑器打开,将下面的配置复制进去就好了:

export JAVA_HOME=/usr/local/jdk/
注意你的路径。
二、core-site.xml

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop:9000</value>
        <description>change your own hostname</description>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>  
</configuration>
我在上面加了描述,只要和你的主机名相对应就行,这里个人主机名字数hadoop

三、hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

这个不须要改,直接复制上去就行。

四、mapred-site.xml

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>hadoop:9001</value>
        <description>change your own hostname</description>
    </property>
</configuration>
这个仍是须要修改你的主机名,端口号不用改。
至此,四个文件都修改完毕,大功将要告成,哈哈。

四、格式化hadoop的namenode

hadoop namenode -format

若是出现上面的日志信息,那说明我们的hadoop安装已经大功告成了。下面,咱们看看劳动成果。

五、启动hadoop

启动命令:

./start-all.sh
在local/hadoop/bin 目录下。

而后用jps命令查看下都启动了什么进程,咱们发现hadoop的运行,一会儿蹦出了五个进程,看名思意。

六、验证hadoop

启动成功后,咱们在浏览器下验证:




另一个端口号再来一张:

至此,咱们的安装就所有完成了,后面我会总结下集群的安装、设置。

相关文章
相关标签/搜索