install nfs and share file

介绍一下NFS的安装,以及共享文件html

NFSNet File System),经过使用NFS,能够像使用本地文件同样访问远程文件。
它主要解决了数据共享的问题,能够备份容灾。node


安装配置linux

1.linux ubuntu为例,作nfs server的机器和 nfs client的机器分别安装ubuntu

"nfs server"ssh

1oop

sudo apt-get install nfs-kernel-serverspa

"nfs client"rest

1orm

sudo apt-get install nfs-commonserver

2.配置nfs须要共享的目录,在 /etc/exports 最下面添加须要共享的目录 /home/hadoop/yxlShare

/etc/exports

1

/home/hadoop/yxlShare *(rw,sync,no_root_squash)

3.重启 portmap nfs server

1
2

sudo /etc/init.d/portmap restart
sudo /etc/init.d/nfs-kernel-server restart

4.运行一下命令,查看一下能够被挂载的状况

1

showmount -e

5.此时,在客户端上,将一个本地目录挂载到nfs的共享目录上,把它视为本地目录。

能够再添加fstab,让linux开机自动挂载

用法: sudo mount nfsServerip:共享目录 本地目录

示例

1

sudo mount 192.168.1.111:/home/hadoop/.ssh /home/hadoop/.ssh

4.此时,不管在client上仍是server上,对这个目录的修改,都能反映出来,这样多台机器就共享了一个目录。


实例

1.共享hadoop ssh受权文件

当整个hadoop集群,共享一个authorized_keys,以便ssh跳转。就能够将本地目录 ~/nfs_share/ ,挂载在nfs上。

而后创建软链接,这样就实现了共享。

1

ln -s ~/nfs_share/authorized_keys ~/.ssh/authorized_keys

2.namenode HA 元数据保存

你们都知道hadoopnamenode是单点。但结合zookeepernfs,就能够实现自动切换的功能。

namenode的元数据保存在nfs,当namenode这台机器挂掉了,利用zookeeper再找一个替补机器,而后替补机器读取nfs上的元数据,即成为了namenode

这里有一个图,说明了状况. 引用自http://www.cnblogs.com/commond/archive/2009/07/28/1533223.html

NFS

 



相关文章
相关标签/搜索