nfs为何须要RPC?
由于NFS支持的功能不少,不一样功能会使用不一样程序来启动,所以,NFS对应的功能所对应的端口没法固定。
端口不固定形成客户端与服务端之间的通讯障碍,因此须要RPC来从中帮忙。
NFS启动时会随机取用若干端口,而后主动向RPC服务注册取用相关端口和功能信息,RPC使用固定端口111来监听来自NFS客户端的请求,
并将正确的NFS服务端口信息返回给客户端,这样客户端与服务端就能够进行数据传输了前端
一、由程序在NFS客户端发起存取文件的请求,客户端本地的RPC(rpcbind)服务会经过网络向NFS服务端的RPC的111端口发出文件存取功能的请求。web
二、NFS服务端的RPC找到对应已注册的NFS端口,通知客户端RPC服务。bash
三、客户端获取正确的端口,并与NFS daemon联机存取数据。服务器
四、存取数据成功后,返回前端访问程序,完成一次存取操做。网络
因此不管客户端,服务端,须要使用NFS,必须安装RPC服务。
NFS的RPC服务,在Centos5下名为portmap,Centos6下名称为rpcbind。app
1、NFS服务安装配置async
# yum install nfs-utils rpcbind
2、启动rpcbind服务tcp
# systemctl status rpcbind.service //查看服务状态 # which rpcbind //若是不知道rpcbind命令在哪 # systemctl restart rpcbind.service //启动rpc服务 # lsof -i :111 //查看rpc COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME rpcbind 2375 rpc 6u IPv4 19429 0t0 UDP *:sunrpc rpcbind 2375 rpc 8u IPv4 19431 0t0 TCP *:sunrpc (LISTEN) rpcbind 2375 rpc 9u IPv6 19432 0t0 UDP *:sunrpc rpcbind 2375 rpc 11u IPv6 19434 0t0 TCP *:sunrpc (LISTEN) # netstat -lntup|grep rpcbind tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 2375/rpcbind tcp6 0 0 :::111 :::* LISTEN 2375/rpcbind udp 0 0 0.0.0.0:854 0.0.0.0:* 2375/rpcbind udp 0 0 0.0.0.0:111 0.0.0.0:* 2375/rpcbind udp6 0 0 :::854 :::* 2375/rpcbind udp6 0 0 :::111 :::* 2375/rpcbind //若是出现-bash未找到命令可执行下面命令 #yum install net-tools lsof //查看nfs服务向rpc注册的端口信息 #rpcinfo -p localhost //检查rpcbind是否开机启动 #chkconfig --list rpcbind //启动NFS服务 #systemctl start nfs.service //查看状态 #systemctl status nfs.service //再次查看rpc注册的端口信息 #rpcinfo -p localhost //NFS常见进程详解 #ps -ef|egrep "rpc|nfs" rpc 2375 1 0 13:57 ? 00:00:00 /usr/sbin/rpcbind start rpcuser 2475 1 0 14:00 ? 00:00:00 /usr/sbin/rpc.statd root 2476 2 0 14:00 ? 00:00:00 [rpciod] root 2854 1 0 14:30 ? 00:00:00 /usr/sbin/rpc.idmapd root 2855 1 0 14:30 ? 00:00:00 /usr/sbin/rpc.mountd root 2865 2 0 14:30 ? 00:00:00 [nfsd4_callbacks] root 2871 2 0 14:30 ? 00:00:00 [nfsd] root 2872 2 0 14:30 ? 00:00:00 [nfsd] root 2873 2 0 14:30 ? 00:00:00 [nfsd] root 2874 2 0 14:30 ? 00:00:00 [nfsd] root 2875 2 0 14:30 ? 00:00:00 [nfsd] root 2876 2 0 14:30 ? 00:00:00 [nfsd] root 2877 2 0 14:30 ? 00:00:00 [nfsd] root 2878 2 0 14:30 ? 00:00:00 [nfsd] root 2892 1426 0 14:54 pts/0 00:00:00 grep -E --color=auto rpc|nfs //nfsd(rpc.nfsd)主进程,主要是管理客户端可否登入服务端,登入者ID判别。 //mountd(rpc.mountd)管理NFS文件系统,登入者的权限管理 //rpc.lockd(非必要)用来锁定文件,用于客户端同时写入 //rpc.statd(非必要)检查文件一致性 //rpc.idmapd 名字映射后台进程
3、配置NFS开机自启动ide
# systemctl enable rpcbind //这个要先启动 # systemctl enable nfs
4、NFS服务器配置
ui
#vi /etc/exports exports文件配置格式: NFS共享的目录 NFS客户端地址1(参数1,参数2,...) 客户端地址2(参数1,参数2,...) //说明: NFS共享目录: 要用绝对路径,可被nfsnobody读写 //NFS客户端地址: 指定IP: 192.168.0.1 指定子网全部主机: 192.168.0.0/24 指定域名的主机: test.com 指定域名全部主机: *.test.com 全部主机: * 参数: ro:目录只读 rw:目录读写 sync:将数据同步写入内存缓冲区与磁盘中,效率低,但能够保证数据的一致性 async:将数据先保存在内存缓冲区中,必要时才写入磁盘 all_squash:将远程访问的全部普通用户及所属组都映射为匿名用户或用户组(nfsnobody) no_all_squash:与all_squash取反(默认设置) root_squash:将root用户及所属组都映射为匿名用户或用户组(默认设置) no_root_squash:与rootsquash取反 anonuid=xxx:将远程访问的全部用户都映射为匿名用户,并指定该用户为本地用户(UID=xxx) anongid=xxx:将远程访问的全部用户组都映射为匿名用户组帐户
|
例如:
# cat /etc/exports /data/iso 172.18.0.0/24(rw,sync,fsid=0) 172.17.1.0/24(rw,sync,fsid=0)
5、建立须要共享的目录
# mkdir -p /data/iso # chown nfsnobody.nfsnobody /data/iso
6、从新加载nfs配置
# exportfs -rv
7、查看nfs服务器挂载状况
# showmount -e localhost
客户端的安装配置
1、安装nfs 和 rpcbind
# yum install nfs-utils rpcbind
2、关闭防火墙
#systemctl stop firewalld.service
3、启动服务并设置自动启动 rpcbind 和 nfs :
#systemctl start rpcbind.service #systemctl start nfs.service #systemctl enable rpcbind.service #systemctl enable nfs.service
4、查看rpc ,nfs状态
# systemctl status rpcbind.service # systemctl status nfs.service
5、在全部客户端挂载服务器172.18.0.109的/data/iso目录
#showmount -e 172.18.0.109
6、进行挂载:
#mkdir /data1 # mount -t nfs 172.18.0.109:/data/iso /data1
7、设置客户端开机时自动挂载172.18.0.109:/data/iso到本地的/data1
# vi /etc/fstab 172.18.0.109:/data/iso /data1 nfs nolock 0 0