NFS文件系统

NFS文件系统

 

NFS服务

 

  • NFS:Network File System 网络文件系统,基于内核的文件系统。Sun公司开发,经过使用NFS,用户和程序能够像访问本地文件同样访问远端系统上的文件,基于RPC(Remote Procedure Call Protocol远程过程调用)实现
  • RPC采用C/S模式,客户机请求程序调用进程发送一个有进程参数的调用信息到服务进程,而后等待应答信息。在服务器端,进程保持睡眠状态直到调用信息到达为止。当一个调用信息到达,服务器得到进程参数,计算结果,发送答复信息,而后等待下一个调用信息,最后,客户端调用进程接收答复信息,得到进程结果,而后调用执行继续进行
  • NFS优点:节省本地存储空间,将经常使用的数据,如home目录,存放在NFS服务器上且能够经过网络访问,本地终端将可减小自身存储空间的使用

 

NFS文件系统

  1. locate nfs.ko
  2. locate xfs.ko
  3. 内核级的性能更好
  4. 能够多个客户端挂载
  5. 每一个客户端看到的是一样的内容,都是来自于 nfs 服务器

 

NFS的工做做原理

  1. nfs 很特殊,用的端口号不是一个,也不是固定端口,它的端口不少,并且每次重启会发生变化
  2. 客户端想去连 nfs 服务器就比较困难了,找一个代理人RPC(portmap)
  3. nfs 起来的时候会把本身用的端口号注册到 RPC 服务上
  4. RPC服务的端口是固定的,走tcp的111端口
  5. 客户端 与 rpc 服务协商,而后链接 nfs 服务端
  6. 在cetnos6上中止 rpcbind服务,重启nfs服务就不会起来

NFS服务介绍

  •  软件包:nfs-utils
  • Kernel支持:nfs.ko
  •  端口:2049(nfsd), 其它端口由portmap(111)分配
  •  配置文件:/etc/exports,/etc/exports.d/*.exports
  •  CentOS7不支持同一目录同时用nfs和samba共享,由于使用锁机制不一样
  •  相关软件包:rpcbind(必须),tcp_wrappers
  • CentOS6开始portmap进程由rpcbind代替
  • NFS服务主要进程
    • rpc.nfsd 最主要的NFS进程,管理客户端是否可登陆
      rpc.mountd 挂载和卸载NFS文件系统,包括权限管理
      rpc.lockd 非必要,管理文件锁,避免同时写出错
      rpc.statd 非必要,检查文件一致性,可修复文件
  • 日志:/var/lib/nfs/

 

NFS配置文件

  • 导出的文件系统的格式:
    • /dir  主机1(opt1,opt2) 主机2(opt1,opt2)...
  • #开始为注释
  • 主机格式
    • 单个主机:ipv4,ipv6,FQDN
      IP networks:两种掩码格式均支持
      172.18.0.0/255.255.0.0
      172.18.0.0/16
      wildcards:主机名通配,例如*.benet.com,IP不能够
      netgroups:NIS域的主机组,@group_name
      anonymous:表示使用*通配全部客户端

NFS配置文件

  • 每一个条目指定目录导出到的哪些主机,及相关的权限和选项
    • 默认选项:(ro,sync,root_squash,no_all_squash)
      ro,rw 只读和读写
      async 异步,数据变化后不当即写磁盘,性能高
      sync(1.0.0后为默认)同步,数据在请求时当即写入共享
      no_all_squash (默认)保留共享文件的UID和GID
      all_squash 全部远程用户(包括root)都变成nfsnobody
      root_squash (默认)远程root映射为nfsnobody,UID为65534,早期版本是4294967294 (nfsnobody)
      no_root_squash 远程root映射成root用户
      anonuid和anongid 指明匿名用户映射为特定用户UID和组GID,而非nfsnobody,可配合all_squash使用

 

NFS工具

  • rpcinfo
    • rpcinfo -p hostname
    • rpcinfo –s hostname 查看RPC注册程序
  • exportfs
    • –v 查看本机全部NFS共享
    • –r 重读配置文件,并共享目录
    • –a 输出本机全部共享
    • –au 中止本机全部共享
  • showmount -e hostname
  • mount.nfs 挂载工具

 

客户端NFS挂载

  • NFS相关的挂载选项:man 5 nfsnode

    • fg(默认)前台挂载,bg后台挂载
      hard(默认)持续请求,soft 非持续请求
      intr 和hard配合,请求可中断
      rsize和wsize 一次读和写数据最大字节数,rsize=32768
      _netdev 无网络不挂载vim

  • 基于安全考虑,建议使用nosuid,nodev,noexec挂载选项安全

  • mount -o rw,nosuid,fg,hard,intr 172.16.0.1:/testdir /mnt/nfs/服务器

  • 172.16.0.1:/public /mnt/nfs nfs defaults 0 0网络

nfs 配置实例

  • nfs 服务器端
    • yum install rpcbind nfs-utils -y
    • systemctl start nfs-server
    • mkdir /data/nfs1
    • vim /etc/exports
      • /data/nfs1 *
    • exportfs -r
  • nfs 客户端
    • yum install nfs-utils -y
    • showmount -e 192.168.209.7
    • mkdir /mnt/nfs-client1
    • mount 192.168.209.7:/data/nfs1 /mnt/nfs-client1
    • 当向 /mnt/nfs-client1上写数据时报错
  • 修改 nfs 服务器的配置
    • exportfs -r
  • 在客户端测试

那么客户端访问 /mnt/nfs-client1 究竟是以什么身份呢?app

  1. 在服务端给 /data/nfs1 777 的权限,再次重读配置文件
  2. 在客户端 建立文件
  3. 在服务器端查看权限的状况
  4. 客户端访问 /mnt/nfs-clinet1 的实际是以 nfsnobody的身份运行的,这称为权限的压榨 root_squash,默认普通用户不压榨
  5. 客户端访问nfs服务器的身份是以 uid 为标准的,是一一对应的关系,若是服务器端没有与客户端一致的uid,则会显示 uid号
  6. 客户端访问 nfs 服务器共享的资源,若是两个用户的uid同样就会认为是同一个用户,这比较混乱,这也是 nfs 服务的一个最大的缺点。
  7. 所以,在生产中要实现账号的统一管理。
  8. 能够对客户端访问服务器端的资源都以一我的的身份运行(all_squash,anonuid=2000,anongid=2000)
  9. 服务器端共享资源,共享给谁,客户端能够查看,若是共享的是指定某一个ip,那么客户端只要将本身的ip改为与服务器的共享的ip同样就能够了。
相关文章
相关标签/搜索