NFS是Network File System的简写,即网络文件系统,NFS是FreeBSD支持的文件系统中的一种。NFS基于RPC(Remote Procedure Call)远程过程调用实现,其容许一个系统在网络上与它人共享目录和文件。经过使用NFS,用户和程序就能够像访问本地文件同样访问远端系统上的文件。NFS是一个很是稳定的,可移植的网络文件系统。具有可扩展和高性能等特性,达到了企业级应用质量标准。因为网络速度的增长和延迟的下降,NFS系统一直是经过网络提供文件系统服务的有竞争力的选择 。html
NFS 使用RPC(Remote Procedure Call)的机制进行实现,RPC使得客户端能够调用服务端的函数。同时,因为有 VFS 的存在,客户端能够像使用其它普通文件系统同样使用 NFS 文件系统。经由操做系统的内核,将 NFS 文件系统的调用请求经过 TCP/IP 发送至服务端的 NFS 服务。NFS服务器执行相关的操做,并将操做结果返回给客户端。git
NFS服务主要进程包括:github
nfs的关键工具包括:redis
在NFS服务器端的主要配置文件为/etc/exports时,经过此配置文件能够设置共享文件目录。每条配置记录由NFS共享目录、NFS客户端地址和参数这3部分组成,格式以下:docker
[NFS共享目录] [NFS客户端地址1(参数1,参数2,参数3……)] [客户端地址2(参数1,参数2,参数3……)]api
1)访问权限参数服务器
序号网络 |
选项app |
描述异步 |
1 | ro | 客户端对于共享文件目录为只读权限。(默认设置) |
2 | rw | 客户端对共享文件目录具备读写权限。 |
2)用户映射参数
序号 |
选项 |
描述 |
1 | root_squash | 使客户端使用root帐户访问时,服务器映射为服务器本地的匿名帐号。 |
2 | no_root_squash | 客户端链接服务端时若是使用的是root的话,那么也拥有对服务端分享的目录的root权限。 |
3 | all_squash | 将全部客户端用户请求映射到匿名用户或用户组(nfsnobody)。 |
4 | no_all_squash | 与上相反(默认设置)。 |
5 | anonuid=xxx | 将远程访问的全部用户都映射为匿名用户,并指定该用户为本地用户(UID=xxx)。 |
6 | anongid=xxx | 将远程访问的全部用户组都映射为匿名用户组帐户,并指定该匿名用户组帐户为本地用户组帐户(GID=xxx)。 |
3)其它配置参数
序号 |
选项 |
描述 |
1 | sync | 同步写操做,数据写入存储设备后返回成功信息。(默认设置) |
2 | async | 异步写操做,数据在未彻底写入存储设备前就返回成功信息,实际还在内存。 |
3 | wdelay | 延迟写入选项,将多个写操请求合并后写入硬盘,减小I/O次数,NFS非正常关闭数据可能丢失(默认设置)。 |
4 | no_wdelay | 与上相反,不与async同时生效,若是NFS服务器主要收到小且不相关的请求,该选项实际会下降性能。 |
5 | subtree | 若输出目录是一个子目录,则nfs服务器将检查其父目录的权限(默认设置); |
6 | no_subtree | 即便输出目录是一个子目录,nfs服务器也不检查其父目录的权限,这样能够提升效率 |
7 | secure | 限制客户端只能从小于1024的tcp/ip端口链接nfs服务器(默认设置)。 |
8 | insecure | 容许客户端从大于1024的tcp/ip端口链接服务器。 |
在nfs做为网络文件存储系统前,首先,须要安装nfs和rpcbind服务;接着,须要建立使用共享目录的用户;而后,须要对共享目录进行配置,这是其中相对重要和复杂的一个步骤;最后,须要启动rpcbind和nfs服务,以供应用使用。
1)经过yum目录安装nfs服务和rpcbind服务:
$ yum -y install nfs-utils rpcbind
2)检查nfs服务是否正常安装
$ rpcinfo -p localhost
为NFS服务其添加用户,并建立共享目录,以及设置用户设置共享目录的访问权限:
$ useradd -u nfs
$ mkdir -p /nfs-share $ chmod a+w /nfs-share
在nfs服务器中为客户端配置共享目录:
$ echo "/nfs-share 172.16.0.0(rw,async,no_root_squash)" >> /etc/exports
经过执行以下命令是配置生效:
$exportfs -r
1)因为必须先启动rpcbind服务,再启动nfs服务,这样才能让nfs服务在rpcbind服务上注册成功:
$ systemctl start rpcbind
2)启动nfs服务:
$ systemctl start nfs-server
3)设置rpcbind和nfs-server开机启动:
$ systemctl enable rpcbind $ systemctl enable nfs-server
$ showmount -e localhost $ mount -t nfs 127.0.0.1:/data /mnt
nfs能够直接做为存储卷使用,下面是一个redis部署的YAML配置文件。在此示例中,redis在容器中的持久化数据保存在/data目录下;存储卷使用nfs,nfs的服务地址为:192.168.8.150,存储路径为:/k8s-nfs/redis/data。容器经过volumeMounts.name的值肯定所使用的存储卷。
apiVersion: apps/v1 # for versions before 1.9.0 use apps/v1beta2 kind: Deployment metadata: name: redis spec: selector: matchLabels: app: redis revisionHistoryLimit: 2 template: metadata: labels: app: redis spec: containers: # 应用的镜像 - image: redis name: redis imagePullPolicy: IfNotPresent # 应用的内部端口 ports: - containerPort: 6379 name: redis6379 env: - name: ALLOW_EMPTY_PASSWORD value: "yes" - name: REDIS_PASSWORD value: "redis" # 持久化挂接位置,在docker中 volumeMounts: - name: redis-persistent-storage mountPath: /data volumes: # 宿主机上的目录 - name: redis-persistent-storage nfs: path: /k8s-nfs/redis/data server: 192.168.8.150
在Kubernetes当前版本的中,能够建立类型为nfs的持久化存储卷,用于为PersistentVolumClaim提供存储卷。在下面的PersistenVolume YAML配置文件中,定义了一个名为nfs-pv的持久化存储卷,此存储卷提供了5G的存储空间,只能由一个PersistentVolumClaim进行可读可写操做。此持久化存储卷使用的nfs服务器地址为192.168.5.150,存储的路径为/tmp。
apiVersion: v1 kind: PersistentVolume metadata: name: nfs-pv spec: capacity: storage: 5Gi volumeMode: Filesystem accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Recycle storageClassName: slow mountOptions: - hard - nfsvers=4.1 # 此持久化存储卷使用nfs插件 nfs: # nfs共享目录为/tmp path: /tmp # nfs服务器的地址 server: 192.168.5.150
经过执行以下的命令能够建立上述持久化存储卷:
$ kubectl create -f {path}/nfs-pv.yaml
存储卷建立成功后将处于可用状态,等待PersistentVolumClaim使用。PersistentVolumClaim会经过访问模式和存储空间自动选择合适存储卷,并与其进行绑定。
为nfs-provisioner实例选择存储状态和数据的存储卷,并将存储卷挂接到容器的/export 命令。
... volumeMounts: - name: export-volume mountPath: /export volumes: - name: export-volume hostPath: path: /tmp/nfs-provisioner ...
为StorageClass选择一个供应者名称,并在deploy/kubernetes/deployment.yaml进行设置。
args: - "-provisioner=example.com/nfs" ...
完整的deployment.yaml文件内容以下:
kind: Service
apiVersion: v1
metadata:
name: nfs-provisioner
labels:
app: nfs-provisioner
spec:
ports:
- name: nfs
port: 2049
- name: mountd
port: 20048
- name: rpcbind
port: 111
- name: rpcbind-udp
port: 111
protocol: UDP
selector:
app: nfs-provisioner
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nfs-provisioner
spec:
replicas: 1
strategy:
type: Recreate
template:
metadata:
labels:
app: nfs-provisioner
spec:
containers:
- name: nfs-provisioner
image: quay.io/kubernetes_incubator/nfs-provisioner:v1.0.8
ports:
- name: nfs
containerPort: 2049
- name: mountd
containerPort: 20048
- name: rpcbind
containerPort: 111
- name: rpcbind-udp
containerPort: 111
protocol: UDP
securityContext:
capabilities:
add:
- DAC_READ_SEARCH
- SYS_RESOURCE
args:
# 定义提供者的名称,存储类经过此名称指定提供者
- "-provisioner=nfs-provisioner"
env:
- name: POD_IP
valueFrom:
fieldRef:
fieldPath: status.podIP
- name: SERVICE_NAME
value: nfs-provisioner
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
imagePullPolicy: "IfNotPresent"
volumeMounts:
- name: export-volume
mountPath: /export
volumes:
- name: export-volume
hostPath:
path: /srv
在设置好deploy/kubernetes/deployment.yaml文件后,经过kubectl create命令在Kubernetes集群中部署nfs-provisioner。
$ kubectl create -f {path}/deployment.yaml
下面是example-nfs的StorageClass配置文件,此配置文件定义了一个名称为nfs-storageclass的存储类,此存储类的提供者为nfs-provisioner。
apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: nfs-storageclass provisioner: nfs-provisioner
经过kubectl create -f命令使用上面的配置文件建立:
$ kubectl create -f deploy/kubernetes/class.yaml
storageclass “example-nfs” created
在存储类被正确建立后,就能够建立PersistenetVolumeClaim来请求StorageClass,而StorageClass将会为PersistenetVolumeClaim自动建立一个可用PersistentVolume。
PersistenetVolumeClaim是对PersistenetVolume的声明,即PersistenetVolume为存储的提供者,而PersistenetVolumeClaim为存储的消费者。下面是PersistentVolumeClaim的YAML配置文件,此配置文件经过metadata.annotations[].volume.beta.kubernetes.io/storage-class字段指定所使用的存储储类。
在此配置文件中,使用nfs-storageclass存储类为PersistenetVolumeClaim建立PersistenetVolume,所要求的PersistenetVolume存储空间大小为1Mi,能够被多个容器进行读取和写入操做。
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: nfs-pvc
annotations:
volume.beta.kubernetes.io/storage-class: "nfs-storageclass"
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 1Mi
经过kubectl create命令建立上述的持久化存储卷声明:
$ kubectl create -f {path}/claim.yaml
在这里定义名为busybox-deployment的部署YAML配置文件,使用的镜像为busybox。基于busybox镜像的容器须要对/mnt目录下的数据进行持久化,在YAML文件指定使用名称为nfs的PersistenVolumeClaim对容器的数据进行持久化。
# This mounts the nfs volume claim into /mnt and continuously # overwrites /mnt/index.html with the time and hostname of the pod. apiVersion: v1 kind: Deployment metadata: name: busybox-deployment spec: replicas: 2 selector: name: busybox-deployment template: metadata: labels: name: busybox-deployment spec: containers: - image: busybox command: - sh - -c - 'while true; do date > /mnt/index.html; hostname >> /mnt/index.html; sleep $(($RANDOM % 5 + 5)); done' imagePullPolicy: IfNotPresent name: busybox volumeMounts: # name must match the volume name below - name: nfs mountPath: "/mnt" # volumes: - name: nfs persistentVolumeClaim: claimName: nfs-pvc
经过kubectl create建立busy-deployment部署:
$ kubectl create -f {path}/nfs-busybox-deployment.yaml
做者简介: 季向远,北京神舟航天软件技术有限公司产品经理。本文版权归原做者全部。