Kubernetes 之 kubeadm最佳实践

使用kubeadm启动一个安全的kubernetes集群node

官方文档参考连接 :https://kubernetes.io/docs/setup/independent/install-kubeadm/linux

  • 环境准备nginx

  • CentOS 7git

  • 至少2G以上内存github

  • 至少两个CPUweb

  • 集群中每台机器网络互通(关闭firewall、selinux、NetworkManager)docker

  • 每一个节点有惟一主机名,MAC地址和Product UUIDjson

  • 特定端口没有被占用。bootstrap

  • 禁用swap,不然kubelet没法正常工做vim

如何验证每台节点的MAC地址和product_uuid是惟一的

  • 使用ip link或者ifconfig -a来获取网络接口的MAC地址

  • 使用sudo cat /sys/class/dmi/id/product_uuid命令能够检查

(UUID是指在一台机器上生成的数字,它保证对在同一时空中的全部机器都是惟一的,linux中有UUID,保存在文件/sys/class/dmi/id/product_uuid中)

Kubernetes使用这些值来惟一标识集群中的节点。若是这些值对于每一个节点不是惟一的,则安装过程可能会失败。

依赖的端口

Master节点:

Protocol

方向

端口范围

用途

TCP

In

6443*

Kubernetes API server

TCP

In

2379-2380

etcd(可以使用外部单独的etcd集群,也能够是自定义的端口)

TCP

In

10250

kubelet API

TCP

In

10251

kube-scheduler

TCP

In

10252

kube-controller-manager

TCP

In

10255

Read-only Kubelet API

Node节点:

Protocol

方向

端口范围

用途

TCP

In

10250

kubelet API

TCP

In

10255

Read-only Kubelet API

TCP

In

30000-32767

NodePort Services**


正式开始部署

Master节点IP:192.168.214.166

Node1节点IP:192.168.214.167

Node2节点IP:192.168.214.168

全部节点更改主机名并加入解析

[root@localhost ~]# hostnamectl set-hostname master
[root@localhost ~]# bash
[root@master ~]# vim /etc/hosts
192.168.214.166 master
192.168.214.167 node1
192.168.214.168 node2

全部节点关闭防火墙、selinux、NetworkManager

[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld
[root@master ~]# sed -i "s/SELINUX=.*/SELINUX=disabled/g" /etc/selinux/config
[root@master ~]# setenforce 0
[root@master ~]# systemctl stop NetworkManager
[root@master ~]# systemctl disable NetworkManager

全部节点禁用swap

[root@master ~]# swapoff -a
[root@master ~]# sed -i '/^.*swap.*/d' /etc/fstab

全部节点安装docker

#删除机器上的docker
[root@master ~]# yum remove docker docker-common container-selinux docker-selinux docker-engine-selinux docker-ce docker-ee docker-engine
#安装yum-utils,它提供一个yum-config-manager单元,同时安装的device-mapper-persistent-data和lvm2用于储存设备映射(devicemapper)必须的两个软件包。
[root@master ~]# yum install -y yum-utils device-mapper-persistent-data lvm2
[root@master ~]# yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
[root@master ~]# yum makecache
[root@master ~]# yum install docker-ce -y

注:要保证Docker的CGroup驱动要和Kubelet的CGroup驱动一致,这里指定驱动为systemd。

修改Docker的启动参数

sed -i 's#ExecStart=.*#ExecStart=/usr/bin/dockerd -s overlay2 --storage-opt overlay2.override_kernel_check=true --exec-opt native.cgroupdriver=systemd --log-driver=json-file --log-opt max-size=100m --log-opt max-file=10#g' /usr/lib/systemd/system/docker.service
sed -i '/ExecStartPost=.*/d' /usr/lib/systemd/system/docker.service
sed -i '/ExecStart=.*/aExecStartPost=/usr/sbin/iptables -P FORWARD ACCEPT' /usr/lib/systemd/system/docker.service
sed -i '/Environment=.*/d' /usr/lib/systemd/system/docker.service

#指定日志驱动为json-file, 同时指定日志最大为100m,最多保留10份历史日志。
#指定存储驱动为overlay2。
#指定CGroup驱动为systemd

全部节点启动Docker并设置开机自启动

[root@node2 ~]# systemctl daemon-reload
[root@node2 ~]# systemctl start docker.service
[root@node2 ~]# systemctl enable docker.service

验证docker是否启动,参数是否生效

[root@master ~]# ps -ef | grep docker
root      3458     1  0 06:56 ?        00:00:00 /usr/bin/dockerd -s overlay2 --storage-opt overlay2.override_kernel_check=true --exec-opt native.cgroupdriver=systemd --log-driver=json-file --log-opt max-size=100m --log-opt max-file=10
root      3477  3458  0 06:56 ?        00:00:01 containerd --config /var/run/docker/containerd/containerd.toml --log-level info
root      3615  1139  0 07:00 pts/0    00:00:00 grep --color=auto docker

全部节点安装 kubelet、kubeadm、kubectl

  • kubelet 运行在 Cluster 全部节点上,负责启动 Pod 和容器。

  • kubeadm 用于初始化 Cluster。

  • kubectl 是 Kubernetes 命令行工具。经过 kubectl 能够部署和管理应用,查看各类资源,建立、删除和更新各类组件。

  • kubeadm的方式不会安装kubelet和kubectl。因此咱们要自行安装对应版本的软件包。

kubernetes集群中概念、组件、术语含义做用可参考我以前的文章 http://www.javashuo.com/article/p-zwqgdpuk-ck.html

  • 注:使用kubeadm启动的集群中,其中Master节点的组件都会交给kubelet来管理,也就是说kube-scheduler,kube-apiserver,kube-controller-manager,kube-proxy和flannl都会以容器的方式启动运行

[root@master ~]# vim /etc/yum.repo.d/kubernetes.repo
[kubernetes]
name=kubernetes repo
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
gpgcheck=0
enabled=1
[root@master ~]# yum install  kubelet kubeadm kubectl -y
yum repolist	              //检查是否配置正确
[root@master ~]# rpm -ql kubelet
/etc/kubernetes/manifests  //清单目录
/etc/sysconfig/kubelet  //配置文件
/etc/systemd/system/kubelet.service  //主程序
/usr/bin/kubelet
[root@master ~]# systemctl enable kubelet && systemctl start kubelet

全部节点修改内核参数

[root@master ~]# sed -i '/net.bridge.bridge-nf-call-iptables/d' /usr/lib/sysctl.d/00-system.conf
[root@master ~]# sed -i '/net.bridge.bridge-nf-call-ip6tables/d' /usr/lib/sysctl.d/00-system.conf
[root@master ~]# sed -i '$a net.bridge.bridge-nf-call-iptables = 1' /usr/lib/sysctl.d/00-system.conf
[root@master ~]# sed -i '$a net.bridge.bridge-nf-call-ip6tables = 1' /usr/lib/sysctl.d/00-system.conf
[root@master ~]# sysctl --system
[root@master ~]# [ -f /proc/sys/fs/may_detach_mounts ] && sed -i "/fs.may_detach_mounts/ d" /etc/sysctl.conf
[root@master ~]# [ -f /proc/sys/fs/may_detach_mounts ] && echo "fs.may_detach_mounts=1" >> /etc/sysctl.conf
[root@master ~]# sysctl -p
fs.may_detach_mounts = 1

注:在CentOS7.4引入了一个新的参数来控制内核的行为。 /proc/sys/fs/may_detach_mounts 默认设置为0;当系统有容器运行的时候,须要将该值设置为1https://bugzilla.redhat.com/show_bug.cgi?id=1441737

配置kubelet的启动参数(注意区分节点名称)

[root@master ~]# vim /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--cluster-dns=172.17.0.10 --cluster-domain=cluster.local --hostname-override=master --provider-id=master --pod_infra_container_image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:3.1 --max-pods=40 --cert-dir=/var/lib/kubelet/pki --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin --root-dir=/var/lib/kubelet --authentication-token-webhook --resolv-conf=/etc/resolv.conf --rotate-certificates --feature-gates=RotateKubeletClientCertificate=true,RotateKubeletServerCertificate=true,CustomPodDNS=true --pod-manifest-path=/etc/kubernetes/manifests"
[root@master ~]# systemctl daemon-reload

--cluster-dns=172.17.0.10      # DNS服务器IP地址列表。对于具备“dnsPolicy = ClusterFirst”的Pod,此值用于容器DNS服务器。

注意:列表中的全部DNS服务器必须提供相同的记录集,不然集群的名称解析可能没法正常工做。没法保证能够联系哪一个DNS服务器进行名称解析。

--cluster-domain=cluster.local     #集群的域名。若是设置,除了主机的搜索域以外,kubelet还将配置全部容器以搜索此域

--hostname-override=master     #若是非空,则使用此字符串做为标识而不是实际的主机名。若是设置了--cloud-provider,则云提供商决定节点的名称

--provider-id=master         #于标识 machine database 中节点的惟一标识符,即cloudprovider

--pod_infra_container_image=registry.cn-hangzhou.aliyuncs.com/google_containers/pause-amd64:3.1   # 为kubernetes指定pause容器的镜像 

参考连接:http://www.itboth.com/d/MrQjym/nginx-kubernetes  

--max-pods=40      # 最大Pods数

--cert-dir=/var/lib/kubelet/pki   #TLS证书所在的目录。若是提供了--tls-cert-file和--tls-private-key-file,则将忽略此参数。

--network-plugin=cni     #<警告:Alpha功能> kubelet / pod生命周期中的各类事件调用的网络插件。此参数仅在container-runtime设置为docker时有效。

--cni-conf-dir=/etc/cni/net.d     <警告:Alpha功能>搜索CNI配置文件的目录。 仅在container-runtime设置为docker时有效。 

--cni-bin-dir=/opt/cni/bin      # <警告:Alpha功能>搜索CNI插件二进制文件的目录列表。 仅在container-runtime设置为docker时有效。

--root-dir=/var/lib/kubelet    # kubelet文件的路径。一些volume会在该目录,必定要指定到大磁盘上 

--authentication-token-webhook   #使用 TokenReview API 肯定承载令牌的身份验证。

--resolv-conf=/etc/resolv.conf    # 若是Pod的dnsPolicy设置为"Default",它将从Pod运行的Node节点继承名称解析配置

--feature-gates=RotateKubeletClientCertificate=true,RotateKubeletServerCertificate=true,CustomPodDNS=true  --rotate-certificates  

 #启用客户端、服务端证书轮转  <警告:测试版功能> 证书过时时,从kube-apiserver请求新证书来自动更新kubelet客户端证书。

--pod-manifest-path=/etc/kubernetes/manifests"

目前为止全部节点都同样:selinux、防火墙、swap关闭,docker安装配置、kubelet安装配置、内存参数修改

接下来部署master

为了应对网络不顺畅通的问题,咱们提早手动下载相关镜像并从新打 tag :

Master上要准备
docker pull mirrorgooglecontainers/kube-apiserver:v1.13.1
docker pull mirrorgooglecontainers/kube-controller-manager:v1.13.1
docker pull mirrorgooglecontainers/kube-scheduler:v1.13.1
docker pull mirrorgooglecontainers/kube-proxy:v1.13.1
docker pull mirrorgooglecontainers/pause:3.1
docker pull mirrorgooglecontainers/etcd:3.2.24
docker pull coredns/coredns:1.2.6
docker pull registry.cn-shenzhen.aliyuncs.com/cp_m/flannel:v0.10.0-amd64

docker tag mirrorgooglecontainers/kube-apiserver:v1.13.1 k8s.gcr.io/kube-apiserver:v1.13.1
docker tag mirrorgooglecontainers/kube-controller-manager:v1.13.1 k8s.gcr.io/kube-controller-manager:v1.13.1
docker tag mirrorgooglecontainers/kube-scheduler:v1.13.1 k8s.gcr.io/kube-scheduler:v1.13.1
docker tag mirrorgooglecontainers/kube-proxy:v1.13.1 k8s.gcr.io/kube-proxy:v1.13.1
docker tag mirrorgooglecontainers/pause:3.1 k8s.gcr.io/pause:3.1
docker tag mirrorgooglecontainers/etcd:3.2.24 k8s.gcr.io/etcd:3.2.24
docker tag coredns/coredns:1.2.6 k8s.gcr.io/coredns:1.2.6
docker tag registry.cn-shenzhen.aliyuncs.com/cp_m/flannel:v0.10.0-amd64 quay.io/coreos/flannel:v0.10.0-amd64

docker rmi mirrorgooglecontainers/kube-apiserver:v1.13.1           
docker rmi mirrorgooglecontainers/kube-controller-manager:v1.13.1  
docker rmi mirrorgooglecontainers/kube-scheduler:v1.13.1           
docker rmi mirrorgooglecontainers/kube-proxy:v1.13.1               
docker rmi mirrorgooglecontainers/pause:3.1                        
docker rmi mirrorgooglecontainers/etcd:3.2.24                      
docker rmi coredns/coredns:1.2.6
docker rmi registry.cn-shenzhen.aliyuncs.com/cp_m/flannel:v0.10.0-amd64

[root@master ~]# docker images
REPOSITORY                           TAG                 IMAGE ID            CREATED             SIZE
k8s.gcr.io/kube-proxy                v1.13.1             fdb321fd30a0        2 months ago        80.2MB
k8s.gcr.io/kube-apiserver            v1.13.1             40a63db91ef8        2 months ago        181MB
k8s.gcr.io/kube-scheduler            v1.13.1             ab81d7360408        2 months ago        79.6MB
k8s.gcr.io/kube-controller-manager   v1.13.1             26e6f1db2a52        2 months ago        146MB
k8s.gcr.io/coredns                   1.2.6               f59dcacceff4        3 months ago        40MB
k8s.gcr.io/etcd                      3.2.24              3cab8e1b9802        5 months ago        220MB
quay.io/coreos/flannel               v0.10.0-amd64       f0fad859c909        13 months ago       44.6MB
k8s.gcr.io/pause                     3.1                 da86e6ba6ca1        14 months ago       742kB

Node要准备
docker pull mirrorgooglecontainers/kube-proxy:v1.13.1
docker pull mirrorgooglecontainers/pause:3.1
docker pull registry.cn-shenzhen.aliyuncs.com/cp_m/flannel:v0.10.0-amd64

使用kubeadm初始化Master

  • --apiserver-advertise-address指定Master节点使用哪一个IP来跟Cluster中的其余节点通讯。若是不指定会选择有默认网关的接口的IP地址。

  • --apiserver-bind-port指定Master节点的APIServer监听的端口。

  • --pod-network-cidr指定Pod网络的范围。该参数使用依赖于使用的网络方案,本文将使用经典的flannel网络方案。

  • --service-cidr指定Service网络的范围。注意要和kubelet中指定的DNS的具体地址的CIDR一致。

  • --service-dns-domain指定Kubernetes内部Service网络使用DNS域名。注意要和kubelet中指定的一致。

  • --token-ttl证书过时时间。

[root@master ~]# kubeadm init --apiserver-advertise-address 192.168.214.166 --apiserver-bind-port=6443 --pod-network-cidr=172.16.0.0/16 --service-cidr=172.17.0.0/16 --service-dns-domain=cluster.local --token-ttl=2400h0m0s --kubernetes-version=v1.13.1
[init] Using Kubernetes version: v1.13.1
[preflight] Running pre-flight checks
	[WARNING SystemVerification]: this Docker version is not on the list of validated versions: 18.09.2. Latest validated version: 18.06
	[WARNING Service-Kubelet]: kubelet service is not enabled, please run 'systemctl enable kubelet.service'
[preflight] Pulling images required for setting up a Kubernetes cluster
[preflight] This might take a minute or two, depending on the speed of your internet connection
[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Activating the kubelet service
[certs] Using certificateDir folder "/etc/kubernetes/pki"
[certs] Generating "etcd/ca" certificate and key
[certs] Generating "etcd/server" certificate and key
[certs] etcd/server serving cert is signed for DNS names [master localhost] and IPs [192.168.214.166 127.0.0.1 ::1]
[certs] Generating "etcd/peer" certificate and key
[certs] etcd/peer serving cert is signed for DNS names [master localhost] and IPs [192.168.214.166 127.0.0.1 ::1]
[certs] Generating "etcd/healthcheck-client" certificate and key
[certs] Generating "apiserver-etcd-client" certificate and key
[certs] Generating "ca" certificate and key
[certs] Generating "apiserver-kubelet-client" certificate and key
[certs] Generating "apiserver" certificate and key
[certs] apiserver serving cert is signed for DNS names [master kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [172.17.0.1 192.168.214.166]
[certs] Generating "front-proxy-ca" certificate and key
[certs] Generating "front-proxy-client" certificate and key
[certs] Generating "sa" key and public key
[kubeconfig] Using kubeconfig folder "/etc/kubernetes"
[kubeconfig] Writing "admin.conf" kubeconfig file
[kubeconfig] Writing "kubelet.conf" kubeconfig file
[kubeconfig] Writing "controller-manager.conf" kubeconfig file
[kubeconfig] Writing "scheduler.conf" kubeconfig file
[control-plane] Using manifest folder "/etc/kubernetes/manifests"
[control-plane] Creating static Pod manifest for "kube-apiserver"
[control-plane] Creating static Pod manifest for "kube-controller-manager"
[control-plane] Creating static Pod manifest for "kube-scheduler"
[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[apiclient] All control plane components are healthy after 22.508526 seconds
[uploadconfig] storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
[kubelet] Creating a ConfigMap "kubelet-config-1.13" in namespace kube-system with the configuration for the kubelets in the cluster
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "master" as an annotation
[mark-control-plane] Marking the node master as control-plane by adding the label "node-role.kubernetes.io/master=''"
[mark-control-plane] Marking the node master as control-plane by adding the taints [node-role.kubernetes.io/master:NoSchedule]
[bootstrap-token] Using token: n6312v.ewq7swb59ceu2fce
[bootstrap-token] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles
[bootstraptoken] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
[bootstraptoken] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
[bootstraptoken] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
[bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy

Your Kubernetes master has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

You can now join any number of machines by running the following on each node
as root:

  kubeadm join 192.168.214.166:6443 --token n6312v.ewq7swb59ceu2fce --discovery-token-ca-cert-hash sha256:25369a6cbe5abc31a3177d28e302c9ea9236766e4447051ad259bef6c209df67

注:

  1. kubeadm执行初始化以前的检查,Docker版本的检查,kubelet的检查,swap的检查等。

  2. 生成CA证书和密钥。[cert]

  3. 生成apiserver证书和密钥。

  4. 生成其余证书和密钥,位置/etc/kubernetes/pki

  5. 生成KubeConfig文件,位置在/etc/kubernetes/, kubelet(kubelet.conf)、kubectl(admin.conf)等须要这些文件跟Master通讯。[kubeconfig]

  6. 生成manifest, 位置在/etc/kubernetes/manifests/, kubelet会使用生成的yaml文件来启动Master节点的各个组件。

  7. 给Master节点添加标签node-role.kubernetes.io/master=""使其不参与任何的Pod调度。

  8. 配置RBAC的相关规则。

  9. 安装必备的组件kube-dnskube-proxy

  10. 初始化成功,以及一些提示。

  11. 另需注意,token须要保存好,用于node加入集群时使用,后期没法重现 ,万一忘记可在master节点使用 kubeadm token list查看 或 kubeadm token create建立  [bootstraptoken]

  12. 执行时若出现swap报错请添加参数 --ignore-preflight-errors=Swap

若是你须要从新作 kubeadm init ,那么咱们最好把上次初始化和容器服务所有清理掉,具体步骤

(1)kubeadm reset
(2)systemctl stop kubelet
(3)docker stop $(docker ps -qa) && docker rm $(docker ps -qa) ## 若是docker上有其余服务,请不要使用这个命令,这时你须要手动排查出kubernetes相关容器并删除
(4)systemctl start kubelet
(5)kubeadm init

配置 kubectl

kubectl 是管理 Kubernetes Cluster 的命令行工具。

在 Master上用 root用户执行下列命令来配置 kubectl:

[root@master ~]# echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
[root@master ~]# source /etc/profile 
[root@master ~]# echo $KUBECONFIG
/etc/kubernetes/admin.conf
##安装时出现了这个报错,就是没有配置上面参数致使的,/etc/kubernetes/admin.conf这个文件主要是集群初始化的时候用来传递参数的
The connection to the server localhost:8080 was refused - did you specify the right host or port?

配置kubectl自动补全:

1.3版本中,kubectl添加了一个completions的命令, 该命令可用于自动补全

# yum install -y bash-completion
# locate bash_completion(没有locate命令安装yum  -y install mlocate -y)
/usr/share/bash-completion/bash_completion
# source /usr/share/bash-completion/bash_completion
# source <(kubectl completion bash)

使用kubectl查看组件状态

[root@master ~]# kubectl get componentstatus(cs)
NAME                 STATUS    MESSAGE              ERROR
controller-manager   Healthy   ok                   
scheduler            Healthy   ok                   
etcd-0               Healthy   {"health": "true"}

查看集群中的pods,此时看到coredns为pending状态,master组件为running状态

[root@master ~]# kubectl get pods --all-namespaces 
NAMESPACE     NAME                             READY   STATUS    RESTARTS   AGE
kube-system   coredns-86c58d9df4-8r2tf         0/1     Pending   0          5h57m
kube-system   coredns-86c58d9df4-nltw6         0/1     Pending   0          5h57m
kube-system   etcd-master                      1/1     Running   0          5h57m
kube-system   kube-apiserver-master            1/1     Running   0          5h57m
kube-system   kube-controller-manager-master   1/1     Running   0          5h56m
kube-system   kube-proxy-xcpcg                 1/1     Running   0          5h57m
kube-system   kube-scheduler-master            1/1     Running   0          5h57m

要让 Kubernetes Cluster 可以工做,必须安装 Pod 网络,不然 Pod 之间没法通讯。

上面的这些核心组件虽然为running状态,可是并非跑在Pod network中的(此时pod网络尚未建立),而是采用了Host network,以kube-APIserver为例,咱们来验证下

[root@master ~]# kubectl get pods -n kube-system kube-apiserver-master
NAME                                   READY     STATUS    RESTARTS   AGE
kube-apiserver-master            1/1        Running              3          1d            1/1        Running              3          1d
#查看kube-apiserver的容器id
[root@master ~]# docker ps |grep apiserver
c120c761b764        9df3c00f55e6                 "kube-apiserver --..."   33 minutes ago
#查看对应的pause容器的network属性
[root@master ~]# docker inspect c120c761b764
"NetworkMode": "host",

接下来安装Pod网络

[root@master ~]# wget  https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml
[root@master ~]# sed -i 's#"Network": "10.244.0.0/16",#"Network": "172.20.0.0/16",#g' kube-flannel.yml
[root@master ~]# sed -i 's#"quay.io/coreos/flannel:v0.9.1-amd64",#"quay.io/coreos/flannel:v0.10.0-amd64",#g' kube-flannel.yml

##kube-flannel.yaml文件参考
[root@master ~]# vim kube-flannel.yaml
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
  name: flannel
rules:
  - apiGroups:
      - ""
    resources:
      - pods
    verbs:
      - get
  - apiGroups:
      - ""
    resources:
      - nodes
    verbs:
      - list
      - watch
  - apiGroups:
      - ""
    resources:
      - nodes/status
    verbs:
      - patch
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
  name: flannel
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: flannel
subjects:
- kind: ServiceAccount
  name: flannel
  namespace: kube-system
---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: flannel
  namespace: kube-system
---
kind: ConfigMap
apiVersion: v1
metadata:
  name: kube-flannel-cfg
  namespace: kube-system
  labels:
    tier: node
    app: flannel
data:
  cni-conf.json: |
    {
      "name": "cbr0",
      "type": "flannel",
      "delegate": {
        "isDefaultGateway": true
      }
    }
  net-conf.json: |
    {
      "Network": "172.16.0.0/16",
      "Backend": {
        "Type": "vxlan"
      }
    }
---
apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
  name: kube-flannel-ds
  namespace: kube-system
  labels:
    tier: node
    app: flannel
spec:
  template:
    metadata:
      labels:
        tier: node
        app: flannel
    spec:
      hostNetwork: true
      nodeSelector:
        beta.kubernetes.io/arch: amd64
      tolerations:
      - key: node-role.kubernetes.io/master
        operator: Exists
        effect: NoSchedule
      serviceAccountName: flannel
      initContainers:
      - name: install-cni
        image: quay.io/coreos/flannel:v0.10.0-amd64
        command:
        - cp
        args:
        - -f
        - /etc/kube-flannel/cni-conf.json
        - /etc/cni/net.d/10-flannel.conf
        volumeMounts:
        - name: cni
          mountPath: /etc/cni/net.d
        - name: flannel-cfg
          mountPath: /etc/kube-flannel/
      containers:
      - name: kube-flannel
        image: quay.io/coreos/flannel:v0.10.0-amd64
        command: [ "/opt/bin/flanneld", "--ip-masq", "--kube-subnet-mgr" ]
        securityContext:
          privileged: true
        env:
        - name: POD_NAME
          valueFrom:
            fieldRef:
              fieldPath: metadata.name
              
 注:
     flannel文件中的Network要和kubadm init指定的Pod网络一致,咱们设置的是172.16.0.0/16,默认是10.244.0.0/16
     flannel版本根据咱们以前下载的镜像改成v0.10.0版本

检查一下 CoreDNS Pod是否正常运行起来, 若正常运行,说明master安装成功

[root@master ~]# kubectl get pods --all-namespaces 
NAMESPACE     NAME                             READY   STATUS     RESTARTS   AGE
kube-system   coredns-86c58d9df4-8r2tf         1/1     Running    0          6h16m
kube-system   coredns-86c58d9df4-nltw6         1/1     Running    0          6h16m
kube-system   etcd-master                      1/1     Running    0          6h15m
kube-system   kube-apiserver-master            1/1     Running    0          6h15m
kube-system   kube-controller-manager-master   1/1     Running    0          6h15m
kube-system   kube-flannel-ds-amd64-b9kfs      1/1     Running    0          8m49s
kube-system   kube-proxy-xcpcg                 1/1     Running    0          6h16m
kube-system   kube-scheduler-master            1/1     Running    0          6h15m

检查主节点状态,咱们能够看到已为Ready

[root@master ~]# kubectl get nodes 
NAME     STATUS   ROLES    AGE     VERSION
master   Ready    master   6h23m   v1.13.3
#命令行验证
[root@master ~]# curl --cacert /etc/kubernetes/pki/ca.crt --cert /etc/kubernetes/pki/apiserver-kubelet-client.crt --key /etc/kubernetes/pki/apiserver-kubelet-client.key https://192.168.214.166:6443

添加node节点到集群中

刚才初始化Master时返回的信息最后一条命令,在node上执行便可

[root@node1 ~]# kubeadm join 192.168.214.166:6443 --token n6312v.ewq7swb59ceu2fce --discovery-token-ca-cert-hash sha256:25369a6cbe5abc31a3177d28e302c9ea9236766e4447051ad259bef6c209df67
[preflight] Running pre-flight checks
	[WARNING SystemVerification]: this Docker version is not on the list of validated versions: 18.09.2. Latest validated version: 18.06
[discovery] Trying to connect to API Server "192.168.214.166:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://192.168.214.166:6443"
[discovery] Requesting info from "https://192.168.214.166:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "192.168.214.166:6443"
[discovery] Successfully established connection with API Server "192.168.214.166:6443"
[join] Reading configuration from the cluster...
[join] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -oyaml'
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.13" ConfigMap in the kube-system namespace
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "node1" as an annotation

This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the master to see this node join the cluster.

查看集群状态,集群已部署成功

[root@master my.conf]# kubectl get nodes 
NAME     STATUS   ROLES    AGE    VERSION
master   Ready    master   12h    v1.13.3
node1    Ready    <none>   28m    v1.13.3
node2    Ready    <none>   153m   v1.13.3

[root@master my.conf]# kubectl get pods --all-namespaces -o wide
NAMESPACE     NAME                             READY   STATUS    RESTARTS   AGE    IP                NODE     NOMINATED NODE   READINESS GATES
kube-system   coredns-86c58d9df4-8r2tf         1/1     Running   0          12h    172.16.0.3        master   <none>           <none>
kube-system   coredns-86c58d9df4-nltw6         1/1     Running   0          12h    172.16.0.2        master   <none>           <none>
kube-system   etcd-master                      1/1     Running   0          12h    192.168.214.166   master   <none>           <none>
kube-system   kube-apiserver-master            1/1     Running   0          12h    192.168.214.166   master   <none>           <none>
kube-system   kube-controller-manager-master   1/1     Running   0          12h    192.168.214.166   master   <none>           <none>
kube-system   kube-flannel-ds-dms4z            1/1     Running   0          136m   192.168.214.166   master   <none>           <none>
kube-system   kube-flannel-ds-gf4zk            1/1     Running   6          28m    192.168.214.167   node1    <none>           <none>
kube-system   kube-flannel-ds-wfbh5            1/1     Running   2          136m   192.168.214.168   node2    <none>           <none>
kube-system   kube-proxy-d486m                 1/1     Running   0          28m    192.168.214.167   node1    <none>           <none>
kube-system   kube-proxy-qpntl                 1/1     Running   0          154m   192.168.214.168   node2    <none>           <none>
kube-system   kube-proxy-xcpcg                 1/1     Running   0          12h    192.168.214.166   master   <none>           <none>
kube-system   kube-scheduler-master            1/1     Running   0          12h    192.168.214.166   master   <none>           <none>

拆卸集群

删除node节点

kubectl drain 节点名称 --delete-local-data --force --ignore-daemonsets
kubectl delete node node节点名称
[root@master ~]# kubectl drain node1 --delete-local-data --force --ignore-daemonsets
node/node1 cordoned
WARNING: Ignoring DaemonSet-managed pods: kube-flannel-ds-qmdxs, kube-proxy-rzcpr
node/node1 drained
[root@master ~]# kubectl delete node node1
node "node1" deleted

节点移除后,咱们能够执行以下命令来重置集群:

[root@master ~]# kubeadm reset