在上篇文章minikube部署中,有提到Minikube部署Kubernetes的核心就是Kubeadm,这篇文章来详细说明下Kubeadm原理及部署步骤。写这篇文章的时候,Kubernetes1.14刚刚发布,因此部署步骤以1.14版为主。前端
Kubeadm工具的出发点很简单,就是尽量简单的部署一个生产可用的Kubernetes集群。实际也确实很简单,只须要两条命令:node
# 建立一个 Master 节点 $ kubeadm init # 将一个 Node 节点加入到当前集群中 $ kubeadm join <Master 节点的 IP 和端口 >
kubeadm作了这些事
执行 kubeadm init时:linux
执行 kubeadm join时:git
简单来讲,kubeadm作的事就是把大部分组件都容器化,经过StaticPod方式运行,并自动化了大部分的集群配置及认证等工做,简单几步便可搭建一个可用Kubernetes的集群。github
这里有个问题,为何不把kubelet组件也容器化呢,是由于,kubelet在配置容器网络、管理容器数据卷时,都须要直接操做宿主机,而若是如今 kubelet 自己就运行在一个容器里,那么直接操做宿主机就会变得很麻烦。好比,容器内要作NFS的挂载,须要kubelet先在宿主机执行mount挂载NFS。若是kubelet运行在容器中问题来了,若是kubectl运行在容器中,要操做宿主机的Mount Namespace是很是复杂的。因此,kubeadm选择把kubelet运行直接运行在宿主机中,使用容器部署其余Kubernetes组件。因此,Kubeadm部署要安装的组件有Kubeadm、kubelet、kubectl三个。web
上面说的是kubeadm部署方式的通常步骤,kubeadm部署是能够自由定制的,包括要容器化哪些组件,所用的镜像,是否用外部etcd,是否使用用户证书认证等以及集群的配置等等,都是能够灵活定制的,这也是kubeadm可以快速部署一个高可用的集群的基础。详细的说明能够参考官方Reference。可是,kubeadm最重要的做用仍是解决集群部署问题,而不是集群配置管理的问题,官方也建议把Kubeadm做为一个基础工具,在其上层再去量身定制适合本身的集群的管理工具(例如minikube)。docker
Kubernetes的高可用主要指的是控制平面的高可用,简单说,就是有多套Master节点组件和Etcd组件,工做节点经过负载均衡链接到各Master。HA有两种作法,一种是将etcd与Master节点组件混布在一块儿:bootstrap
另一种方式是,使用独立的Etcd集群,不与Master节点混布:segmentfault
两种方式的相同之处在于都提供了控制平面的冗余,实现了集群高能够用,区别在于:
Etcd混布方式:后端
Etcd独立部署方式:
因为机器资源不足,下面的部署测试,只会以混布的方式部署一个1*haproxy,2*master,2*node,共5台机器的集群,实际上因为etcd选举要过半数,至少要3台master节点才能构成高可用,在生产环境,仍是要根据实际状况,尽可能选择风险低的拓扑结构。
master-1:192.168.41.230 (控制平面节点1)
master-2:192.168.41.231 (控制平面节点2)
node-1:172.16.201.108 (工做节点1)
node-2:172.16.201.109 (工做节点2)
haproxy:192.168.41.231 (haproxy)
# cat /etc/redhat-release CentOS Linux release 7.6.1810 (Core) # uname -r 5.0.5-1.el7.elrepo.x86_64
kubeadm:1.14.0
Kubernetes:1.14.0
Docker:Community 18.09.4
haproxy: 1.5.18
在全部节点上操做:
setenforce 0 sed -i 's/SELINUX=enforcing/SELINUX=permissive/' /etc/selinux/config systemctl stop firewalld systemctl disable firewalld
swapoff -a
cat <<EOF > /etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 EOF sysctl --system
在除了haproxy之外全部节点上操做
cat << EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/ enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
wget -O /etc/yum.repos.d/docker-ce.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo yum install -y docker-ce
yum install -y kubelet kubeadm kubectl
在haproxy节点操做:
# 安装haproxy yum install haproxy -y # 修改haproxy配置 cat << EOF > /etc/haproxy/haproxy.cfg global log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon defaults mode tcp log global retries 3 timeout connect 10s timeout client 1m timeout server 1m frontend kube-apiserver bind *:6443 # 指定前端端口 mode tcp default_backend master backend master # 指定后端机器及端口,负载方式为轮询 balance roundrobin server master-1 192.168.41.230:6443 check maxconn 2000 server master-2 192.168.41.231:6443 check maxconn 2000 EOF # 开机默认启动haproxy,开启服务 systemctl enable haproxy systemctl start haproxy # 检查服务端口状况: # netstat -lntup | grep 6443 tcp 0 0 0.0.0.0:6443 0.0.0.0:* LISTEN 3110/haproxy
在master-1节点操做:
cat << EOF > /root/kubeadm-config.yaml apiVersion: kubeadm.k8s.io/v1beta1 kind: ClusterConfiguration kubernetesVersion: v1.14.0 # 指定1.14版本 controlPlaneEndpoint: 192.168.41.232:6443 # haproxy地址及端口 imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers # 指定镜像源为阿里源 networking: podSubnet: 10.244.0.0/16 # 计划使用flannel网络插件,指定pod网段及掩码 EOF
systemctl enable kubelet systemctl start kubelet kubeadm config images pull --config kubeadm-config.yaml # 经过阿里源预先拉镜像 kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs
安装成功,能够看到输出
You can now join any number of the control-plane node running the following command on each as root: # master节点用如下命令加入集群: kubeadm join 192.168.41.232:6443 --token ocb5tz.pv252zn76rl4l3f6 \ --discovery-token-ca-cert-hash sha256:141bbeb79bf58d81d551f33ace207c7b19bee1cfd7790112ce26a6a300eee5a2 \ --experimental-control-plane --certificate-key 20366c9cdbfdc1435a6f6d616d988d027f2785e34e2df9383f784cf61bab9826 Then you can join any number of worker nodes by running the following on each as root: # 工做节点用如下命令加入集群: kubeadm join 192.168.41.232:6443 --token ocb5tz.pv252zn76rl4l3f6 \ --discovery-token-ca-cert-hash sha256:141bbeb79bf58d81d551f33ace207c7b19bee1cfd7790112ce26a6a300eee5a2
原来的kubeadm版本,join命令只用于工做节点的加入,而新版本加入了 --experimental-contaol-plane 参数后,控制平面(master)节点也能够经过kubeadm join命令加入集群了。
在master-2操做:
kubeadm join 192.168.41.232:6443 --token ocb5tz.pv252zn76rl4l3f6 \ --discovery-token-ca-cert-hash sha256:141bbeb79bf58d81d551f33ace207c7b19bee1cfd7790112ce26a6a300eee5a2 \ --experimental-control-plane --certificate-key 20366c9cdbfdc1435a6f6d616d988d027f2785e34e2df9383f784cf61bab9826 mkdir -p $HOME/.kube cp -i /etc/kubernetes/admin.conf $HOME/.kube/config chown $(id -u):$(id -g) $HOME/.kube/config
如今,在任何一个master 节点,执行kubectl get no,能够看到,集群中已经有2台master节点了
# kubectl get no NAME STATUS ROLES AGE VERSION master-1 NotReady master 34m v1.14.0 master-2 NotReady master 4m52s v1.14.0
分别在两个node节点操做:
kubeadm join 192.168.41.232:6443 --token ocb5tz.pv252zn76rl4l3f6 \ --discovery-token-ca-cert-hash sha256:141bbeb79bf58d81d551f33ace207c7b19bee1cfd7790112ce26a6a300eee5a2
再次执行kubectl get no
# kubectl get no NAME STATUS ROLES AGE VERSION master-1 NotReady master 45m v1.14.0 master-2 NotReady master 15m v1.14.0 node-1 NotReady <none> 6m19s v1.14.0 node-2 NotReady <none> 4m59s v1.14.0
能够看到两个node节点都加入集群了。但是,各个节点状态为何都是NotReady呢。经过执行kubectl describe master-1,能够看到这样的提示:
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
原来是由于网络插件没有就绪致使的。因此 ,咱们来安装一波
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/a70459be0084506e4ec919aa1c114638878db11b/Documentation/kube-flannel.yml
再次查看节点状态,能够看到全部节点都已经ready了。
# kubectl get no NAME STATUS ROLES AGE VERSION master-1 Ready master 134m v1.14.0 master-2 Ready master 104m v1.14.0 node-1 Ready <none> 94m v1.14.0 node-2 Ready <none> 93m v1.14.0
至此,一个2主节点2工做节点的k8s集群已经搭建完毕。若是要加入更多的master或node节点,只要屡次执行kubeadm join命令加入集群就好,不须要额外配置,很是方便。
使用kubeadm join命令新增节点,须要2个参数,--token与--discovery-token-ca-cert-hash。其中,token有限期通常是24小时,若是超过期间要新增节点,就须要从新生成token。
# 从新建立token,建立完也能够经过kubeadm token list命令查看token列表 $ kubeadm token create s058gw.c5x6eeze28**** # 经过如下命令查看sha256格式的证书hash $ openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //' 9592464b295699696ce35e5d1dd155580ee29d9bd0884b***** # 在新节点执行join $ kubeadm join api-serverip:port --token s058gw.c5x6eeze28**** --discovery-token-ca-cert-hash 9592464b295699696ce35e5d1dd155580ee29d9bd0884b*****
跟上篇文章minikube部署同样,这里部署一个简单的goweb服务来测试集群,运行时暴露8000端口,同时访问/info路径会显示容器的主机名。
# deployment-goweb.yaml apiVersion: apps/v1 kind: Deployment metadata: name: goweb spec: selector: matchLabels: app: goweb replicas: 4 template: metadata: labels: app: goweb spec: containers: - image: lingtony/goweb name: goweb ports: - containerPort: 8000
# svc-goweb.yaml apiVersion: v1 kind: Service metadata: name: gowebsvc spec: selector: app: goweb ports: - name: default protocol: TCP port: 80 targetPort: 8000
kubectl apply -f deployment-goweb.yaml kubectl apply -y svc-goweb.yaml
[root@master-1 ~]# kubectl get po -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES goweb-6c569f884-67z89 1/1 Running 0 25m 10.244.1.2 node-1 <none> <none> goweb-6c569f884-bt4p6 1/1 Running 0 25m 10.244.1.3 node-1 <none> <none> goweb-6c569f884-dltww 1/1 Running 0 25m 10.244.1.4 node-1 <none> <none> goweb-6c569f884-vshkm 1/1 Running 0 25m 10.244.3.4 node-2 <none> <none> # 能够看到,4个pod分布在不一样的node上 [root@master-1 ~]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE gowebsvc ClusterIP 10.106.202.0 <none> 80/TCP 11m kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 21h # 暴露80端口
[root@master-1 ~]# curl http://10.106.202.0/info Hostname: goweb-6c569f884-bt4p6 [root@master-1 ~]# curl http://10.106.202.0/info Hostname: goweb-6c569f884-67z89 [root@master-1 ~]# curl http://10.106.202.0/info Hostname: goweb-6c569f884-vshkm #能够看到,对SVC的请求会在pod间负载均衡。
本文简单介绍了kubeadm工具原理,以及如何用它部署一个高可用的kubernetes集群。须要注意的是,kubeadm工具整体已经GA,能够在生产环境使用了。可是文中经过"kubeadm join -experimental-contaol-plane"参数增长主节点的方式,仍是在alpha阶段,实际在生产环境仍是用init方式来增长主节点比较稳定。kubeadm更多详细配置能够参考官方文档