系统centos7.6.1801
master: 192.168.60.115
slave1:192.168.60.102
slave2:192.168.60.101
保证全部swap分区是0node
[root@k8s-master ~]# cat <<EOF > /etc/sysctl.d/k8s.conflinux
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOFgit
[root@k8s-master ~]# sysctl --systemgithub
[root@k8s-master ~]# yum install -y yum-utils device-mapper-persistent-data lvm2
[root@k8s-master ~]# yum-config-manager --add-repo https://download.docker.com/linux/cento
s/docker-ce.repo
[root@k8s-master ~]# yum install docker-ce-18.06.3.ce-3.el7docker
[root@k8s-master ~]# cat <<EOF > /etc/yum.repos.d/kubernetes.repocentos
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/d
oc/rpm-package-key.gpg
EOF
安装k8s kubeadmin
[root@k8s-master ~]# yum install -y kubelet kubeadm kubectl #不安装默认1.18.4版本会报如下错,因kuberadmin,kubectl后续会拉取proxy等镜像最好同版本这个先这样
指定版本会报错:
[root@k8s-master ~]# yum install -y kubelet-1.13.3 kubeadm-1.13.3 kubectl-1.13.3 kubernete
s-cni-0.7.5
已加载插件:fastestmirror, product-id, search-disabled-repos, subscription-managerapi
This system is not registered with an entitlement server. You can use subscription-manager to register.网络
Loading mirror speeds from cached hostfileapp
updates: mirrors.163.com
软件包 kubernetes-cni 已经被 kubelet 取代,改成尝试安装 kubelet-1.18.4-0.x86_64
正在解决依赖关系
--> 正在检查事务
---> 软件包 kubeadm.x86_64.0.1.13.3-0 将被 安装
--> 正在处理依赖关系 kubernetes-cni >= 0.6.0,它被软件包 kubeadm-1.13.3-0.x86_64 须要
软件包 kubernetes-cni 已经被 kubelet 取代,可是取代的软件包并未知足需求
--> 正在处理依赖关系 cri-tools >= 1.11.0,它被软件包 kubeadm-1.13.3-0.x86_64 须要
---> 软件包 kubectl.x86_64.0.1.13.3-0 将被 安装
---> 软件包 kubelet.x86_64.0.1.13.3-0 将被 安装
--> 正在处理依赖关系 kubernetes-cni = 0.6.0,它被软件包 kubelet-1.13.3-0.x86_64 须要
软件包 kubernetes-cni 已经被 kubelet 取代,可是取代的软件包并未知足需求
--> 正在处理依赖关系 socat,它被软件包 kubelet-1.13.3-0.x86_64 须要
--> 正在处理依赖关系 ebtables,它被软件包 kubelet-1.13.3-0.x86_64 须要
--> 正在处理依赖关系 conntrack,它被软件包 kubelet-1.13.3-0.x86_64 须要
---> 软件包 kubelet.x86_64.0.1.18.4-0 将被 安装
--> 正在检查事务
---> 软件包 conntrack-tools.x86_64.0.1.4.4-7.el7 将被 安装
--> 正在处理依赖关系 libnetfilter_cttimeout.so.1(LIBNETFILTER_CTTIMEOUT_1.1)(64bit),它被软件包 conntrack-tool
s-1.4.4-7.el7.x86_64 须要
--> 正在处理依赖关系 libnetfilter_cttimeout.so.1(LIBNETFILTER_CTTIMEOUT_1.0)(64bit),它被软件包 conntrack-tool
s-1.4.4-7.el7.x86_64 须要
--> 正在处理依赖关系 libnetfilter_cthelper.so.0(LIBNETFILTER_CTHELPER_1.0)(64bit),它被软件包 conntrack-tools-
1.4.4-7.el7.x86_64 须要
--> 正在处理依赖关系 libnetfilter_queue.so.1()(64bit),它被软件包 conntrack-tools-1.4.4-7.el7.x86_64 须要
--> 正在处理依赖关系 libnetfilter_cttimeout.so.1()(64bit),它被软件包 conntrack-tools-1.4.4-7.el7.x86_64 须要
--> 正在处理依赖关系 libnetfilter_cthelper.so.0()(64bit),它被软件包 conntrack-tools-1.4.4-7.el7.x86_64 须要
---> 软件包 cri-tools.x86_64.0.1.13.0-0 将被 安装
---> 软件包 ebtables.x86_64.0.2.0.10-16.el7 将被 安装
---> 软件包 kubeadm.x86_64.0.1.13.3-0 将被 安装
--> 正在处理依赖关系 kubernetes-cni >= 0.6.0,它被软件包 kubeadm-1.13.3-0.x86_64 须要
软件包 kubernetes-cni 已经被 kubelet 取代,可是取代的软件包并未知足需求
---> 软件包 kubelet.x86_64.0.1.13.3-0 将被 安装
--> 正在处理依赖关系 kubernetes-cni = 0.6.0,它被软件包 kubelet-1.13.3-0.x86_64 须要
软件包 kubernetes-cni 已经被 kubelet 取代,可是取代的软件包并未知足需求
---> 软件包 socat.x86_64.0.1.7.3.2-2.el7 将被 安装
--> 正在检查事务
---> 软件包 kubeadm.x86_64.0.1.13.3-0 将被 安装
--> 正在处理依赖关系 kubernetes-cni >= 0.6.0,它被软件包 kubeadm-1.13.3-0.x86_64 须要
软件包 kubernetes-cni 已经被 kubelet 取代,可是取代的软件包并未知足需求
---> 软件包 kubelet.x86_64.0.1.13.3-0 将被 安装
--> 正在处理依赖关系 kubernetes-cni = 0.6.0,它被软件包 kubelet-1.13.3-0.x86_64 须要
软件包 kubernetes-cni 已经被 kubelet 取代,可是取代的软件包并未知足需求
---> 软件包 libnetfilter_cthelper.x86_64.0.1.0.0-11.el7 将被 安装
---> 软件包 libnetfilter_cttimeout.x86_64.0.1.0.0-7.el7 将被 安装
---> 软件包 libnetfilter_queue.x86_64.0.1.0.2-2.el7_2 将被 安装
--> 解决依赖关系完成
错误:软件包:kubelet-1.13.3-0.x86_64 (kubernetes)
须要:kubernetes-cni = 0.6.0
可用: kubernetes-cni-0.3.0.1-0.07a8a2.x86_64 (kubernetes)
kubernetes-cni = 0.3.0.1-0.07a8a2
可用: kubernetes-cni-0.5.1-0.x86_64 (kubernetes)
kubernetes-cni = 0.5.1-0
可用: kubernetes-cni-0.5.1-1.x86_64 (kubernetes)
kubernetes-cni = 0.5.1-1
可用: kubernetes-cni-0.6.0-0.x86_64 (kubernetes)
kubernetes-cni = 0.6.0-0
可用: kubernetes-cni-0.7.5-0.x86_64 (kubernetes)
kubernetes-cni = 0.7.5-0
错误:软件包:kubeadm-1.13.3-0.x86_64 (kubernetes)
须要:kubernetes-cni >= 0.6.0
可用: kubernetes-cni-0.3.0.1-0.07a8a2.x86_64 (kubernetes)
kubernetes-cni = 0.3.0.1-0.07a8a2
可用: kubernetes-cni-0.5.1-0.x86_64 (kubernetes)
kubernetes-cni = 0.5.1-0
可用: kubernetes-cni-0.5.1-1.x86_64 (kubernetes)
kubernetes-cni = 0.5.1-1
可用: kubernetes-cni-0.6.0-0.x86_64 (kubernetes)
kubernetes-cni = 0.6.0-0
可用: kubernetes-cni-0.7.5-0.x86_64 (kubernetes)
kubernetes-cni = 0.7.5-0
您能够尝试添加 --skip-broken 选项来解决该问题
您能够尝试执行:rpm -Va --nofiles --nodigest
自定义kuber的版本为1.18.3也可成功#没有1.18.4版本如今
[root@k8s-master ~]# kubeadm init --image-repository=registry.aliyuncs.com/google_containers --pod-network-cidr=172.17.0.0/16 --kubernetes-version=v1.18.3
To start using your cluster, you need to run the following as a regular user:ide
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.60.115:6443 --token 67tkfz.u343ok0fmwhaawop \
--discovery-token-ca-cert-hash sha256:534f975a09ddc465d8f319e5d15cc5ef49a797726dd4e1feba4d1635b9a1e0e0
子节点经过以上黑体字添加到集群里
如下错没有建立配置文件
[root@k8s-master ~]# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?
建立配置文件
[root@k8s-master ~]# mkdir -p $HOME/.kube
[root@k8s-master ~]#
[root@k8s-master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
发现全部节点都是notready缘由是没有安装网络组件
查日志 journalctl -f -u kubelet
6月 19 16:34:07 k8s-master kubelet[9304]: E0619 16:34:07.402431 9304 kubelet.go:2187] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
[root@k8s-master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady master 2m57s v1.18.4
k8s-slave1.novalocal NotReady <none> 109s v1.18.4
k8s-slave2.novalocal NotReady <none> 118s v1.18.4
安装网路组件
[root@k8s-master ~]# kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
检查镜像:
[root@k8s-master ~]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
registry.aliyuncs.com/google_containers/kube-proxy v1.18.3 3439b7546f29 4 weeks ago 117MB
registry.aliyuncs.com/google_containers/kube-scheduler v1.18.3 76216c34ed0c 4 weeks ago 95.3MB
registry.aliyuncs.com/google_containers/kube-apiserver v1.18.3 7e28efa976bd 4 weeks ago 173MB
registry.aliyuncs.com/google_containers/kube-controller-manager v1.18.3 da26705ccb4b 4 weeks ago 162MB
registry.aliyuncs.com/google_containers/pause 3.2 80d28bedfe5d 4 months ago 683kB
registry.aliyuncs.com/google_containers/coredns 1.6.7 67da37a9a360 4 months ago 43.8MB
registry.aliyuncs.com/google_containers/kube-proxy v1.17.0 7d54289267dc 6 months ago 116MB
registry.aliyuncs.com/google_containers/etcd 3.4.3-0 303ce5db0e90 7 months ago 288MB
检查全部k8s 系统组件 发现有拉去失败的删除失败的镜像从新拉(网络缘由)
也能够docker pull 镜像手动去拉保证flannel组件版本节点一致自动会是running状态
[root@k8s-master ~]# kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
[root@k8s-master ~]# kubectl get pods -o wide -n kube-systemNAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATEScoredns-7ff77c879f-844cw 0/1 Pending 0 15m <none> <none> <none> <none>coredns-7ff77c879f-dbhxb 0/1 Pending 0 15m <none> <none> <none> <none>etcd-k8s-master 1/1 Running 0 15m 192.168.60.115 k8s-master <none> <none>kube-apiserver-k8s-master 1/1 Running 0 15m 192.168.60.115 k8s-master <none> <none>kube-controller-manager-k8s-master 1/1 Running 0 15m 192.168.60.115 k8s-master <none> <none>kube-flannel-ds-amd64-5wwws 0/1 Init:0/1 0 8m42s 192.168.60.115 k8s-master <none> <none>kube-flannel-ds-amd64-bv5pf 0/1 Init:ImagePullBackOff 0 8m42s 192.168.60.102 k8s-slave1.novalocal <none> <none>kube-flannel-ds-amd64-sz57p 0/1 Init:ImagePullBackOff 0 8m42s 192.168.60.101 k8s-slave2.novalocal <none> <none>kube-proxy-crwrp 1/1 Running 0 15m 192.168.60.115 k8s-master <none> <none>kube-proxy-njsqf 1/1 Running 0 14m 192.168.60.101 k8s-slave2.novalocal <none> <none>kube-proxy-znh28 1/1 Running 0 14m 192.168.60.102 k8s-slave1.novalocal <none> <none>kube-scheduler-k8s-master 1/1 Running 0 15m 192.168.60.115 k8s-master <none> <none>[root@k8s-master ~]# kubectl get nodesNAME STATUS ROLES AGE VERSIONk8s-master Ready master 83m v1.18.4k8s-slave1.novalocal Ready <none> 82m v1.18.4k8s-slave2.novalocal Ready <none> 82m v1.18.4