Kubernetes在1.3版本以后,增长了“集群联邦”Federation的功能。这个功能使企业可以快速有效的、低成本的跨区跨域、甚至在不一样的云平台上运行集群。这个功能能够按照地理位置建立一个复制机制,将多个kubernetes集群进行复制,即便遇到某个区域链接中断或某个数据中心故障,也会保持最关键的服务运行。在1.7版之后支持本地多个集群联邦管理,不须要使用依赖云平台。node
“集群联邦”在架构上同kubernetes集群很类似。有一个“集群联邦”的API server提供一个标准的Kubernetes API,而且经过etcd来存储状态。不一样的是,一个一般的Kubernetes只是管理节点计算,而“集群联邦”管理全部的kubernetes集群。mysql
Kubernetes有一个标准的插件:kube-dns,这个插件能够在集群内部提供DNS服务,经过DNS解析service名字来访问kubernetes服务。Kubernetes服务是由一组kubernetesPOD组成的,这些POD是一些已经容器化了的应用,这些POD前面使用到了负载均衡器。假如咱们有一个kubernetes集群,这个集群裡面有一个服务叫作mysql,这个服务是由一组mysql POD组成的。在这个kubernetes集群中,其余应用能够经过DNS来访问这个mysql服务。linux
集群联邦federation/v1beta1 API扩展基于DNS服务发现的功能。利用DNS,让POD能够跨集群、透明的解析服务。git
为了追求高可用性和更高的性能,集群联邦可以把不一样POD指定给不一样的Kubernetes集群中。集群联邦调度器将决定如何在不一样kubernetes集群中分配工做负载。github
经过跨集群调度,咱们能够:sql
l 跨kubernetes集群均匀的调度任务负载docker
l 将各个kubernetes集群的工做负载进行最大化,若是当前kubernetes集群超出了承受能力,那麽将额外的工做负载路由到另外一个比较空闲的kubernetes集群中api
l 根据应用地理区域需求,调度工做负载到不一样的kubernetes集群中,对于不一样的终端用户,提供更高的带宽和更低的延迟。跨域
集群联邦能够跨集群冗馀部署,当某个集群所在区域出现故障时,并不影响整个服务。集群联邦还能够检测集群是否为不可用状态,若是发现某个集群为不可用状态时,能够将失败的任务从新分配给集群联邦中其余可用状态的集群上。tomcat
Kubernetes1.7版本的集群与联邦集群功能的安装方式均为镜像安装,全部组件功能都使用官方提供的镜像来实现,因为官方镜像国内没法正常下载,须要提早准备好镜像或***。
具体镜像列表以下:
Kubernetes 1.7尚未针对docker 1.13上作测试和验证,因此这里安装Kubernetes官方推荐的Docker 1.12版本。
建立/etc/sysctl.d/k8s.conf文件,添加以下内容:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
执行sysctl -p /etc/sysctl.d/k8s.conf使修改生效。
在/etc/hostname中修改各节点的hostname,在/etc/hosts设置hostname对应ip:
192.168.5.13 test01.example.com
192.168.5.14 test02.example.com
关闭防火墙服务与禁用开机启动项
systemctl stop firewalld
systemctl disable firewalld
关闭SELINUX选项
setenforce 0
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g'/etc/sysconfig/selinux
注意:该yum源须要科学才能正常安装
在每一个节点安装kubeadm和kubelet,首先是添加kubernetes的YUM源:
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://yum.kubernetes.io/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg
https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
EOF
安装kubeadm, kubelet, kubectl, kubernets-cni
yum install -y kubelet kubeadm kubectl kubernetes-cni
kubelet服务设置开机启动
systemctl enable kubelet.service
以上安装完成后,初始化环境的准备就完成了。
首先在一个节点上安装kubernetes做为master节点,将master节点参与集群调度.而后在该节点上安装联邦集群功能,做为联邦集群的控制平面。
使用kubeadm初始化集群,选择node1做为Master
在node1上执行下面的命令:
注:由于咱们选择flannel做为Pod网络插件,因此命令指定--pod-network-cidr=10.240.0.0/16
kubeadm init --kubernetes-version=v1.7.0 --pod-network-cidr=10.240.0.0/16 --apiserver-advertise-address=192.168.5.13
kubeadm init执行成功后输出下面的信息:
You can now join any number of machines by running the following on each node
as root:
kubeadm join --token e7986d.e440de5882342711 192.168.5.13:6443
请保存好kubeadm join 的信息,后续节点加入集群须要使用该命令.
为了使用kubectl访问apiserver,在~/.bash_profile中追加下面的环境变量:
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
source /etc/profile
此时kubectl命令在master node上就能够用了,查看一下当前机器中的Node,看到node0状态为Ready:
kubectl get nodes
NAME STATUS AGE VERSION
node0 Ready 3m v1.7.0
接下来安装flannel network add-on,首先下载须要的yaml文件:
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel-rbac.yml
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
目前须要在kube-flannel.yml中使用--iface参数指定集群主机内网网卡的名称,不然可能会出现dns没法解析。须要将kube-flannel.yml下载到本地,flanneld启动参数加上--iface=<iface-name>
vi kube-flannel.yml
command: [ "/opt/bin/flanneld", "--ip-masq", "--kube-subnet-mgr", "--iface=eth1" ] //--iface=eth1
改成本机网卡名称
部署网络组件:
kubectl create -f kube-flannel-rbac.yml
kubectl apply -f kube-flannel.yml
确保全部的Pod都处于Running状态。
kubectl get pod --all-namespaces -o wide
以下图:
使用下面的命令使Master Node参与工做负载:
kubectl taint nodes --all node-role.kubernetes.io/master-
修改etcd与apiserver的监听端口,修改前先中止kubelet服务
vi /etc/kubernetes/manifests/etcd.yaml
- --listen-client-urls=http://0.0.0.0:2379
- --advertise-client-urls=http://0.0.0.0:2379
vi /etc/kubernetes/manifests/kube-apiserver.yaml
- --insecure-port=8080
- --insecure-bind-address=0.0.0.0
重启kubelet服务让etcd与apiserver监听端口生效
systemctl restart kubelet
curl https://raw.githubusercontent.com/kubernetes/helm/master/scripts/get > get_helm.sh
chmod 700 get_helm.sh
./get_helm.sh
修改RBAC临时访问权限(这是比较关键的地方,没有这步后面会失败)
kubectl create clusterrolebinding add-on-cluster-admin --clusterrole=cluster-admin --serviceaccount=kube-system:default
建立coredns键值文件
cat <<EOF > /opt/Values.yaml
isClusterService: false
serviceType: "NodePort"
middleware:
kubernetes:
enabled: false
etcd:
enabled: true
zones:
- "example.com."
endpoint: "http://192.168.5.13:2379"
EOF
新建coredns配置文件
vi /root/coredns-provider.conf
[Global]
etcd-endpoints = http://192.168.0.51:2379
zones = example.com.
在kubernetes工做节点上初始安装后执行如下命令,就能够加入集群
kubeadm join --token e7986d.e440de5882342711 192.168.5.13:6443
在master节点查看节点状态,添加以后能够在master上执行这个查看是否添加成功
kubectl get nodes
重复上述步骤建立多个kubernetes集群,为联邦集群添加集群节点作准备。
执行这个进行联邦的初始化,在控制平面的master节点上执行:
kubefed init fellowship \
--host-cluster-context=kubernetes-admin@kubernetes \
--dns-provider="coredns" \
--dns-zone-name="example.com." \
--dns-provider-config="/root/coredns-provider.conf" \
--apiserver-enable-basic-auth=true \
--apiserver-enable-token-auth=true \
--apiserver-arg-overrides="--anonymous-auth=false,--v=4" \
--api-server-service-type="NodePort" \
--api-server-advertise-address="192.168.5.13" \
--etcd-persistent-storage=false
初始化完成后集群联邦会在federation-system命名空间中建立两个POD
选择集群的context
kubectl config use-context fellowship //fellowship为联邦初始化时建立的名称
添加联邦集群文件
集群1
cat /home/tmp/c1.yaml
apiVersion: federation/v1beta1
kind: Cluster
metadata:
name: c1
spec:
serverAddressByClientCIDRs:
- clientCIDR: 0.0.0.0/0
serverAddress: http://192.168.15.53:8080
集群2
cat /home/tmp/c2.yaml
apiVersion: federation/v1beta1
kind: Cluster
metadata:
name: c2
spec:
serverAddressByClientCIDRs:
- clientCIDR: 0.0.0.0/0
serverAddress: http://192.168.8.12:8080
执行添加这2个集群到联邦
kubectl create -f c1.yaml
kubectl create -f c2.yaml
查看联邦集群状态,状态为Ready就是成功了。
[root@test01 ~]# kubectl get cluster
NAME STATUS AGE
c1 Ready 2d
c2 Ready 2d
经过联邦集群部署应用,须要在联邦集群控制平面的节点上,切换到联邦的context
kubectl config use-context fellowship //fellowship为联邦初始化时建立的名称
配置应用在分布在2个集群中:
vi tomcat.yaml
apiVersion: exensions/v1beta1
kind: ReplicaSet
metadata:
name: tomcat
lables:
app: tomcat
annotaions:
federation.kubernetes.io/replica-set-preferences:
{
"rebalance": true,
"clusters": {
"c1": {
"weight": 1
},
"c2": {
"weight": 1
}
}
}
spec:
replicas: 4
template:
metadata:
labels:
#region: tomcat
app: tomcat
spec:
containers:
- name: fed-tomcat
image: 192.168.18.250:5002/admin/tomcat:v0.0.5
resourcces:
requests:
cpu: 200M
memory: 500Mi
ports:
- containerPort: 80
经过以上编排建立应用在联邦,应用的4个实例按比例分布到2个集群中
目前集群联邦只支持如下几种类型资源的建立:
Cluster
ConfigMap
DaemonSets
Deployment
Events
Ingress
Namespaces
ReplicaSets
Secrets
Services
Q:node机器推荐命名规则与生成使用经验
A:推荐使用“地理位置+机房编号+机柜号+应用名称”的缩写字母来命名,这样便于运维人员后续的管理和维护。
Q:为何要修改etcd与apiserver的监听端口?
A:修改etcd监听IP为0.0.0.0是为了防止出现监听了lo网卡的127.0.0.1的IP,出现不能链接的状况。apiserver则是开启8080端口用于接收http请求,这样是为了测试时方便不用使用CA证书认证。
Q:请问docker 源怎么弄,国内通常很差链接,下载不了?另外还有1.6要升级到1.7怎么作?
A:建议使用***方式,这样就不须要改动配置。1.6升级到1.7,先中止kubelet服务,而后下载1.7版本的kubernetes-server-linux-amd64.tar.gz包,解压替换/usr/bin目录下的同名文件,而后再把kubelet服务启动
Q:在联邦集群中部署服务,能够将服务只部署在一个集群中么?
A:能够只部署服务在一个集群中,经过编排文件中federation.kubernetes.io/replica-set-preference来控制副本分布在哪一个集群。
Q:联邦集群的几个组件如今有支持高可用么?没有的话,咱们应该怎么避免联邦组件的bug致使的服务不可用?
A:联邦集群的Federation组目录没有支持高可用,但联邦功能主要是为了调度管理k8s集群的,因此联邦集群Federation组件出现故障时并不会直接影响到下面各个集群自身的已经在运行的服务。