服务网格(Service mesh)是当前新兴的架构模式,愈来愈受到人们的青睐。与Kubernetes一块儿,服务网格能够造成一个强大的平台,它能够解决在微服务集群或服务基础设施上发现的高度分布式环境中出现的技术需求。服务网格是一个专门的基础设施层,用于促进微服务之间的服务到服务通讯。git
服务网格解决了基于微服务的应用中典型的通讯需求,包括加密隧道、健康检查、断路器、负载均衡以及流量许可。若是离开微服务来解决这些需求,会致使开发过程当中产生高昂的费用和耗时。github
在本文中,咱们将对服务网格架构模式解决的最多见的微服务通讯需求进行概述。编程
当你意识到微服务实现了至关多的与最初分配给它们的业务逻辑无关的代码时,问题就出现了。此外,有可能你有多个微服务在非标准化的流程中实现了相似的功能。换句话说,微服务开发团队应该专一于业务逻辑,并将低级通讯能力留给特定的层。json
继续推动咱们的方案,须要考虑微服务的内在动态。在给定的时间内,你可能因为如下几个缘由而拥有一个微服务的多个实例:api
简而言之,微服务到微服务的通讯有特定的需求和问题须要解决。如下图片展现了这一方案:浏览器
该图示描述了几个技术挑战。显然,Microservice 1的主要职责是均衡全部Microservice 2实例之间的负载。所以,Microservice 1必须弄清楚咱们在请求时刻有多少个Microservice 2实例。换句话说,Microservice 1必须实现服务发现和负载均衡。网络
另外一方面,Microservice 2必须实现一些服务注册功能以告知Microservice 1什么时候有全新的实例。架构
想要拥有一个彻底动态的环境,如下这些功能应该是微服务开发的一部分:并发
总而言之,主要问题是开发团队花费了大量资源编写十分复杂的代码,而这些代码与微服务预期交付的业务逻辑不直接相关。app
如何将全部微服务均可以调用的外部标准化组件中的全部非功能和操做功能外部化?例如,下图编译了全部功能,这些功能不属于给定的微服务。所以,在肯定全部功能以后,咱们须要决定在哪里实现它们。
Solution #1 :将全部功能封装在一个library中
开发者将负责调用library提供的函数来解决微服务通讯需求。
这个解决方案有几个缺点:
这是一个紧密耦合的解决方案,意味着微服务高度依赖于library
这个模式对于分布和升级新版本的library来讲并不容易
这不符合微服务多语言的原则,由于这会将不一样的编程语言应用于不一样的上下文。
Solution #2:透明代理(Transparent Proxy)
这个解决方案实现了一样的功能集合。可是,采用了一种很是不一样的方法:每一个微服务都有一个特定的组件,扮演代理的角色,负责处理它的传入和传出流量。代理解决了咱们以前描述的库的缺点,具体以下:
服务网格架构模式
虽然透明代理的方法给微服务开发团队和微服务通讯需求带来了一些好处,但仍有一些缺失的部分:
解决方案架构须要另外一个组件,这些组件将被管理员用来定义策略,它将负责向代理传播策略。
如下图片展现了最终架构,也就是服务网格模式:
如你所见,该模式包含了咱们所描述的两个主要组件。
一些重要的事情须要注意:
Kong提供了一个企业级的综合服务链接平台,其包括了API gateway、Kubernetes ingress controller以及服务网格实现。该平台容许用户部署多个环境,如本地、混合云、多区域以及多云环境。
让咱们借助运行在独立于云架构(cloud-agnostic)的Kubernetes集群上的金丝雀发布来实现服务网格,该集群可能包括GKE集群或任何其余的Kubernetes发行版。服务网格将由Kong Mesh实现,并由Kong for Kubernetes做为Kubernetes Ingress Controller。通常而言,ingress controller负责定义进入你的Kubernetes集群的入口点,暴露部署在其内部的微服务,并对其实行消费策略。
首先,确保你已经安装Rancher以及正在运行一个由Rancher管理的Kubernetes集群。在登陆到Rancher以后,选在咱们将要使用的Kubernetes集群,在本例中为“kong-rancher”。点击Cluster Explorer。你将会重定向到如下页面:
如今,让咱们从服务网格开始:
一、 Kong Mesh Helm Chart
回到Rancher Cluster Manger主页并再次选择你的集群。点击菜单栏的“Tools”选项而后点击Catalogs,以建立一个新的catalog。点击Add Catalog按钮,将Kong Mesh的Helm chart收录其中(https://kong.github.io/kong-m...
选择Global做为范围,Helm v3做为Helm版本。
如今点击Apps和Launch来查看在Catalog中可用的Kong Mesh。请注意,Kong做为Rancher的合做伙伴默认提供了Kong for Kubernetes的Helm chart:
二、 安装Kong Mesh
点击顶部菜单栏Namespaces选项并建立一个“kong-mesh-system”命名空间。
将鼠标移到kong-rancher顶部菜单选项上,点击kong-rancher活动集群。
点击Launch kubetcl
建立一个名为“license.json”的文件,用于存放你从Kong Mesh收到的license。格式以下:
{“license”: {“version”:1,“signature”:“6a7c81af4b0a42b380be25c2816a2bb1d761c0f906ae884f93eeca1fd16c8b5107cb6997c958f45d247078ca50a25399a5f87d546e59ea3be28284c3075a9769”,“payload”: {“customer”:“Kong_SE_Demo_H1FY22”,“license_creation_date”:“2020-11-30”,“product_subscription”:“Kong Enterprise Edition”,“support_plan”:“None”,“admin_seats”:“5”,“dataplanes”:“5”,“license_expiration_date”:“2021-06-30”,“license_key”:“XXXXXXXXXXXXX”}}}
如今使用如下命令建立一个Kubernetes通用密钥:
kubectl create secret generic kong-mesh-license -n kong-mesh-system --from-file=./license.json
关闭kubectl会话,点击Default项目以及顶部菜单栏的Apps。点击Launch按钮并选择kong-mesh Helm chart。
点击Use an existing namespace并选择咱们刚刚建立的那个。这有几个参数(https://artifacthub.io/packag... Mesh,但咱们将保留全部默认值。点击Launch以后,你应该看到Kong Mesh应用程序部署完成。
你能够再次使用Rancher Cluster Explorer来检查安装。点击左侧菜单的Pods并选择kong-mesh-system的命名空间。
你也能够像这样使用kubectl:
NAMESPACE NAME READY STATUS RESTARTS AGE cattle-system cattle-cluster-agent-785fd5f54d-r7x8r 1/1 Running 0 75m fleet-system fleet-agent-77c78f9c74-f97tv 1/1 Running 0 75m kong-mesh-system kuma-control-plane-5b9c6f4598-nvq8q 1/1 Running 0 16m kube-system event-exporter-gke-666b7ffbf7-n9lfl 2/2 Running 0 76m kube-system fluentbit-gke-xqsdv 2/2 Running 0 76m kube-system gke-metrics-agent-gjrqr 1/1 Running 0 76m kube-system konnectivity-agent-4c4hf 1/1 Running 0 76m kube-system kube-dns-66d6b7c877-tq877 4/4 Running 0 76m kube-system kube-dns-autoscaler-5c78d65cd9-5hcxs 1/1 Running 0 76m kube-system kube-proxy-gke-c-kpwnf-default-0-be059c1c-49qp 1/1 Running 0 76m kube-system l7-default-backend-5b76b455d-v6dvg 1/1 Running 0 76m kube-system metrics-server-v0.3.6-547dc87f5f-qntjf 2/2 Running 0 75m kube-system prometheus-to-sd-fdf9j 1/1 Running 0 76m kube-system stackdriver-metadata-agent-cluster-level-68d94db6-64n4r 2/2 Running 1 75m
三、 微服务部署
咱们的Service Mesh部署是基于一个简单的微服务到微服务的通讯场景。因为咱们运行的是金丝雀发布,被调用的微服务有两个版本:
“magnanimo”:经过Kong暴露Kubernetes ingress controller。
“benigno”:提供了一个 “hello” endpoint,在这个端点中,它呼应了当前的datetime。它有一个金丝雀发布,会发送一个稍微不一样的响应。
下图展现了这一架构:
建立一个带有sidecar注入注释的命名空间。你能够再次使用Rancher Cluster Manager:选择你的集群,而后单击Projects/Namespaces。点击Add Namespace。输入 “kong-mesh-app” 做为名称,并包含一个带有 “kuma.io/sidecar-injection” 键和 “enabled” 做为其值的注释。
固然,你也能够选择使用kubectl
kubectl create namespace kong-mesh-app kubectl annotate namespace kong-mesh-app kuma.io/sidecar-injection=enabled Submit the following declaration to deploy Magnanimo injecting the Kong Mesh data plane cat <<EOF | kubectl apply -f - apiVersion: apps/v1 kind: Deployment metadata: name: magnanimo namespace: kong-mesh-app spec: replicas: 1 selector: matchLabels: app: magnanimo template: metadata: labels: app: magnanimo spec: containers: - name: magnanimo image: claudioacquaviva/magnanimo ports: - containerPort: 4000 --- apiVersion: v1 kind: Service metadata: name: magnanimo namespace: kong-mesh-app labels: app: magnanimo spec: type: ClusterIP ports: - port: 4000 name: http selector: app: magnanimo EOF
使用Rancher Cluster Manager检查你的部署。将鼠标移动至kong-rancher菜单上,点击Default项目,能够看到当前的部署状况:
点击magnanimo检查部署的细节,包括其pods:
点击magnanimo pod,检查其内部运行的容器。
咱们能够看到,pod有两个运行的容器:
同理,部署Benigno的时候,也有本身的sidecar:
cat <<EOF | kubectl apply -f - apiVersion: apps/v1 kind: Deployment metadata: name: benigno-v1 namespace: kong-mesh-app spec: replicas: 1 selector: matchLabels: app: benigno template: metadata: labels: app: benigno version: v1 spec: containers: - name: benigno image: claudioacquaviva/benigno ports: - containerPort: 5000 --- apiVersion: v1 kind: Service metadata: name: benigno namespace: kong-mesh-app labels: app: benigno spec: type: ClusterIP ports: - port: 5000 name: http selector: app: benigno EOF And finally, deploy Benigno canary release. Notice that the canary release will be abstracted by the same Benigno Kubernetes Service created before: cat <<EOF | kubectl apply -f - apiVersion: apps/v1 kind: Deployment metadata: name: benigno-v2 namespace: kong-mesh-app spec: replicas: 1 selector: matchLabels: app: benigno template: metadata: labels: app: benigno version: v2 spec: containers: - name: benigno image: claudioacquaviva/benigno\_rc ports: - containerPort: 5000 EOF
使用如下命令检查部署和Pods:
$ kubectl get pod --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE cattle-system cattle-cluster-agent-785fd5f54d-r7x8r 1/1 Running 0 75m fleet-system fleet-agent-77c78f9c74-f97tv 1/1 Running 0 75m kong-mesh-app benigno-v1-fd4567d95-drnxq 2/2 Running 0 110s kong-mesh-app benigno-v2-b977c867b-lpjpw 2/2 Running 0 30s kong-mesh-app magnanimo-658b67fb9b-tzsjp 2/2 Running 0 5m3s kong-mesh-system kuma-control-plane-5b9c6f4598-nvq8q 1/1 Running 0 16m kube-system event-exporter-gke-666b7ffbf7-n9lfl 2/2 Running 0 76m kube-system fluentbit-gke-xqsdv 2/2 Running 0 76m kube-system gke-metrics-agent-gjrqr 1/1 Running 0 76m kube-system konnectivity-agent-4c4hf 1/1 Running 0 76m kube-system kube-dns-66d6b7c877-tq877 4/4 Running 0 76m kube-system kube-dns-autoscaler-5c78d65cd9-5hcxs 1/1 Running 0 76m kube-system kube-proxy-gke-c-kpwnf-default-0-be059c1c-49qp 1/1 Running 0 76m kube-system l7-default-backend-5b76b455d-v6dvg 1/1 Running 0 76m kube-system metrics-server-v0.3.6-547dc87f5f-qntjf 2/2 Running 0 75m kube-system prometheus-to-sd-fdf9j 1/1 Running 0 76m kube-system stackdriver-metadata-agent-cluster-level-68d94db6-64n4r 2/2 Running 1 75m $ kubectl get service --all-namespaces NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default kubernetes ClusterIP 10.0.16.1 <none> 443/TCP 79m kong-mesh-app benigno ClusterIP 10.0.20.52 <none> 5000/TCP 4m6s kong-mesh-app magnanimo ClusterIP 10.0.30.251 <none> 4000/TCP 7m18s kong-mesh-system kuma-control-plane ClusterIP 10.0.21.228 <none> 5681/TCP,5682/TCP,443/TCP,5676/TCP,5678/TCP,5653/UDP 18m kube-system default-http-backend NodePort 10.0.19.10 <none> 80:32296/TCP 79m kube-system kube-dns ClusterIP 10.0.16.10 <none> 53/UDP,53/TCP 79m kube-system metrics-server ClusterIP 10.0.20.174 <none> 443/TCP 79m
你也可使用Kong Mesh控制台来检查微服务和数据平面。在Terminal上运行如下命令:
kubectl port-forward service/kuma-control-plane -n kong-mesh-system 5681
重定向你的浏览器到http://localhost:5681/gui。点... to Dashboard和All Data Plane Proxies:
启动一个循环,看看金丝雀发布的运行状况。注意服务已经被部署为ClusterIP类型,因此你须要用 “port-forward”直接暴露它们。下一步将展现如何用Ingress Controller暴露服务。
在本地terminal上运行:
kubectl port-forward service/magnanimo -n kong-mesh-app 4000
打开另外一个Terminal,开始循环。请求要到Magnanimo提供的4000端口。路径“/hw2 ”将请求路由到Benigno服务,它后面有两个endpoint,与Benigno两个版本有关:
while [1]; do curl http://localhost:4000/hw2; echo; done
你应该看到相似下方的结果:
Hello World, Benigno: 2020-11-20 12:57:05.811667 Hello World, Benigno: 2020-11-20 12:57:06.304731 Hello World, Benigno, Canary Release: 2020-11-20 12:57:06.789208 Hello World, Benigno: 2020-11-20 12:57:07.269674 Hello World, Benigno, Canary Release: 2020-11-20 12:57:07.755884 Hello World, Benigno, Canary Release: 2020-11-20 12:57:08.240453 Hello World, Benigno: 2020-11-20 12:57:08.728465 Hello World, Benigno: 2020-11-20 12:57:09.208588 Hello World, Benigno, Canary Release: 2020-11-20 12:57:09.689478 Hello World, Benigno, Canary Release: 2020-11-20 12:57:10.179551 Hello World, Benigno: 2020-11-20 12:57:10.662465 Hello World, Benigno: 2020-11-20 12:57:11.145237 Hello World, Benigno, Canary Release: 2020-11-20 12:57:11.618557 Hello World, Benigno: 2020-11-20 12:57:12.108586 Hello World, Benigno, Canary Release: 2020-11-20 12:57:12.596296 Hello World, Benigno, Canary Release: 2020-11-20 12:57:13.093329 Hello World, Benigno: 2020-11-20 12:57:13.593487 Hello World, Benigno, Canary Release: 2020-11-20 12:57:14.068870
四、 控制金丝雀发布的成本
正如咱们所见,两个Benigno微服务发布的请求使用了循环策略。也就是说,咱们没法控制金丝雀发布的花销。Service Mesh容许咱们定义什么时候以及如何将金丝雀发布暴露给咱们的consumer(在本例中指Magnanimo微服务)。
要定义一个策略来控制流向两个版本的流量,须要使用下面这个声明。它说90%的流量应该流向当前版本,而只有10%的流量应该重定向到金丝雀发布。
cat <<EOF | kubectl apply -f - apiVersion: kuma.io/v1alpha1 kind: TrafficRoute mesh: default metadata: namespace: default name: route-1 spec: sources: - match: kuma.io/service: magnanimo\_kong-mesh-app\_svc\_4000 destinations: - match: kuma.io/service: benigno\_kong-mesh-app\_svc\_5000 conf: split: - weight: 90 destination: kuma.io/service: benigno\_kong-mesh-app\_svc\_5000 version: v1 - weight: 10 destination: kuma.io/service: benigno\_kong-mesh-app\_svc\_5000 version: v2 EOF
应用声明以后,你应该看到以下结果:
Hello World, Benigno: 2020-11-20 13:05:02.553389 Hello World, Benigno: 2020-11-20 13:05:03.041120 Hello World, Benigno: 2020-11-20 13:05:03.532701 Hello World, Benigno: 2020-11-20 13:05:04.021804 Hello World, Benigno: 2020-11-20 13:05:04.515245 Hello World, Benigno, Canary Release: 2020-11-20 13:05:05.000644 Hello World, Benigno: 2020-11-20 13:05:05.482606 Hello World, Benigno: 2020-11-20 13:05:05.963663 Hello World, Benigno, Canary Release: 2020-11-20 13:05:06.446599 Hello World, Benigno: 2020-11-20 13:05:06.926737 Hello World, Benigno: 2020-11-20 13:05:07.410605 Hello World, Benigno: 2020-11-20 13:05:07.890827 Hello World, Benigno: 2020-11-20 13:05:08.374686 Hello World, Benigno: 2020-11-20 13:05:08.857266 Hello World, Benigno: 2020-11-20 13:05:09.337360 Hello World, Benigno: 2020-11-20 13:05:09.816912 Hello World, Benigno: 2020-11-20 13:05:10.301863 Hello World, Benigno: 2020-11-20 13:05:10.782395 Hello World, Benigno: 2020-11-20 13:05:11.262624 Hello World, Benigno: 2020-11-20 13:05:11.743427 Hello World, Benigno: 2020-11-20 13:05:12.221174 Hello World, Benigno: 2020-11-20 13:05:12.705731 Hello World, Benigno: 2020-11-20 13:05:13.196664 Hello World, Benigno: 2020-11-20 13:05:13.680319
五、 安装Kong for Kubernetes
让咱们回到Rancher中安装咱们的Kong for Kubernetes Ingress Controller,并控制服务网格的暴露。在Rancher Catalog页面中,点击Kong图标。接受默认值,而后点击Launch:
你应该看到Kong和Kong Mesh这两个应用程序都已经部署完成:
再次使用kubectl检查安装:
$ kubectl get pod --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE cattle-system cattle-cluster-agent-785fd5f54d-r7x8r 1/1 Running 0 84m fleet-system fleet-agent-77c78f9c74-f97tv 1/1 Running 0 83m kong-mesh-app benigno-v1-fd4567d95-drnxq 2/2 Running 0 10m kong-mesh-app benigno-v2-b977c867b-lpjpw 2/2 Running 0 8m47s kong-mesh-app magnanimo-658b67fb9b-tzsjp 2/2 Running 0 13m kong-mesh-system kuma-control-plane-5b9c6f4598-nvq8q 1/1 Running 0 24m kong kong-kong-754cd6947-db2j9 2/2 Running 1 72s kube-system event-exporter-gke-666b7ffbf7-n9lfl 2/2 Running 0 85m kube-system fluentbit-gke-xqsdv 2/2 Running 0 84m kube-system gke-metrics-agent-gjrqr 1/1 Running 0 84m kube-system konnectivity-agent-4c4hf 1/1 Running 0 84m kube-system kube-dns-66d6b7c877-tq877 4/4 Running 0 84m kube-system kube-dns-autoscaler-5c78d65cd9-5hcxs 1/1 Running 0 84m kube-system kube-proxy-gke-c-kpwnf-default-0-be059c1c-49qp 1/1 Running 0 84m kube-system l7-default-backend-5b76b455d-v6dvg 1/1 Running 0 85m kube-system metrics-server-v0.3.6-547dc87f5f-qntjf 2/2 Running 0 84m kube-system prometheus-to-sd-fdf9j 1/1 Running 0 84m kube-system stackdriver-metadata-agent-cluster-level-68d94db6-64n4r 2/2 Running 1 84m $ kubectl get service --all-namespaces NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default kubernetes ClusterIP 10.0.16.1 <none> 443/TCP 85m kong-mesh-app benigno ClusterIP 10.0.20.52 <none> 5000/TCP 10m kong-mesh-app magnanimo ClusterIP 10.0.30.251 <none> 4000/TCP 13m kong-mesh-system kuma-control-plane ClusterIP 10.0.21.228 <none> 5681/TCP,5682/TCP,443/TCP,5676/TCP,5678/TCP,5653/UDP 24m kong kong-kong-proxy LoadBalancer 10.0.26.38 35.222.91.194 80:31867/TCP,443:31039/TCP 78s kube-system default-http-backend NodePort 10.0.19.10 <none> 80:32296/TCP 85m kube-system kube-dns ClusterIP 10.0.16.10 <none> 53/UDP,53/TCP 85m kube-system metrics-server ClusterIP 10.0.20.174 <none> 443/TCP 85m
六、 建立Ingress
经过下面的声明,咱们将经过一个Ingress和它的路由 “/route1” 来暴露Magnanimo微服务。
cat <<EOF | kubectl apply -f - apiVersion: extensions/v1beta1 kind: Ingress metadata: name: route1 namespace: kong-mesh-app annotations: konghq.com/strip-path: "true" spec: rules: - http: paths: - path: /route1 backend: serviceName: magnanimo servicePort: 4000 EOF
如今,临时的 “port-forward” 暴露机制能够被正式的Ingress所取代。而咱们的循环也能够开始消耗Ingress,结果以下: