基于Docker + Consul + Nginx + Consul-template的服务负载均衡实现

前言

上一篇文章使用 ConsulRegistratordocker 的容器环境中搭建了服务注册和发现集群。在服务发现和注册的基础上,本文将引入 Nginx反向代理服务器和 Consul-template 组件,实现动态的服务负载均衡html


正文

1. 工具介绍

1.1. Nginx

一个高性能的 HTTP反向代理服务器,用于前端访问流量到后台应用服务器负载均衡请求转发前端

1.2. Consul-template

Consul-templateHashiCorp 基于 Consul 所提供的可扩展的工具,经过监听 Consul 中的数据变化,动态地修改一些配置文件中地模板。经常使用于在 NginxHAProxy 上动态配置健康状态下的客户端反向代理信息。node

2. 实现原理

  • 经过 Nginx 自身实现负载均衡请求转发
  • 经过 Consul-templateconfig 功能实时监控 Consul 集群节点的服务数据的变化;
  • 实时的用 Consul 节点的信息替换 Nginx 配置文件的模板,并从新加载配置文件;

Consul-templatenginx 必须安装在同一台机器上,由于 Consul-template 须要动态修改 nginx 的配置文件 nginx.conf,而后执行 nginx -s reload 命令进行路由更新,达到动态负载均衡的目的。nginx

2.1. 传统负载均衡

传统的负载均衡,就是 Client 支姐访问 Nginx,而后被转发到后端某一台 Web Server。若是后端有添加/删除 Web Server,运维须要手动改下 nginx.conf ,而后从新载入配置,就能够动态的调整负载均衡。git

2.2. 自动负载均衡

再看看基于服务自动发现和注册的负载均衡,负载均衡的方式没有变,只是多了一些外围组件,固然这些组件对 Client 是不可见的,client 依然只能看到 Nginx 入口,访问方式也没变化。github

Nginx 的动态负载均衡实现流程以下:web

  1. 以相同的 Consul 标签Web Server 进行服务标记分类新增或者删除 Web Server 服务器节点;
  2. Registrator 监控Web Server 的状态更新,自动在 Consul服务注册中心将它注册或者注销
  3. Consul-template 订阅了 Consul 服务注册中心的服务消息,接收到 Consul 的消息推送,即 Web Server 服务节点状态发生改变。
  4. Consul-template 自动去修改和替换 Nginx 服务器下的 nginx配置文件中的模板,并从新加载服务达到自动负载均衡的目的。

3. 环境准备

3.1. 系统环境

软件 版本
操做系统 Ubuntu:16.04 x86_64,内核:4.8.0-58-generic
docker Docker version 1.12.6, build 78d1802
docker-compose docker-compose version 1.8.0

3.2. 节点规划

主机IP 组件
192.168.1.181 Consul Server, Registrator, Nginx, Consul-template
192.168.1.186 Consul Server, Registrator, Nginx, Consul-template
192.168.1.182 Consul Client, Registrator, Client WebApp1, Server WebApp1, Server WebApp2
192.168.1.183 Consul Client, Registrator, Client WebApp2, Server WebApp3, Server WebApp4
192.168.1.185 Consul Client, Registrator, Client WebApp3, Server WebApp5, Server WebApp6
  • Client WebApp:提供基于ThriftRPC客户端和基于Http协议的RESTful客户端,用于访问 Server 程序。
  • Server WebApp:提供基于ThriftRPC服务端和基于Http协议的RESTful服务端,供 Client 程序调用。

这里的3台主机 - 192.168.1.182192.168.1.183192.168.1.185,每台主机部署两个 Client WebApp 容器和一个 Client Server 容器,用于模拟服务层的负载均衡。redis

3.3. 镜像构建

  • Consul:consul:latest
  • Registrator:gliderlabs/registrator:latest
  • NginxConsul-template:liberalman/nginx-consul-template:latest
  • Client WebApp:test-client:latest
  • Server WebApp:test-server:latest

这里先说说 test-clienttest-server 的镜像构建:算法

  1. 克隆项目到本地项目环境: github.com/ostenant/sp…
  2. 切换到子模块 spring-cloud-starter-thrift-examples 下的 test 目录,执行命令 mvn clean package 进行程序打包。
  3. 分别将 test-clienttest-server 项目根目录下的 Dockerfile 文件和target目录下的 target/*.jar程序拷贝到 192.168.1.182192.168.1.183192.168.1.185 目录下。
  4. 进入客户端 Dockerfile 所在目录,对客户端程序 test-client 进行镜像构建,命令以下:docker build . -t test-client:latest
  5. 进入服务端 Dockerfile 所在目录,对服务端程序 test-server 进行镜像构建,命令以下:docker build . -t test-server:latest

构建完成后查看本地镜像库:spring

3.4. 部署模型

五台主机,其中 192.168.1.181192.168.1.186 两台主机的主要做用以下:

  1. 做为负载均衡转发器 (这里只是演示,能够经过 KeepAlived 实现 NginxHA),将前端访问流量通过负载算法一次转发到后台 Client WebApp
  2. Server模式启动 Consul节点,其中一台做为整个服务发现与注册集群leader, 用于同步持久化其他三台 Client 模式的 Consul 节点的数据状态信息

其他三台主机 - 192.168.1.182192.168.1.183192.168.1.185,充当的角色以下:

  1. 每台分别以 Client 模式部署 Consul 节点,用于注册发现本机 docker 容器暴露的服务,同时和 Consul Serverleader 节点进行服务状态同步
  2. 分别启动一个 Client WebApp 容器实例和两个 Server WebApp 容器实例,将 Client WebApp 的请求根据服务层的负载算法二次转发Server WebApp 中的任意一台上完成具体的业务处理。

这里有两次服务转发操做:

  • 接入层的转发:两台 Nginx 服务器将客户流量,经由一次转发至三个 Client WebApp 服务实例中任意一个作处理。
  • 服务层的转发:三个 Client WebApp服务实例其中之一,根据从服务注册中心拉取的健康的服务缓存列表,将请求二次转发至六个 Server WebApp服务实例其中之一作处理。

3.5. 开始搭建

3.5.1. Consul Server主机

(a). 分别编写 docker-compose.yml,注意 Registrator 须要配置各自的 IP地址。

  • 主机:192.168.1.181

docker-compose.yml

version: '2'
services:
 load_balancer:
 image: liberalman/nginx-consul-template:latest
 hostname: lb
 links:
 - consul_server_master:consul
 ports:
 - "80:80"

 consul_server_master:
 image: consul:latest
 hostname: consul_server_master
 ports:
 - "8300:8300"
 - "8301:8301"
 - "8302:8302"
 - "8400:8400"
 - "8500:8500"
 - "8600:8600"
 command: consul agent -server -bootstrap-expect 1 -advertise 192.168.1.181 -node consul_server_master -data-dir /tmp/data-dir -client 0.0.0.0 -ui

 registrator:
 image: gliderlabs/registrator:latest
 hostname: registrator
 links:
 - consul_server_master:consul
 volumes:
 - "/var/run/docker.sock:/tmp/docker.sock"
 command:  -ip 192.168.1.181 consul://192.168.1.181:8500
复制代码
  • 主机:192.168.1.186

docker-compose.yml

version: '2'
services:
 load_balancer:
 image: liberalman/nginx-consul-template:latest
 hostname: lb
 links:
 - consul_server_slave:consul
 ports:
 - "80:80"

 consul_server_slave:
 image: consul:latest
 hostname: consul_server_slave
 ports:
 - "8300:8300"
 - "8301:8301"
 - "8302:8302"
 - "8400:8400"
 - "8500:8500"
 - "8600:8600"
 command: consul agent -server -join=192.168.1.181 -advertise 192.168.1.186 -node consul_server_slave -data-dir /tmp/data-dir -client 0.0.0.0 -ui

 registrator:
 image: gliderlabs/registrator:latest
 hostname: registrator
 links:
 - consul_server_slave:consul
 volumes:
 - "/var/run/docker.sock:/tmp/docker.sock"
 command:  -ip 192.168.1.186 consul://192.168.1.186:8500
复制代码

(b). 在两台主机上分别经过 docker-compose 启动多容器应用,命令以下:

docker-compose up -d
复制代码

这是在主机 192.168.1.181 上运行启动命令时的输出,能够看到 docker-compose 启动时会先去检查目标镜像文件是否拉取到本地,而后依次建立启动 docker-compose.yml 文件配置的容器实例

(c). 查看正常启动的容器进程,观察ConsulRegistratorNginx/Consul-template的容器都正常启动。

(d). 利用 docker-compose,以相同的方式在主机 192.168.1.186 上启动所配置的容器服务实例,查看启动状态以下:

(e). 访问 http://IP:8500 查看 Consul Server节点信息服务注册列表

  • 节点信息:

  • 服务状态列表:

两台 Consul Server 主机上的容器服务实例均正常启动!

3.5.2. Consul Client主机

通常状况下,咱们把 Consul 做为服务注册与发现中心,会使用它提供的服务定义 (Service Definition) 和健康检查定义 (Health Check Definition) 功能,相关配置说明参考以下:

服务定义

环境变量Key 环境变量Value 说明
SERVICE_ID web-001 能够为GUID或者可读性更强变量,保证不重复
SERVICE_NAME web 若是ID没有设置,Consul会将name做为id,则有可能注册失败
SERVICE_TAGS nodejs,web 服务的标签,用逗号分隔,开发者能够根据标签来查询一些信息
SERVICE_IP 内网IP 要使用Consul,可访问的IP
SERVICE_PORT 50001 应用的IP, 若是应用监听了多个端口,理应被视为多个应用
SERVICE_IGNORE Boolean 是否忽略本Container,能够为一些不须要注册的Container添加此属性

服健康检查定义

配置原则为: SERVICE_XXX_*。若是你的应用监听的是 5000 端口,则改成 SERVICE_5000_CHECK_HTTP,其它环境变量配置同理。

环境变量Key 环境变量Value 说明
--- 如下为HTTP模式 --- ---
SERVICE_80_CHECK_HTTP /path_to_health_check 你的健康状态检查的路径如 /status
SERVICE_80_CHECK_INTERVAL 15s 15秒检查一次
SERVICE_80_CHECK_TIMEOUT 2s 状态检查超时时间
--- 如下为HTTPS模式 --- ---
SERVICE_443_CHECK_HTTPS /path_to_health_check 你的健康状态检查的路径如 /status
SERVICE_443_CHECK_INTERVAL 15s 15秒检查一次
SERVICE_443_CHECK_TIMEOUT 2s 状态检查超时时间
--- 如下为TCP模式 --- ---
SERVICE_443_CHECK_TCP /path_to_health_check 你的健康状态检查的路径如 /status
SERVICE_443_CHECK_INTERVAL 15s 15秒检查一次
SERVICE_443_CHECK_TIMEOUT 2s 状态检查超时时间
--- 使用脚本检查 --- ---
SERVICE_CHECK_SCRIPT curl --silent --fail example.com 如官方例子中的check_redis.py
--- 其余 --- ---
SERVICE_CHECK_INITIAL_STATUS passing Consul默认注册后的服务为failed

配置说明

(a). 分别编写 docker-compose.yml,一样注意 Registrator 须要配置各自的 IP 地址。test-servertest-client服务实例在配置时须要指定相关的环境变量

  • 主机:192.168.1.182

docker-compose.yml

version: '2'
services:
 consul_client_01:
 image: consul:latest
 ports:
 - "8300:8300"
 - "8301:8301"
 - "8301:8301/udp"
 - "8302:8302"
 - "8302:8302/udp"
 - "8400:8400"
 - "8500:8500"
 - "8600:8600"
 command: consul agent -retry-join 192.168.1.181 -advertise 192.168.1.182 -node consul_client_01 -data-dir /tmp/data-dir -client 0.0.0.0 -ui

 registrator:
 image: gliderlabs/registrator:latest
 volumes:
 - "/var/run/docker.sock:/tmp/docker.sock"
 command:  -ip 192.168.1.182 consul://192.168.1.182:8500

 test_server_1:
 image: test-server:latest
 environment:
 - SERVICE_8080_NAME=test-server-http-service
 - SERVICE_8080_TAGS=test-server-http-service-01
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/health
 - SERVICE_25000_NAME=test-server-thrift-service
 - SERVICE_25000_TAGS=test-server-thrift-service-01
 - SERVICE_25000_CHECK_INTERVAL=10s
 - SERVICE_25000_CHECK_TIMEOUT=2s
 - SERVICE_25000_CHECK_TCP=/
 ports:
 - "16000:8080"
 - "30000:25000"

 test_server_2:
 image: test-server:latest
 environment:
 - SERVICE_8080_NAME=test-server-http-service
 - SERVICE_8080_TAGS=test-server-http-service-02
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/health
 - SERVICE_25000_NAME=test-server-thrift-service
 - SERVICE_25000_TAGS=test-server-thrift-service-02
 - SERVICE_25000_CHECK_INTERVAL=10s
 - SERVICE_25000_CHECK_TIMEOUT=2s
 - SERVICE_25000_CHECK_TCP=/
 ports:
 - "18000:8080"
 - "32000:25000"

 test_client_1:
 image: test-client:latest
 environment:
 - SERVICE_8080_NAME=my-web-server
 - SERVICE_8080_TAGS=test-client-http-service-01
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/features
 ports:
 - "80:8080"
复制代码
  • 主机:192.168.1.183

docker-compose.yml

version: '2'
services:
 consul_client_02:
 image: consul:latest
 ports:
 - "8300:8300"
 - "8301:8301"
 - "8301:8301/udp"
 - "8302:8302"
 - "8302:8302/udp"
 - "8400:8400"
 - "8500:8500"
 - "8600:8600"
 command: consul agent -retry-join 192.168.1.181 -advertise 192.168.1.183 -node consul_client_02 -data-dir /tmp/data-dir -client 0.0.0.0 -ui

 registrator:
 image: gliderlabs/registrator:latest
 volumes:
 - "/var/run/docker.sock:/tmp/docker.sock"
 command:  -ip 192.168.1.183 consul://192.168.1.183:8500

 test_server_1:
 image: test-server:latest
 environment:
 - SERVICE_8080_NAME=test-server-http-service
 - SERVICE_8080_TAGS=test-server-http-service-03
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/health
 - SERVICE_25000_NAME=test-server-thrift-service
 - SERVICE_25000_TAGS=test-server-thrift-service-03
 - SERVICE_25000_CHECK_INTERVAL=10s
 - SERVICE_25000_CHECK_TIMEOUT=2s
 - SERVICE_25000_CHECK_TCP=/
 ports:
 - "16000:8080"
 - "30000:25000"

 test_server_2:
 image: test-server:latest
 environment:
 - SERVICE_8080_NAME=test-server-http-service
 - SERVICE_8080_TAGS=test-server-http-service-04
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/health
 - SERVICE_25000_NAME=test-server-thrift-service
 - SERVICE_25000_TAGS=test-server-thrift-service-04
 - SERVICE_25000_CHECK_INTERVAL=10s
 - SERVICE_25000_CHECK_TIMEOUT=2s
 - SERVICE_25000_CHECK_TCP=/
 ports:
 - "18000:8080"
 - "32000:25000"

 test_client_1:
 image: test-client:latest
 environment:
 - SERVICE_8080_NAME=my-web-server
 - SERVICE_8080_TAGS=test-client-http-service-02
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/features
 ports:
 - "80:8080"
复制代码
  • 主机:192.168.1.185

docker-compose.yml

version: '2'
services:
 consul_client_03:
 image: consul:latest
 ports:
 - "8300:8300"
 - "8301:8301"
 - "8301:8301/udp"
 - "8302:8302"
 - "8302:8302/udp"
 - "8400:8400"
 - "8500:8500"
 - "8600:8600"
 command: consul agent -retry-join 192.168.1.181 -advertise 192.168.1.185 -node consul_client_03 -data-dir /tmp/data-dir -client 0.0.0.0 -ui

 registrator:
 image: gliderlabs/registrator:latest
 volumes:
 - "/var/run/docker.sock:/tmp/docker.sock"
 command:  -ip 192.168.1.185 consul://192.168.1.185:8500

 test_server_1:
 image: test-server:latest
 environment:
 - SERVICE_8080_NAME=test-server-http-service
 - SERVICE_8080_TAGS=test-server-http-service-05
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/health
 - SERVICE_25000_NAME=test-server-thrift-service
 - SERVICE_25000_TAGS=test-server-thrift-service-05
 - SERVICE_25000_CHECK_INTERVAL=10s
 - SERVICE_25000_CHECK_TIMEOUT=2s
 - SERVICE_25000_CHECK_TCP=/
 ports:
 - "16000:8080"
 - "30000:25000"

 test_server_2:
 image: test-server:latest
 environment:
 - SERVICE_8080_NAME=test-server-http-service
 - SERVICE_8080_TAGS=test-server-http-service-06
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/health
 - SERVICE_25000_NAME=test-server-thrift-service
 - SERVICE_25000_TAGS=test-server-thrift-service-06
 - SERVICE_25000_CHECK_INTERVAL=10s
 - SERVICE_25000_CHECK_TIMEOUT=2s
 - SERVICE_25000_CHECK_TCP=/
 ports:
 - "18000:8080"
 - "32000:25000"

 test_client_1:
 image: test-client:latest
 environment:
 - SERVICE_8080_NAME=my-web-server
 - SERVICE_8080_TAGS=test-client-http-service-03
 - SERVICE_8080_CHECK_INTERVAL=10s
 - SERVICE_8080_CHECK_TIMEOUT=2s
 - SERVICE_8080_CHECK_HTTP=/features
 ports:
 - "80:8080"
复制代码

注意:咱们使用的第三方镜像 liberalman/nginx-consul-templateNginx 会把名称为 my-web-server服务容器做为后台转发的目标服务器,所以,在 test-client 的配置项中,须要指定 SERVICE_XXX_NAMEmy-web-server。固然你也能够本身制做镜像指定模板

(b). 在三台主机上使用 docker-compose 启动多容器应用:

docker-compose up -d
复制代码

以主机 192.168.1.182 为例 (其他两台相似),控制台日志显示,建立并启动 docker-compose.yml 文件配置的5个容器实例

(c). 查看正常启动的容器进程,观察到 Consul、一台test-client 和 两台test-server的容器都正常启动。

(d). 在 b 操做中的控制台输出能够看到:docker-compose 并不是按照 docker-compose.yml 文件中服务配置的前后顺序启动。 registrator 容器的启动依赖于 consul 容器,而此时 consul 还并未启动,就出现了 registrator 优先启动而异常退出的现象。解决方法是再运行一次 docker-compose up -d 命令。

(e). 再次查看容器进程,此时 Registrator 容器就已经正常启动了。

(f). 以相同的方式在其他两台主机上重复以上操做,再次访问 http://IP:8500 查看 Consul Server节点信息服务注册列表

  • Consul 集群节点信息,包括两台 Consul Server 节点和一台 Consul Client 节点,节点右侧能够看到全部的服务注册列表和相关的健康检查结果

  • nginx 服务状态列表,服务名称 nginx-consul-template,提供 http 服务,共有2个服务实例:

  • test-client 服务状态列表,服务名称为 my-web-server,提供 http 服务,共有3个服务实例:

  • test-server 服务状态列表,服务名称为 test-server-http-servicetest-server-thrift-service,分别对应6个 http 服务实例和 6个 thrift 服务实例:

三台 Consul Client 主机上的容器服务实例均正常启动,服务注册和发现运行正常!

4. 结果验证

4.1. Nginx负载均衡

4.1.1. 访问Nginx

Nginx 默认访问端口号为80,任选一台 Nginx 访问,好比: http://192.168.1.181/swagger-ui.html

请求转发至 Test ClientSwagger页面,代表 nginx配置文件 nginx.confConsul-template 成功修改。

4.1.2. 进入Nginx容器

运行 docker ps 查看 nginx-consul-template 的容器 ID,好比这里是:4f2731a7e0cb。进入 nginx-consul-template 容器。

docker-enter 4f2731a7e0cb
复制代码

查看容器内部的进程列表:

特别留意如下一行进程命令,这里完成了三步重要的操做:

consul-template -consul-addr=consul:8500 -template /etc/consul-templates/nginx.conf.ctmpl:/etc/nginx/conf.d/app.conf:nginx -s reload
复制代码
  1. Consul-template 利用 Consul 上的服务信息Nginx配置文件模板 /etc/consul-templates/nginx.conf.ctmpl 进行从新解析渲染
  2. 渲染生成的 nginx 配置文件为 /etc/nginx/conf.d/app.conf
  3. 进一步运行 nginx -s reload 从新加载 app.conf,更新路由转发列表

查看 app.conf 的配置项,发现三个 test-client 节点的 IP:port 都加入了路由转发列表中。

退出并关闭主机 192.168.1.182 上的 test-client 容器。

再次查看 app.conf,能够发现路由节点 192.168.1.182:80 已经从 Nginx路由转发列表剔除掉了。

一样的,从新启动 test-client 恢复容器,又能够发现 Nginx路由转发列表 再次自动将其添加!

4.2. 服务负载均衡

4.2.1. 接口测试

test-client 经过 http 通讯方式请求任意一台 test-server,返回响应结果 (请求处理时间 ms )。

test-client 经过 thrift 通讯方式请求任意一台 test-server,返回响应结果 (请求处理时间 ms )。

4.2.3. 日志分析

服务的负载均衡并非很好观察,这里直接截取了一段 test-client服务缓存列表动态定时刷新时打印的日志:

2018-02-09 13:15:55.157  INFO 1 --- [erListUpdater-1] t.c.l.ThriftConsulServerListLoadBalancer : Refreshed thrift serverList: [
test-server-thrift-service: [
	ThriftServerNode{node='consul_client_01', serviceId='test-server-thrift-service', tags=[test-server-thrift-service-01], host='192.168.1.182', port=30000, address='192.168.1.182', isHealth=true},
	ThriftServerNode{node='consul_client_01', serviceId='test-server-thrift-service', tags=[test-server-thrift-service-02], host='192.168.1.182', port=32000, address='192.168.1.182', isHealth=true},
	ThriftServerNode{node='consul_client_02', serviceId='test-server-thrift-service', tags=[test-server-thrift-service-03], host='192.168.1.183', port=30000, address='192.168.1.183', isHealth=true},
	ThriftServerNode{node='consul_client_02', serviceId='test-server-thrift-service', tags=[test-server-thrift-service-04], host='192.168.1.183', port=32000, address='192.168.1.183', isHealth=true},
	ThriftServerNode{node='consul_client_03', serviceId='test-server-thrift-service', tags=[test-server-thrift-service-05], host='192.168.1.185', port=30000, address='192.168.1.185', isHealth=true},
	ThriftServerNode{node='consul_client_03', serviceId='test-server-thrift-service', tags=[test-server-thrift-service-06], host='192.168.1.185', port=32000, address='192.168.1.185', isHealth=true}
],
test-server-http-service: [
	ThriftServerNode{node='consul_client_01', serviceId='test-server-http-service', tags=[test-server-http-service-01], host='192.168.1.182', port=16000, address='192.168.1.182', isHealth=true},
	ThriftServerNode{node='consul_client_01', serviceId='test-server-http-service', tags=[test-server-http-service-02], host='192.168.1.182', port=18000, address='192.168.1.182', isHealth=true},
	ThriftServerNode{node='consul_client_02', serviceId='test-server-http-service', tags=[test-server-http-service-03], host='192.168.1.183', port=16000, address='192.168.1.183', isHealth=true},
	ThriftServerNode{node='consul_client_02', serviceId='test-server-http-service', tags=[test-server-http-service-04], host='192.168.1.183', port=18000, address='192.168.1.183', isHealth=true},
	ThriftServerNode{node='consul_client_03', serviceId='test-server-http-service', tags=[test-server-http-service-05], host='192.168.1.185', port=16000, address='192.168.1.185', isHealth=true},
	ThriftServerNode{node='consul_client_03', serviceId='test-server-http-service', tags=[test-server-http-service-06], host='192.168.1.185', port=18000, address='192.168.1.185', isHealth=true}
],
my-web-server: [
	ThriftServerNode{node='consul_client_01', serviceId='my-web-server', tags=[test-client-http-service-01], host='192.168.1.182', port=80, address='192.168.1.182', isHealth=true},
	ThriftServerNode{node='consul_client_02', serviceId='my-web-server', tags=[test-client-http-service-02], host='192.168.1.183', port=80, address='192.168.1.183', isHealth=true},
	ThriftServerNode{node='consul_client_03', serviceId='my-web-server', tags=[test-client-http-service-03], host='192.168.1.185', port=80, address='192.168.1.185', isHealth=true}
]]
复制代码

服务实例

  • test-server-http-service 全部健康的服务实例:
服务IP地址 服务端口 服务标签
192.168.1.182 16000 test-server-http-service-01
192.168.1.182 18000 test-server-http-service-02
192.168.1.183 16000 test-server-http-service-03
192.168.1.183 18000 test-server-http-service-04
192.168.1.185 16000 test-server-http-service-05
192.168.1.185 18000 test-server-http-service-06
  • test-server-thrift-service 全部健康的服务实例:
服务IP地址 服务端口 服务标签
192.168.1.182 30000 test-server-thrift-service-01
192.168.1.182 32000 test-server-thrift-service-02
192.168.1.183 30000 test-server-thrift-service-03
192.168.1.183 32000 test-server-thrift-service-04
192.168.1.185 30000 test-server-thrift-service-05
192.168.1.185 32000 test-server-thrift-service-06
  • my-web-server 全部健康的服务实例:
服务IP地址 服务端口 服务标签
192.168.1.182 80 test-client-http-service-01
192.168.1.183 80 test-client-http-service-02
192.168.1.185 80 test-client-http-service-03

spring-cloud-starter-thrift 采用的轮询的转发策略,也就是说 my-web-server 会按次序循环往来地将 http 或者 rpc 请求分发到各自的 6服务实例完成处理。


总结

本文提供了一套基于微服务服务注册与发现体系容器高可用 (HA) 解决方案,引入了接入层服务层自动负载均衡的实现,详细给出了实践方案技术手段


欢迎关注技术公众号: 零壹技术栈

零壹技术栈

本账号将持续分享后端技术干货,包括虚拟机基础,多线程编程,高性能框架,异步、缓存和消息中间件,分布式和微服务,架构学习和进阶等学习资料和文章。

相关文章
相关标签/搜索