系统中实现服务注册与发现所需的基本功能有node
在分布式系统中,如何管理节点间的状态一直是一个难题,etcd 是由开发并维护的,它使用 Go 语言编写,并经过Raft 一致性算法处理日志复制以保证强一致性。etcd像是专门为集群环境的服务发现和注册而设计,它提供了数据 TTL 失效、数据改变监视、多值、目录监听、分布式锁原子操做等功能,能够方便的跟踪并管理集群节点的状态。算法
咱们写两个 Demo 程序,一个服务充当service,一个客户端程序充当网关代理。服务运行后会去etcd 以本身服务名命名的目录中注册服务节点,并定时续租(更新 TTL)。客户端从 etcd查询服务目录中的节点信息代理服务的请求,而且会在协程中实时监控服务目录中的变化,维护到本身的服务节点信息列表中。mvc
// 将服务注册到etcd上 func RegisterServiceToETCD(ServiceTarget string, value string) { dir = strings.TrimRight(ServiceTarget, "/") + "/" client, err := clientv3.New(clientv3.Config{ Endpoints: []string{"localhost:2379"}, DialTimeout: 5 * time.Second, }) if err != nil { panic(err) } kv := clientv3.NewKV(client) lease := clientv3.NewLease(client) var curLeaseId clientv3.LeaseID = 0 for { if curLeaseId == 0 { leaseResp, err := lease.Grant(context.TODO(), 10) if err != nil { panic(err) } key := ServiceTarget + fmt.Sprintf("%d", leaseResp.ID) if _, err := kv.Put(context.TODO(), key, value, clientv3.WithLease(leaseResp.ID)); err != nil { panic(err) } curLeaseId = leaseResp.ID } else { // 续约租约,若是租约已通过期将curLeaseId复位到0从新走建立租约的逻辑 if _, err := lease.KeepAliveOnce(context.TODO(), curLeaseId); err == rpctypes.ErrLeaseNotFound { curLeaseId = 0 continue } } time.Sleep(time.Duration(1) * time.Second) } }
type HelloService struct {} func (p *HelloService) Hello(request string, reply *string) error { *reply = "hello:" + request return nil } var serviceTarget = "Hello" var port = ":1234" var host = "remote_host"// 伪代码 func main() { rpc.RegisterName("HelloService", new(HelloService)) listener, err := net.Listen("tcp", port) if err != nil { log.Fatal("ListenTCP error:", err) } conn, err := listener.Accept() if err != nil { log.Fatal("Accept error:", err) } go RegisterServiceToETCD(serviceTarget, host + port) rpc.ServeConn(conn) }
网关经过 etcd获取到服务目录下的全部节点的信息,将他们初始化到自身维护的可访问服务节点列表中。而后使用Watch机制监听etcd上服务对应的目录的更新,根据通道发送过来的PUT和DELETE事件来增长和删除服务的可用节点列表。tcp
var serviceTarget = "Hello" type remoteService struct { name string nodes map[string]string mutex sync.Mutex } // 获取服务目录下全部key初始化到服务的可用节点列表中 func getService(etcdClient clientv3.Client) *remoteService { service = &remoteService { name: serviceTarget } kv := clientv3.NewKV(etcdClient) rangeResp, err := kv.Get(context.TODO(), service.name, clientv3.WithPrefix()) if err != nil { panic(err) } service.mutex.Lock() for _, kv := range rangeResp.Kvs { service.nodes[string(kv.Key)] = string(kv.Value) } service.mutex.Unlock() go watchServiceUpdate(etcdClient, service) } // 监控服务目录下的事件 func watchServiceUpdate(etcdClient clientv3.Client, service *remoteService) { watcher := clientv3.NewWatcher(client) // Watch 服务目录下的更新 watchChan := watcher.Watch(context.TODO(), service.name, clientv3.WithPrefix()) for watchResp := range watchChan { for _, event := range watchResp.Events { service.mutex.Lock() switch (event.Type) { case mvccpb.PUT://PUT事件,目录下有了新key service.nodes[string(event.Kv.Key)] = string(event.Kv.Value) case mvccpb.DELETE://DELETE事件,目录中有key被删掉(Lease过时,key 也会被删掉) delete(service.nodes, string(event.Kv.Key)) } service.mutex.Unlock() } } } func main () { client, err := clientv3.New(clientv3.Config{ Endpoints: []string{"remote_host:2379"}, DialTimeout: 5 * time.Second, }) service := getService(client)// 获取服务的可用节点 ...... // 每次有请求过来从服务节点中选取一个链接,而后给节点发送请求 rpcClient, _ = rpc.Dial("tcp", service.nodes[i]) var reply string rpcClient.Call("HelloService.hello", &reply) ...... }
除了上面说的客户端或者网关发现系统中的已存服务外,系统中的各个服务之间也须要感知到其余角色的存在,服务间的发现方法与上面的例子相似,每一个服务都能做为客户端在 etcd 中发现其余服务的存在。分布式
说明:程序为便于理解有不少伪代码,主要是说明思路,想要实际运行起来还须要不少编码工做,欢迎有这方面经验的朋友交流想法。编码