kubernetes中pods是平凡的,可建立可销毁并且不可再生。 ReplicationControllers能够动态的建立&销毁pods(如扩容 or 缩容 or 更新)。虽然pods有他们单独的ip,可是他们的ip并不能获得稳定的保证,这将会致使一个问题,若是在kubernetes集群中,有一些pods(backends)为另外一些pods(frontend)提供一些功能,如何能保证frontend可以找到&连接到backends。node
引入Services。git
kubernetes services是一个抽象的概念,定义了如何和一组pods相关联—— 有时候叫作“micro-service”。一个service经过Label Selector来筛选出一组pods(下文会说明什么状况下不须要selector)。github
举个栗子,设想一个拥有三个节点的图片处理backend,这三个节点均可以随时替代——frontend并不关系连接的是哪个。即便组成backend的pods发生了变更,frontend也没必要关心链接到哪一个backend。services将frontend和backend的连接关系解耦。redis
对于kubernetes自己的应用来讲,kubernetes提供了一个简单的endpoint 的api,对于非kubernetes自己的应用,kubernetes为servicet提供了一个解决方案,经过一个设定vip的bridge来连接pods。docker
在kubernetes中,services和pods同样都是一个REST对象。同其余的REST对象同样,经过POST来建立一个service。好比,有一组pods,每一个pod对外暴露9376端口 他们的label为“app=MyApp”:json
{ "kind": "Service", "apiVersion": "v1", "metadata": { "name": "my-service" }, "spec": { "selector": { "app": "MyApp" }, "ports": [ { "protocol": "TCP", "port": 80, "targetPort": 9376 } ] } }
上述的json将会作如下事情:建立一个叫“my-service”的service,它映射了label为“app=MyApp”的pods端口9376,这个service将会被分配一个ip(cluster ip),service用这个ip做为代理,service的selector将会一直对pods进行筛选,并将起pods结果放入一个也焦做“my-service”的Endpoints中。后端
注意,一个service可能将流量引入到任何一个targetPost,默认targetPort字段和port字段是相同的。有趣的是targetPort 也能够是一个string,能够设定为是一组pods所映射port的name。在每一个pod中,这个name所对应的真实port均可以不一样。这为部署& 升级service带来了很大的灵活性,好比 能够在api
kubernetes services支持TCP & UDP协议,默认为tcp。缓存
kubernetes service一般是连接pods的一个抽象层,可是service也能够做用在其余类型的backend。好比:session
在以上任意一个情景中,均可以使用到不指定selector的service:
{ "kind": "Service", "apiVersion": "v1", "metadata": { "name": "my-service" }, "spec": { "ports": [ { "protocol": "TCP", "port": 80, "targetPort": 9376 } ] } }
在这个例子中,由于没有使用到selector,所以没有一个明确的Endpoint对象被建立。 所以须要手动的将service映射到对应的endpoint:
{ "kind": "Endpoints", "apiVersion": "v1", "metadata": { "name": "my-service" }, "subsets": [ { "addresses": [ { "IP": "1.2.3.4" } ], "ports": [ { "port": 80 } ] } ] }
不管有没有selector都不会影响这个service,其router指向了这个endpoint(在本例中为1.2.3.4:80)。
kubernetes中的每一个node都会运行一个kube-proxy。他为每一个service都映射一个本地port,任何链接这个本地port的请求都会转到backend后的随机一个pod,service中的字段SessionAffinity决定了使用backend的哪一个pod,最后在本地创建一些iptables规则,这样访问service的cluster ip以及对应的port时,就能将请求映射到后端的pod中。
最终的结果就是,任何对service的请求都能被映射到正确的pod中,而client不须要关心kubernetes、service或pod的其余信息。
默认状况下,请求会随机选择一个backend。能够将service.spec.sessionAffinity 设置为 "ClientIP" (the default is "None"),这样能够根据client-ip来维持一个session关系来选择pod。
在kubernetes中,service是基于三层(TCP/UDP over IP)的架构,目前尚未提供专门做用于七层(http)的services。
在不少状况下,一个service须要对多个port作映射。下面举个这样的例子,注意,使用multi-port时,必须为每一个port设定name,如:
{ "kind": "Service", "apiVersion": "v1", "metadata": { "name": "my-service" }, "spec": { "selector": { "app": "MyApp" }, "ports": [ { "name": "http", "protocol": "TCP", "port": 80, "targetPort": 9376 }, { "name": "https", "protocol": "TCP", "port": 443, "targetPort": 9377 } ] } }
用户能够为service指定本身的cluster ip,经过字段spec.clusterIP来实现。用户设定的ip必须是一个有效的ip,必须符合service_cluster_ip_range 范围,若是ip不合符上述规定,apiserver将会返回422。
有一个问题会时不时的出现,为何不用一个DNS轮询来替换vip?有以下几个理由:
咱们作这些避免用户作哪些做死的行为,可是,若是真有那么多用户要求,咱们会提供这样的选择。
对于每一个运行的pod,kubelet将为其添加现有service的全局变量,支持Docker links compatible变量 以及 简单的{SVCNAME}_SERVICE_HOST and {SVCNAME}_SERVICE_PORT变量。
好比,叫作”redis-master“的service,对外映射6379端口,已经被分配一个ip,10.0.0.11,那么将会产生以下的全局变量:
REDIS_MASTER_SERVICE_HOST=10.0.0.11 REDIS_MASTER_SERVICE_PORT=6379 REDIS_MASTER_PORT=tcp://10.0.0.11:6379 REDIS_MASTER_PORT_6379_TCP=tcp://10.0.0.11:6379 REDIS_MASTER_PORT_6379_TCP_PROTO=tcp REDIS_MASTER_PORT_6379_TCP_PORT=6379 REDIS_MASTER_PORT_6379_TCP_ADDR=10.0.0.11
这意味着一个顺序依赖——service要想被pod使用,必须比pod先创建,不然这些service环境变量不会构建在pod中。DNS没有这些限制。
一个可选的扩展(强烈建议)是DNS server。DNS server经过kubernetes api server来观测是否有新service创建,并为其创建对应的dns记录。若是集群已经enable DNS,那么pod能够自动对service作name解析。
举个栗子,有个叫作”my-service“的service,他对应的kubernetes namespace为”my-ns“,那么会有他对应的dns记录,叫作”my-service.my-ns“。那么在my-ns的namespace中的pod均可以对my-service作name解析来轻松找到这个service。在其余namespace中的pod解析”my-service.my-ns“来找到他。解析出来的结果是这个service对应的cluster ip。
有时候你不想作负载均衡 或者 在乎只有一个cluster ip。这时,你能够建立一个”headless“类型的service,将spec.clusterIP字段设置为”None“。对于这样的service,不会为他们分配一个ip,也不会在pod中建立其对应的全局变量。DNS则会为service 的name添加一系列的A记录,直接指向后端映射的pod。此外,kube proxy也不会处理这类service
,没有负载均衡也没有请求映射。endpoint controller则会依然建立对应的endpoint。
这个操做目的是为了用户想减小对kubernetes系统的依赖,好比想本身实现自动发现机制等等。Application能够经过api轻松的结合其余自动发现系统。
对于你应用的某些部分(好比frontend),你可能但愿将service开放到公网ip,kubernetes提供两种方式来实现,NodePort and LoadBalancer。
每一个service都有个type字段,值能够有如下几种:
注意:NodePort支持TCP/UDP,LoadBalancer只支持TCP。
若是将type字段设置为NodePort,kubernetes master将会为service的每一个对外映射的port分配一个”本地port“,这个本地port做用在每一个node上,且必须符合定义在配置文件中的port范围(为--service-node-port-range)。这个被分配的”本地port“定义在service配置中的spec.ports[*].nodePort字段,若是为这个字段设定了一个值,系统将会使用这个值做为分配的本地port 或者 提示你port不符合规范。
这样就方便了开发者使用本身的负载均衡方案。
若是在一个cloud provider中部署使用service,将type地段设置为LoadBalancer将会使service使用人家提供的负载均衡。这样会异步的来建立service的负载均衡,在service配置的status.loadBalancer字段中,描述了所使用被提供负载均衡的详细信息,如:
{ "kind": "Service", "apiVersion": "v1", "metadata": { "name": "my-service" }, "spec": { "selector": { "app": "MyApp" }, "ports": [ { "protocol": "TCP", "port": 80, "targetPort": 9376, "nodePort": 30061 } ], "clusterIP": "10.0.171.239", "type": "LoadBalancer" }, "status": { "loadBalancer": { "ingress": [ { "ip": "146.148.47.155" } ] } } }
这样外部的负载均衡方案将会直接做用在后端的pod上。
经过iptables和用户控件映射能够很好的为中小型规模服务,可是并不适用于拥有数千个service的集群。详情请看” the original design proposal for portals“。
使用kube-proxy不太可能看到访问的源ip,这样使得某些类型防火墙实效。
LoadBalancers 只支持TCP.
type字段被设计成嵌套的结构,每一层都被增长到了前一层。不少云方案提供商支持的并非很好(如,gce没有必要分配一个NodePort来使LoadBalancer正常工做,可是AWS须要),可是当前的API须要。
以上的信息应该足够用户来使用service。可是仍是有许多东西值得你们来深刻理解。
(懒得翻了,你们本身看吧,最后贴上最后一个图)