理解Ingress前端
简单的说,ingress就是从kubernetes集群外访问集群的入口,将用户的URL请求转发到不一样的service上。Ingress至关于nginx、apache等负载均衡方向代理服务器,其中还包括规则定义,即URL的路由信息,路由信息得的刷新由Ingress controller来提供。node
理解Ingress Controllernginx
Ingress Controller 实质上能够理解为是个监视器,Ingress Controller 经过不断地跟 kubernetes API 打交道,实时的感知后端 service、pod 等变化,好比新增和减小 pod,service 增长与减小等;当获得这些变化信息后,Ingress Controller 再结合下文的 Ingress 生成配置,而后更新反向代理负载均衡器,并刷新其配置,达到服务发现的做用。git
部署Traefik
Traefik是一款开源的反向代理与负载均衡工具。它最大的优势是可以与常见的微服务系统直接整合,能够实现自动化动态配置。目前支持Docker, Swarm, Mesos/Marathon, Mesos, Kubernetes, Consul, Etcd, Zookeeper, BoltDB, Rest API等等后端模型。github
配置文件web
ingress-rbac.yaml算法
apiVersion: v1 kind: ServiceAccount metadata: name: ingress namespace: kube-system --- kind: ClusterRoleBinding apiVersion: rbac.authorization.k8s.io/v1beta1 metadata: name: ingress subjects: - kind: ServiceAccount name: ingress namespace: kube-system roleRef: kind: ClusterRole name: cluster-admin apiGroup: rbac.authorization.k8s.io
建立名为traefik-ingress
的ingress,文件名ingress.yamlapache
apiVersion: extensions/v1beta1 kind: Ingress metadata: name: traefik-ingress namespace: default spec: rules: - host: traefik.locust.io http: paths: - path: / backend: serviceName: locust-master #确保此service-name在 上面指定的namespace中 servicePort: 8089
这其中的backend
中要配置default namespace中启动的service名字,若是你没有配置namespace名字,默认使用default namespace,若是你在其余namespace中建立服务想要暴露到kubernetes集群外部,能够建立新的ingress.yaml文件,同时在文件中指定该namespace
,其余配置与上面的文件格式相同。。path
就是URL地址后的路径,如traefik.frontend.io/path,service将会接受path这个路径,host最好使用service-name.filed1.filed2.domain-name这种相似主机名称的命名方式,方便区分服务。后端
根据你本身环境中部署的service的名字和端口自行修改,有新service增长时,修改该文件后能够使用kubectl replace -f ingress.yaml
来更新。api
使用DaemonSet类型来部署Traefik,文件名 treafik.yml
apiVersion: extensions/v1beta1 kind: DaemonSet metadata: name: traefik-ingress-lb namespace: kube-system labels: k8s-app: traefik-ingress-lb spec: template: metadata: labels: k8s-app: traefik-ingress-lb name: traefik-ingress-lb spec: terminationGracePeriodSeconds: 60 hostNetwork: true restartPolicy: Always serviceAccountName: ingress containers: - image: traefik name: traefik-ingress-lb resources: limits: cpu: 200m memory: 30Mi requests: cpu: 100m memory: 20Mi ports: #暴露端口 - name: http containerPort: 80 hostPort: 80 - name: admin containerPort: 8580 hostPort: 8580 args: - --web - --web.address=:8580 - --kubernetes #nodeSelector: #edgenode: "true"
查看pod信息并访问ui(须要配置)
http://10.10.10.12:8580/dashboard/
以下所示
默认状况下是没任何东西的
使用下面的yaml配置来建立Traefik的ingress,文件名 ui.yml
apiVersion: v1 kind: Service metadata: name: traefik-web-ui namespace: kube-system spec: selector: k8s-app: traefik-ingress-lb ports: - name: web port: 80 targetPort: 8580 --- apiVersion: extensions/v1beta1 kind: Ingress metadata: name: traefik-web-ui namespace: kube-system spec: rules: - host: test.traefik-ingress.io http: paths: - path: / backend: serviceName: traefik-web-ui servicePort: web
建立
kubectl create -f .
部署Locust的Controller和Service
locust是啥。。自行百度
$ git clone https://github.com/rootsongjc/distributed-load-testing-using-kubernetes.git $ cd distributed-load-testing-using-kubernetes/kubernetes-config
修改locust-master-cotnroller中spec.template.spec.containers.env
字段中的value为你sample-webapp
service的名字(要进行压力测试的服务的地址)。例:
- name: TARGET_HOST value: http://jenkins.kube-system.svc.cluster.local:8080
部署locust-master
$ kubectl create -f locust-master-controller.yaml $ kubectl create -f locust-master-service.yaml
部署locust-worker
$ kubectl create -f locust-worker-controller.yaml
#worker扩容
$ kubectl scale --replicas=20 replicationcontrollers locust-worker
配置Traefik
ingress.yaml
中加入以下配置(上面已经配置):
- host: traefik.locust.io http: paths: - path: / backend: serviceName: locust-master #namespace要写对 servicePort: 8089
而后执行kubectl replace -f ingress.yaml
便可更新traefik。
本地配置host,而后访问traefik.locust.io
start swarming就会开始测试
设置边缘节点
首先解释下什么叫边缘节点(Edge Node),所谓的边缘节点即集群内部用来向集群外暴露服务能力的节点,集群外部的服务经过该节点来调用集群内部的服务,边缘节点是集群内外交流的一个Endpoint。
边缘节点要考虑两个问题
- 边缘节点的高可用,不能有单点故障,不然整个kubernetes集群将不可用
- 对外的一致暴露端口,即只能有一个外网访问IP和端口
在Kubernetes中添加了service的同时,在DNS中增长一个记录,这条记录须要跟ingress中的host
字段相同,IP地址即VIP的地址,本示例中是10.10.10.166
,这样集群外部就能够经过service的DNS名称来访问服务了。
选择Kubernetes的两个个node做为边缘节点,并安装keepalived,下图展现了边缘节点的配置,同时展现了向Kubernetes中添加服务的过程。
配置说明
须要对原先的traefik ingress进行改造,从以Deployment方式启动改为DeamonSet。还须要指定一个与node在同一网段的IP地址做为VIP,这里指定成10.10.10.166,配置keepalived前须要先保证这个IP没有被分配。。
- Traefik以DaemonSet的方式启动
- 经过hostPort暴露端口
- 当前VIP漂移到10.10.10.166上
- Traefik根据访问的host和path配置,将流量转发到相应的service上
-
安装keepalived并配置
yum install keepalived ipvsadm
配置
! Configuration File for keepalived global_defs { notification_email { root@localhost } notification_email_from kaadmin@localhost smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id LVS_DEVEL } vrrp_instance VI_1 { state MASTER interface eth0 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 10.10.10.166 } } virtual_server 10.10.10.166 80{ delay_loop 6 lb_algo loadbalance lb_kind DR nat_mask 255.255.255.0 persistence_timeout 0 protocol TCP real_server 10.10.10.12 80{ weight 1 TCP_CHECK { connect_timeout 3 } } real_server 10.10.10.162 80{ weight 1 TCP_CHECK { connect_timeout 3 } } }
Realserver
的IP和端口即traefik供外网访问的IP和端口。将以上配置分别拷贝到另一台node的/etc/keepalived
目录下。
使用转发效率最高的lb_kind DR
直接路由方式转发,使用TCP_CHECK来检测real_server的health。
设置keepalived为开机自启动:
chkconfig keepalived on
启动keepalived
systemctl start keepalived
node都启动了keepalived后,观察eth0的IP,会在两台node的某一台上发现一个VIP是10.10.10.166。
-
重新配置traefik ingress
因为上面配置了keepalived,此时,本地hosts 文件的解析地址能够写成10.10.10.166,使用基于域名的traefik ingress
以上面的locust为例,配置traefik ingress以下
apiVersion: extensions/v1beta1 kind: Ingress metadata: name: traefik-ingress namespace: default annotations: #必须指定 kubernetes.io/ingress.class: traefik traefik.frontend.rule.type: PathPrefixStrip spec: rules: #- host: traefik.locust.io - host: test.traefik-ingress.io http: paths: - path: /locust #此处配置了url,上面必须指定annotations指定的配置 backend: serviceName: locust-master servicePort: 8089
建立好之后,访问 test.traefik-ingress.io/locust
其余服务同理,host可写test.traefik-ingress.io,只配置path用于区分不一样的服务,访问的时候访问host/path便可
Traefik在Kubernetes中Annotate
的配置
通用配置 kubernetes.io/ingress.class: traefik #Ingress声明,这里声明了ingress后端采用traefik实现,而不是nginx的controller ingress.kubernetes.io/whitelist-source-range: "1.2.3.0/24, fe80::/16" #配置访问白名单,支持ipv4和ipv6 ingress.kubernetes.io/auth-type: basic #http认证模式,此处为basic模式 ingress.kubernetes.io/auth-secret: mysecret #basic认证的对应的username和password,这里对应的traefik所在kubernetes命名空间里的secrets
前端配置 traefik.frontend.rule.type: PathPrefixStrip traefik.frontend.priority: "3" #配置前端的权重,值越高则优先匹配 traefik.frontend.passHostHeader: "false" #关闭传入Hearder traefik.protocol=https #使用https协议 traefik.frontend.entryPoints=http,https #同时支持http和https 后端配置 traefik.backend.loadbalancer.method=drr #后端Service的负载均衡策略,目前traefik支持的策略包括:wrr(加权轮训调度算法)和drr(动态加权循环调度算法) traefik.backend.loadbalancer.stickiness=true #是否开启负载均衡器的session亲和性 traefik.backend.loadbalancer.stickiness.cookieName=NAME #手动配置后端session亲和性的cookie名称 traefik.backend.loadbalancer.sticky=true 弃用 健康检查 traefik.backend.healthcheck.path=/health traefik的监控检查路径 traefik.backend.healthcheck.interval=5s 健康检查的时间间隔 traefik.backend.circuitbreaker: "NetworkErrorRatio() > 0.5" 监测某台节点上的服务错误率达到50%时,自动下线该节点。 traefik.backend.circuitbreaker: "LatencyAtQuantileMS(50.0) > 50" 监测某台节点上服务的延时大于50ms时,自动下线该节点。 traefik.backend.circuitbreaker: "ResponseCodeRatio(500, 600, 0, 600) > 0.5" 监测某台节点上服务返回状态码为[500-600]在[0-600]区间占比超过50%时,自动下线该节点。