Controller Manager 由 kube-controller-manager 和 cloud-controller-manager 组成, 是Kubernetes 的大脑, 它经过 apiserver 监控整个集群的状态, 并确保集群处于预期的工做状态。
kube-controller-manager 由一系列的控制器组成
html
1 Replication Controller 2 Node Controller 3 CronJob Controller 4 Daemon Controller 5 Deployment Controller 6 Endpoint Controller 7 Garbage Collector 8 Namespace Controller 9 Job Controller 10 Pod AutoScaler 11 RelicaSet 12 Service Controller 13 ServiceAccount Controller 14 StatefulSet Controller 15 Volume Controller 16 Resource quota Controller
cloud-controller-manager 在 Kubernetes 启用 Cloud Provider 的时候才须要, 用来配合云服务提供商的控制, 也包括一系列的控制器, 如
node
1 Node Controller 2 Route Controller 3 Service Controller
Replication Controller 保证了在全部时间内,都有特定数量的Pod副本正在运行,若是太多了,Replication Controller就杀死几个,若是太少了,Replication Controller会新建几个,和直接建立的pod不一样的是,Replication Controller会替换掉那些删除的或者被终止的pod,无论删除的缘由是什么(维护阿,更新啊,Replication Controller都不关心)。基于这个理由,咱们建议即便是只建立一个pod,咱们也要使用Replication Controller。Replication Controller 就像一个进程管理器,监管着不一样node上的多个pod,而不是单单监控一个node上的pod,Replication Controller 会委派本地容器来启动一些节点上服务(Kubelet ,Docker)。 Replication Controller只会对那些RestartPolicy = Always的Pod的生效,(RestartPolicy的默认值就是Always),Replication Controller 不会去管理那些有不一样启动策略pod Replication Controller永远不会本身关闭,可是,咱们并不但愿Replication Controller成为一个长久存在的服务。服务可能会有多个Pod组成,这些Pod又被多个Replication Controller控制着,咱们但愿Replication Controller 会在服务的生命周期中被删除和新建(例如在这些pod中发布一个更新),对于服务和用户来讲,Replication Controller是经过一种无形的方式来维持着服务的状态
ReplicaSet是下一代复本控制器。ReplicaSet和 Replication Controller之间的惟一区别是如今的选择器支持。Replication Controller只支持基于等式的selector(env=dev或environment!=qa),但ReplicaSet还支持新的,基于集合的selector(version in (v1.0, v2.0)或env notin (dev, qa))。 大多数kubectl支持Replication Controller的命令也支持ReplicaSets。rolling-update命令有一个例外 。若是想要滚动更新功能,请考虑使用Deployments。此外, rolling-update命令是必须的,而Deployments是声明式的,所以咱们建议经过rollout命令使用Deployments。 虽然ReplicaSets能够独立使用,可是今天它主要被 Deployments 做为协调pod建立,删除和更新的机制。当使用Deployments时,没必要担忧管理他们建立的ReplicaSets。Deployments拥有并管理其ReplicaSets。
Deployment为Pod和Replica Set(下一代Replication Controller)提供声明式更新。
你只须要在Deployment中描述你想要的目标状态是什么,Deployment controller就会帮你将Pod和Replica Set的实际状态改变到你的目标状态。你能够定义一个全新的Deployment,也能够建立一个新的替换旧的Deployment。
一个典型的用例以下:
1.使用Deployment来建立ReplicaSet。ReplicaSet在后台建立pod。检查启动状态,看它是成功仍是失败。
2.而后,经过更新Deployment的PodTemplateSpec字段来声明Pod的新状态。这会建立一个新的ReplicaSet,Deployment会按照控制的速率将pod从旧的ReplicaSet移动到新的ReplicaSet中。
3.若是当前状态不稳定,回滚到以前的Deployment revision。每次回滚都会更新Deployment的revision。
4.扩容Deployment以知足更高的负载。
5.暂停Deployment来应用PodTemplateSpec的多个修复,而后恢复上线。
6.根据Deployment 的状态判断上线是否hang住了。
7.清除旧的没必要要的ReplicaSet。
StatefulSet是为了解决有状态服务的问题(对应Deployments和ReplicaSets是为无状态服务而设计),其应用场景包括 1.稳定的持久化存储,即Pod从新调度后仍是能访问到相同的持久化数据,基于PVC来实现 2.稳定的网络标志,即Pod从新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现 3.有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次依次进行(即从0到N-1,在下一个Pod运行以前全部以前的Pod必须都是Running和Ready状态),基于init containers来实现 4.有序收缩,有序删除(即从N-1到0)
从上面的应用场景能够发现,StatefulSet由如下几个部分组成: 1.用于定义网络标志(DNS domain)的Headless Service 2.用于建立PersistentVolumes的volumeClaimTemplates 3.定义具体应用的StatefulSet
StatefulSet中每一个Pod的DNS格式为statefulSetName-{0..N-1}.serviceName.namespace.svc.cluster.local,其中 1.serviceName为Headless Service的名字 2.0..N-1为Pod所在的序号,从0开始到N-1 3.statefulSetName为StatefulSet的名字 4.namespace为服务所在的namespace,Headless Servic和StatefulSet必须在相同的namespace 5..cluster.local为Cluster Domain,
DaemonSet保证在每一个Node上都运行一个容器副本,经常使用来部署一些集群的日志、监控或者其余系统管理应用。典型的应用包括:
日志收集,好比fluentd,logstash等
系统监控,好比Prometheus Node Exporter,collectd,New Relic agent,Ganglia gmond等
系统程序,好比kube-proxy, kube-dns, glusterd, ceph等
Deploymentnginx
apiVersion: apps/v1 kind: Deployment metadata: name: myapp-deploy spec: replicas: 5 selector: matchLabels: app: myapp release: canary template: metadata: labels: app: myapp release: canary spec: containers: - name: myapp image: ikubernetes/myapp:v2 ports: - name: httpd containerPort: 80
Deployment+ DaemonSetweb
apiVersion: apps/v1 kind: Deployment metadata: name: redis namespace: default spec: replicas: 1 selector: matchLabels: app: redis role: logstor template: metadata: labels: app: redis role: logstor spec: containers: - name: redis image: redis:4.0-alpine ports: - name: redis containerPort: 6379 --- apiVersion: apps/v1 kind: DaemonSet metadata: name: filebeat-ds spec: selector: matchLabels: app: filebeat release: stable template: metadata: labels: app: filebeat release: stable spec: containers: - name: filebeat image: ikubernetes/filebeat:5.6.5-alpine env: - name: REDIS_HOST value: redis.default.svc.cluster.local - name: REDIS_LOG_LEVEL value: info
StatefulSetredis
--- apiVersion: v1 kind: Service metadata: name: nginx labels: app: nginx spec: ports: - port: 80 name: web clusterIP: None selector: app: nginx --- apiVersion: apps/v1beta1 kind: StatefulSet metadata: name: web spec: serviceName: "nginx" replicas: 2 template: metadata: labels: app: nginx spec: containers: - name: nginx image: gcr.io/google_containers/nginx-slim:0.8 ports: - containerPort: 80 name: web volumeMounts: - name: www mountPath: /usr/share/nginx/html volumeClaimTemplates: - metadata: name: www annotations: volume.alpha.kubernetes.io/storage-class: anything spec: accessModes: [ "ReadWriteOnce" ] resources: requests: storage: 1Gi