//github搜索dashboard找到该项目node
//下载yaml文件 [root@docker-k8s01 ~]# wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0/aio/deploy/recommended.yaml //编辑yaml文件 [root@docker-k8s01 ~]# vim recommended.yaml //跳转到40行左右,修改其对应的service,类型配置为Nodeport kind: Service apiVersion: v1 metadata: labels: k8s-app: kubernetes-dashboard name: kubernetes-dashboard namespace: kubernetes-dashboard spec: type: NodePort //添加类型为NodePort ports: - port: 443 targetPort: 8443 nodePort: 31010 //映射到宿主机的端口为31010 selector: k8s-app: kubernetes-dashboard //执行yaml文件 [root@docker-k8s01 ~]# kubectl apply -f recommended.yaml //查看Pod是否运行 [root@docker-k8s01 ~]# kubectl get pod -n kubernetes-dashboard //查看其详细信息 [root@docker-k8s01 ~]# kubectl describe pod -n kubernetes-dashboard dashboard-metrics-scraper-76679bc5b9-sbcvw //确保该yaml文件提供的pod都正常运行 [root@docker-k8s01 ~]# kubectl get svc -n kubernetes-dashboard NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE dashboard-metrics-scraper ClusterIP 10.103.65.117 <none> 8000/TCP 3m3s kubernetes-dashboard NodePort 10.110.154.42 <none> 443:31010/TCP 3m3s
//这里使用的dashboard版本较高,相较于以前的版本访问必须使用火狐浏览器,这里不须要。git
访问https://192.168.171.151:31010(访问集群内的任意节点IP均可以)github
//建立dashboard的管理用户 [root@docker-k8s01 ~]# kubectl create serviceaccount dashboard-admin -n kube-system //绑定用户为集群的管理员 [root@docker-k8s01 ~]# kubectl create clusterrolebinding dashboard-cluster-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin //获取刚刚建立的用户Token [root@docker-k8s01 ~]# kubectl get secrets -n kube-system | grep dashboard-admin dashboard-admin-token-zbdqm kubernetes.io/service-account-token 3 63s [root@docker-k8s01 ~]# kubectl describe secrets -n kube-system dashboard-admin-token-zbdqm //注意:上面的最后一段取决于上面查看到的用户的secrets名字。 Name: dashboard-admin-token-zbdqm Namespace: kube-system Labels: <none> Annotations: kubernetes.io/service-account.name: dashboard-admin kubernetes.io/service-account.uid: e9716e34-581a-4c30-b601-0a2a254d4a26 Type: kubernetes.io/service-account-token Data ==== namespace: 11 bytes token: //将token字段后面的值复制下来,以下图
将Token值粘贴到下面
//至此,就能够在web界面进行监控群集节点的信息,及建立资源对象web
注:通常不会在这上面进行建立资源对象docker
方法二json
//查看刚才建立的token [root@master ~]# kubectl get secrets -n kube-system | grep dashboard dashboard-admin-token-22n2v kubernetes.io/service-account-token 3 11m //查看token的详细信息,会获取token [root@master ~]# kubectl describe secrets -n kube-system dashboard-admin-token-22n2v //将token的信息生成一个变量 [root@master ~]# DASH_TOKEN=$(kubectl get secrets -n kube-system dashboard-admin-token-22n2v -o jsonpath={.data.token} | base64 -d) //将k8s集群的配置信息写入到一个文件中,文件可自定义 [root@master ~]# kubectl config set-cluster kubernets --server=192.168.10.52:6443 --kubeconfig=/root/.dashboard-admin.conf Cluster "kubernets" set. //将token的信息也写入到文件中(同一个文件) [root@master ~]# kubectl config set-credentials dashboard-admin --token=${DASH_TOKEN} --kubeconfig=/root/.dashboard-admin.conf User "dashboard-admin" set. //用户信息也写入文件中(同一个文件) [root@master ~]# kubectl config set-context dashboard-admin@kubernetes --cluster=kubernetes --user=dashboard-admin --kubeconfig=/root/.dashboard-admin.conf Context "dashboard-admin@kubernetes" created. //将上下文的配置信息也写入文件中(同一个文件) [root@master ~]# kubectl config use-context dashboard-admin@kubernetes --kubeconfig=/root/.dashboard-admin.conf Switched to context "dashboard-admin@kubernetes". //最后将配置信息导入到客户端本地 [root@master ~]# sz /root/.dashboard-admin.conf
//将文件导出后,仍是登陆到刚刚输入Token的界面,选择kubeconfig,而后将刚才导出的文件上传至此点击登陆便可。vim
本人较懒,这里我就不配图了,见谅。api
//github上搜索“scope”浏览器
//下拉页面,点击kubernetessession
//进入到新页面后再次下拉
//将得到的连接下载 [root@docker-k8s01 ~]# wget https://cloud.weave.works/k8s/scope.yaml //修改yaml文件 [root@docker-k8s01 ~]# vim scope.yaml //跳转到大概197行左右,修改其service的端口类型 spec: type: NodePort //类型为NodePort ports: - name: app port: 80 protocol: TCP targetPort: 4040 nodePort: 30123 //配置映射到宿主机的端口 [root@docker-k8s01 ~]# kubectl apply -f scope.yaml //查看容器的运行状况 [root@docker-k8s01 ~]# kubectl get pod -o wide -n weave NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES weave-scope-agent-9vj2w 1/1 Running 0 119s 192.168.171.151 docker-k8s01 <none> <none> weave-scope-agent-h4gt6 1/1 Running 0 119s 192.168.171.152 docker-k8s03 <none> <none> weave-scope-agent-lqzbq 1/1 Running 0 119s 192.168.171.150 docker-k8s02 <none> <none> weave-scope-app-b965dccb7-ph6zg 1/1 Running 0 119s 10.244.1.3 docker-k8s02 <none> <none> weave-scope-cluster-agent-6598584d8-h8b9q 1/1 Running 0 119s 10.244.2.3 docker-k8s03 <none> <none> //DaemonSet资源对象:weave-scope-agent(代理):负责收集节点的信息; //deployment资源对象:weave-scope-app(应用):从agent获取数据,经过web UI展现并与用户交互; //DaemonSet资源对象的特性和deployment相比,就是DaemonSet资源对象会在每一个节点上都运行且只能运行一个pod。 //因为每一个节点都须要监控,因此用到了DaemonSet这种资源对象
//访问群集的映射端口30123
//scope的web界面中,能够查看不少的东西,pod、node节点等详细信息,包括打开容器的终端,查看其日志信息等等......
Prometheus各组件的做用:
- MertricServer:是k8s集群资源使用状况的聚合器,收集数据给K8s集群内使用,如:kubectl,hpa,scheduler
- PrometheusOperator:是一个系统检测和警报工具箱,用来存储监控数据;
- NodeExporter:用于各node的关键度量指标状态数据;
- kubeStateMetrics:收集k8s集群内资源对象数据,指定告警规则;
- Prometheus:采用pull方式收集apiserver,scheduler,controller-manager,kubelet组件数据,经过http协议传输;
- Grafana:是可视化数据统计和监控平台。
//github上搜索prometheus,获取到git下载连接
//安装git命令 [root@docker-k8s01 ~]# yum -y install git //建立目录(可忽略) [root@docker-k8s01 ~]# mkdir prometheus [root@docker-k8s01 ~]# cd prometheus/ //克隆github库 [root@docker-k8s01 prometheus]# git clone https://github.com/imirsh/kube-prometheus.git //进入到克隆目录 [root@docker-k8s01 prometheus]# cd kube-prometheus/manifests/
//修改grafana的yaml文件 [root@docker-k8s01 manifests]# cat grafana-service.yaml apiVersion: v1 kind: Service metadata: labels: app: grafana name: grafana namespace: monitoring spec: type: NodePort //改成NodePort类型 ports: - name: http port: 3000 targetPort: http nodePort: 30333 //映射端口为30333 selector: app: grafana //修改prometheus的yaml文件 [root@docker-k8s01 manifests]# cat prometheus-service.yaml apiVersion: v1 kind: Service metadata: labels: prometheus: k8s name: prometheus-k8s namespace: monitoring spec: type: NodePort //类型为NodePort ports: - name: web port: 9090 targetPort: web nodePort: 30444 //映射端口为30444 selector: app: prometheus prometheus: k8s sessionAffinity: ClientIP //修改alertmanager的yaml文件 [root@docker-k8s01 manifests]# cat alertmanager-service.yaml apiVersion: v1 kind: Service metadata: labels: alertmanager: main name: alertmanager-main namespace: monitoring spec: type: NodePort //类型为NodePort ports: - name: web port: 9093 targetPort: web nodePort: 30555 //映射端口为30555 selector: alertmanager: main app: alertmanager sessionAffinity: ClientIP
//肯定当前路径 [root@docker-k8s01 manifests]# pwd /root/prometheus/kube-prometheus/manifests //执行setup目录下的全部yaml文件,记住是全部! [root@docker-k8s01 manifests]# kubectl apply -f setup/ //建议多执行几回,由于目录下的yaml文件太多,可能执行的时候可能会落下一两个没有执行 [root@docker-k8s01 manifests]# cd .. //返回上级目录 [root@docker-k8s01 kube-prometheus]# pwd /root/prometheus/kube-prometheus //执行该目录下的全部yaml [root@docker-k8s01 kube-prometheus]# kubectl apply -f manifests/ //确保全部pod都正常运行 [root@docker-k8s01 kube-prometheus]# kubectl get pod -n monitoring -w
当执行如下yaml文件时,每一个节点会在互联网上下载不少镜像,为了防止下载镜像的时间过长,能够先将镜像下载到本地,而后导入至各个节点,而后在执行yaml文件,将会省些时间。
//添加模板
//依次点击“import”进行导入下面三个模板
固然,也能够到grafana网站寻找合适的模板进行下载,这里我就不详细介绍怎么添加模板了。