基于Centos7构建Kubernetes平台node
1、实验环境linux
3台centos7的主机:web
master 192.168.111.131部署etcd,kube-apiserver,kube-controller-manager,kube-scheduler 4个应用。docker
node01 192.168.111.130 部署docker,kubelet, kube-proxy 3个应用apache
node02 192.168.111.129 部署docker,kubelet, kube-proxy 3个应用vim
2、实验步骤centos
1. 修改主机名和ip,三个主机网卡均设置为桥接模式,可以联网。api
2. 分别修改/etc/hosts文件:安全
Master配置ide
#vim /etc/hosts
#scp root@192.168.111.128:/etc/hosts /etc/
Node02
#scp root@192.168.111.128:/etc/hosts /etc/
3. 三台均设置防火墙的默认区域为trusted。
4. 三台均关闭selinux.
5. 安装docker,并启动。由于master以后还须要作registry仓库,因此也须要安装docker.
#yum install -y docker
7、实现node01和node02之间容器互通。
1)node01和node02新建网桥,并固定网桥ip。
node01上操做:
删除网桥docker0,新建网桥kbr0:
新建网桥的配置文件:
新建路由文件:route-eth0,eth0为node1上的网卡名。
修改docker配置文件,添加-b=kbr0参数
2)对node02作一样的设置:
新建网桥:
新建网桥配置文件:
#scp root@192.168.111.129:/etc/sysconfig/network-scripts/ifcfg-kbr0 /etc/sysconfig/network-scripts/
建立路由文件:
修改docker 配置文件:
#vim /etc/sysconfig/docker
3)系统启动以后,查看网卡信息和路由信息。
#ifconfig
node01上运行一个容器:
#docker run -it docker.io/centos:centos6
# yum install -y iputils 进入容器安装
#dcoker run -it docker.io/centos:centos6
master上部署应用:
1、安装etcd.
查看etcd配置文件:
2、修改配置文件:
四、部署k8s-master组件(apiserver+controller-manager+scheduler)
安装软件:
#yum install -y kubernetes-master
查看配置文件:
5、修改配置文件:
#vim /etc/kubernetes/config
KUBE_LOGTOSTDERR 日志设置
KUBE_LOG_KEVEL 日志级别设置
KUBE_ALLOW_PRIV 是否容许运行特权容器
KUBE_MASTER 主节点的地址,主要为replication controller和scheduler及kubelet能够顺利找到apiserver
#vim /etc/kubernetes/apiserver
KUBE_API_ADDRESS 监听的接口,若是配置为127.0.0.1则只监听localhost,配置为0.0.0.0会监听全部接口,这里配置为0.0.0.0。
KUBE_API_PORT="--port=8080" apiserver的监听端口,默认8080,不用修改。
KUBELET_PORT="--kubelet_port=10250" kubelet监听的端口,默认10250,无需修改
KUBE_ETCD_SERVERS //指定etcd节点的地址
KUBE_SERVICE_ADDRESSES 这个是设置从此运行Service所在的ip网段
KUBE_API_ARGS=”--secure-port=0” 默认是要求https安全通讯,”--secure-port=0”则不要求https安全通讯
注:这里须要注意原来KUBE_ADMISSION_CONTROL默认包含的要删掉,否则启动API server的时候会报错
6、启动服务:
查看服务端口:
1、安装kubernetes-node软件:
#yum install -y kubernetes-node
2、修改配置文件:
#vim /etc/kubernetes/config
#vim /etc/kubernetes/kubelet
配置项KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-p_w_picpath=registry.access.redhat.com/rhel7/pod-infrastructure:latest"做用k8s建立pod的时候须要起一个基本容器,因此node节点要能连网。也能够本身搭建一个私有仓库,将pod-infrastructure:latest镜像上传到私有仓库中,修改此配置文件的地址就能够。
3、启动服务:
4、在node02主机上重复上面的操做。
5、在master上检查node 状态:
Kubernetes管理容器若是是第一次操做,可能会有必定的等待时间,这是由于第一次下载p_w_picpaths须要一段时间。若是本地没有docker registry,要确保节点能访问互联网,因此咱们能够搭建一个私有仓库,由私有仓库提供所须要的镜像,
本实验环境中用kubernetes同时做为registry。
1、导入镜像:
4、上传镜像到私有仓库。
导入以后用到的镜像到本地
在三台主机上均修改docker 的配置文件,指定私有仓库的url.
上传镜像到私有仓库并查看:
1、为了部署pod的时候,下载镜像速度快点,把node节点主机配置文件中的pod镜像下载地址修改成本地私有仓库地址:
#vim /etc/kubernetes/kubelet
#systemctl restart kubelet.service
2、建立apache-rc.yaml文件,根据文件内容建立rc和pod。
注意:必须按照此格式编写不然会报错
#kubectl create -f apache-rc.yaml
error: error validating "apache-rc.yaml": error validating data: found invalid field spec for v1.ReplicationControllerSpec; if you choose to ignore these errors, turn validation off with --validate=false
查看pods状态:
查看pods详细状态:
kubectl delete pod podName
因为设置了两份副本,因此删除pod的时候,k8s会迅速起另一个如出一辙的pod以保持副本数量为2不变。
要完全删除pod,只能删除建立它的replication controller
查看replication controller
kubectl get rc
删除replication controller
kubectl delete rc rcName
删除rc以后,其建立的pod会一并删除
3、部署节点内部可访问的apache service
Server的type有ClusterIP和 NodePort之分,缺省是ClusterIp,这种类型的service只能在集群内部访问
建立配置文件:
#vim apache-service-clusterip.yaml
建立service:
查看service状态:
验证apache服务:(在node节点执行)
4、部署外部可访问的apache service。
建立nodeport类型的service . 这种类型的Service在集群外部是能够访问
#vim apache-nodeport-service.yaml
建立service:
查看service:
外部访问:
内部访问: