kubernetes1.9离线部署

环境信息(采用一个master节点+两个node节点)
master 192.168.2.110
node-1 192.168.2.112
node-2 192.168.2.113javascript

操做系统版本:
centos7.3 
内核版本: 
3.10.0-327.el7.x86_64css

软件版本java

kubernetes v1.9
docker:17.03
kubeadm:v1.9.0
kube-apiserver:v1.9.0
kube-controller-manager:v1.9.0
kube-scheduler:v1.9.0
k8s-dns-sidecar:1.14.7
k8s-dns-kube-dns:1.14.7
k8s-dns-dnsmasq-nanny:1.14.7
kube-proxy:v1.9.0
etcd:3.1.10
pause :3.0
flannel:v0.9.1
kubernetes-dashboard:v1.8.1node

采用kubeadm安装linux

kubeadm为kubernetes官方推荐的自动化部署工具,他将kubernetes的组件以pod的形式部署在master和node节点上,并自动完成证书认证等操做。
由于kubeadm默认要从google的镜像仓库下载镜像,但目前国内没法访问google镜像仓库,因此这里我提交将镜像下好了,只须要将离线包的镜像导入到节点中就能够了。git

开始安装

全部节点操做

下载
连接: https://pan.baidu.com/s/1c2O1gIW 密码: 9s92
比对md5解压离线包github

MD5 (k8s_images.tar.bz2) = b60ad6a638eda472b8ddcfa9006315eesql

解压下载下来的离线包docker

tar -xjvf k8s_images.tar.bz2

安装docker-ce17.03(kubeadmv1.9最大支持docker-ce17.03)vim

rpm -ihv docker-ce-selinux-17.03.2.ce-1.el7.centos.noarch.rpm rpm -ivh docker-ce-17.03.2.ce-1.el7.centos.x86_64.rpm

修改docker的镜像源为国内的daocloud的。

curl -sSL https://get.daocloud.io/daotools/set_mirror.sh | sh -s http://a58c8480.m.daocloud.io

启动docker-ce

systemctl start docker && systemctl enable docker

绑定hosts
将master和node-一、node-2绑定hosts

master节点与node节点作互信

[root@master ~]# ssh-keygen [root@master ~]# ssh-copy-id node-1 [root@master ~]# ssh-copy-id node-2

关闭防火墙和selinux

systemctl stop firewalld && systemctl disable firewalld

vim /etc/selinux/config
SELINUX=disabled

setenforce 0

配置系统路由参数,防止kubeadm报路由警告

echo " net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 " >> /etc/sysctl.conf sysctl -p

导入镜像

docker load < /root/k8s_images/docker_images/etcd-amd64_v3.1.10.tar docker load </root/k8s_images/docker_images/flannel\:v0.9.1-amd64.tar docker load </root/k8s_images/docker_images/k8s-dns-dnsmasq-nanny-amd64_v1.14.7.tar docker load </root/k8s_images/docker_images/k8s-dns-kube-dns-amd64_1.14.7.tar docker load </root/k8s_images/docker_images/k8s-dns-sidecar-amd64_1.14.7.tar docker load </root/k8s_images/docker_images/kube-apiserver-amd64_v1.9.0.tar docker load </root/k8s_images/docker_images/kube-controller-manager-amd64_v1.9.0.tar docker load </root/k8s_images/docker_images/kube-scheduler-amd64_v1.9.0.tar docker load < /root/k8s_images/docker_images/kube-proxy-amd64_v1.9.0.tar docker load </root/k8s_images/docker_images/pause-amd64_3.0.tar docker load < /root/k8s_images/docker_images/kubernetes-dashboard_v1.8.1.tar 

安装安装kubelet kubeadm kubectl包

rpm -ivh socat-1.7.3.2-2.el7.x86_64.rpm rpm -ivh kubernetes-cni-0.6.0-0.x86_64.rpm kubelet-1.9.9-9.x86_64.rpm kubectl-1.9.0-0.x86_64.rpm rpm -ivh kubectl-1.9.0-0.x86_64.rpm rpm -ivh kubeadm-1.9.0-0.x86_64.rpm

master节点操做

启动kubelete

systemctl enable kubelet && sudo systemctl start kubelet

开始初始化master

kubeadm init --kubernetes-version=v1.9.0 --pod-network-cidr=10.244.0.0/16

kubernetes默认支持多重网络插件如flannel、weave、calico,这里使用flanne,就必需要设置--pod-network-cidr参数,10.244.0.0/16是kube-flannel.yml里面配置的默认网段,若是须要修改的话,须要把kubeadm init的--pod-network-cidr参数和后面的kube-flannel.yml里面修改为同样的网段就能够了。


发现kubelet启动不了
查看日志/var/log/message

发现原来是kubelet默认的cgroup的driver和docker的不同,docker默认的cgroupfs,kubelet默认为systemd
修改

vim /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

重启reload

systemctl daemon-reload && systemctl restart kubelet

查看状态

此时记得将环境reset一下
执行

kubeadm reset

在从新执行

kubeadm init --kubernetes-version=v1.9.0 --pod-network-cidr=10.244.0.0/16

将kubeadm join xxx保存下来,等下node节点须要使用
若是忘记了,能够在master上经过kubeadmin token list获得
默认token 24小时就会过时,后续的机器要加入集群须要从新生成token

kubeadm token create

按照上面提示,此时root用户还不能使用kubelet控制集群须要,配置下环境变量
对于非root用户

mkdir -p $HOME/.kube cp -i /etc/kubernetes/admin.conf $HOME/.kube/config chown $(id -u):$(id -g) $HOME/.kube/config

对于root用户

export KUBECONFIG=/etc/kubernetes/admin.conf

也能够直接放到~/.bash_profile

echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile

source一下环境变量

source ~/.bash_profile

kubectl version测试

安装网络,可使用flannel、calico、weave、macvlan这里咱们用flannel。

下载此文件

wget https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml

或直接使用离线包里面的
若要修改网段,须要kubeadm --pod-network-cidr=和这里同步
vim kube-flannel.yml
修改network项

"Network": "10.244.0.0/16",

执行

kubectl create -f kube-flannel.yml

node节点操做

使用刚刚kubeadm后的kubeadm join --xxx

kubeadm join --token 361c68.fbafaa96a5381651 192.168.2.110:6443 --discovery-token-ca-cert-hashsha256:e5e392f4ce66117635431f76512d96824b88816dfdf0178dc497972cf8631a98

屡次加入报错查看/var/log/message日志.
这个错是由于没有配置前面sysctl的router的环境变量

发现node节点启动不了flannel容器,查看容器log发现是host上没有默认路由,在网卡配置文件里面设置好默认路由。

加入成功
在master节点上check一下

kubernetes会在每一个node节点建立flannel和kube-proxy的pod

测试集群

在master节点上发起个建立应用请求
这里咱们建立个名为httpd-app的应用,镜像为httpd,有两个副本pod

kubectl run httpd-app --image=httpd --replicas=2

检查pod
能够看见pod分布在node-1和node-2上

由于建立的资源不是service因此不会调用kube-proxy
直接访问测试

至此kubernetes基本集群安装完成。

部署kubernetes-dashboard

kubernetes-dashboard是可选组件,由于,实在很差用,功能太弱了。
建议在部署master时一块儿把kubernetes-dashboard一块儿部署了,否则在node节点加入集群后,kubernetes-dashboard会被kube-scheduler调度node节点上,这样根kube-apiserver通讯须要额外配置。
直接使用离线包里面的kubernetes-dashboard.yaml

修改kubernetes-dashboard.yaml

若是须要让外面访问须要修改这个yaml文件端口类型为NodePort默认为clusterport外部访问不了,

nodeport端口范围30000-32767
32666就是个人映射端口,根docker run -d xxx:xxx差很少
建立kubernetes-dashboard

kubectl create -f kubernetes-dashboard.yaml

访问

https://master_ip:32666

默认验证方式有kubeconfig和token,这里咱们都不用。
这里咱们使用basicauth的方式进行apiserver的验证
建立/etc/kubernetes/manifests/pki/basic_auth_file 用于存放用户名和密码

user,password,userid

admin,admin,2

给kube-apiserver添加basic_auth验证

vim /etc/kubernetes/manifests/kube-apiserver.yaml

加上这行

更新kube-apiserver容器

kubectl apply -f kube-apiserver.yaml

受权
k8s1.6后版本都采用RBAC受权模型
给admin受权
默认cluster-admin是拥有所有权限的,将admin和cluster-admin bind这样admin就有cluster-admin的权限。

那咱们将admin和cluster-admin bind在一块儿这样admin也拥用cluster-admin的权限了

kubectl create clusterrolebinding login-on-dashboard-with-cluster-admin --clusterrole=cluster-admin --user=admin

查看

kubectl get clusterrolebinding/login-on-dashboard-with-cluster-admin -o yaml

在此访问https://master:32666


选基本,就能够经过用户名和密码访问了

建立个应用测试

部署成功

相关文章
相关标签/搜索