配置pve集群使用外部的ceph存储

准备下面个集群web

一个计算集群,包含3台pve主机,只安装pveshell

管理主机是comp1(IP:10.8.20.21)这台ide

计算集群ui


一个存储集群,包含4台pve主机,安装pve和内部集成的cephspa

mgr:store1( 管理主机是store1这台 ,IP:10.8.20.11 )3d

mon: store1 store2 store3 store4blog

osd: store2 store3 store4虚拟机

ceph的存储池名:store-poolit

存储集群class


下面配置计算集群可以使用存储集群上的ceph存储,在计算集群上添加一个rbd,使用存储集群的ceph,

一、保证 2个集群内的主机可以相互通信

二、在计算集群的comp1上面添加对存储集群上ceph的访问权限

在comp1 (计算节点,IP:10.8.20.21) 的shell下执行下面2个命令:

mkdir /etc/pve/priv/ceph
scp root@10.8.20.11:/etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/ceph-external.keyring

输入yes和store1(10.8.20.11)的root用户的密码复制 ceph.client.admin.keyring 文件, ceph-external是要添加的RBD的ID。

三、添加RBD

登陆comp1(10.8.20.21,计算节点)的web管理平台,点击数据中心→存储→“添加”按钮,选择BRD:

添加RBD

RBD的ID是上面复制过来的文件名: ceph-external

存储池: store-pool(就是创建存储集群时创建的存储池名称)

Monitors:存储集群ceph的监视器,输入IP,多个用空格隔开,这里添加了3个:

添加好以后,刷新一下comp1的web管理平台,便可看到多了一个名为ceph-external的存储,确认其大小不是N/A。

能够在上面创建和运行虚拟机

相关文章
相关标签/搜索