pve+ceph超融合(二)

建立PVE虚拟化集群
1,首先安装三台PVE主机,安装过程参考本站以前的文章。
2,PVE主机安装就绪后,建立PVE Cluster虚拟化集群。
须要经过PVE_shell建立。
3,在PVE1节点执行如下命令:
pvecm create vclusters
4,在另外两个节点执行如下命令,加入集群
pvecm add 192.168.77.160
显示successfully added node ‘pve-2’ to cluster就算成功了
5,查看PVE集群状态,确认集群已经正确创建
在PVE-1节点上
pvecm statusnode

root@pve-1:~# pvecm status
Quorum information

Date: Wed Jul 3 11:27:05 2019
Quorum provider: corosync_votequorum
Nodes: 3
Node ID: 0x00000001
Ring ID: 1/12
Quorate: Yesweb

Votequorum information

Expected votes: 3
Highest expected: 3
Total votes: 3
Quorum: 2
Flags: Quorate shell

Membership information

Nodeid      Votes Name

0x00000001 1 192.168.77.160 (local)
0x00000002 1 192.168.77.170
0x00000003 1 192.168.77.180网络

所有节点都已经加入集群
在全部节点上使用如下命令安装Ceph。(ceph也是能够单独安装融合进来的,单独安装的ceph还能够作其余使用,看须要)
pveceph install -version luminous分布式

所有节点都已经加入集群
在全部节点上使用如下命令安装Ceph。(ceph也是能够单独安装融合进来的,单独安装的ceph还能够作其余使用,看须要)
pveceph install -version luminous
配置ceph集群存储网络,在全部节点上执行
pveceph init -network 192.168.77.0/24
建立ceph集群存储Mon监控,在全部节点上执行如下命令
pveceph createmon
查看硬盘信息ide

root@pve-1:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 512M 0 part
└─sda3 8:3 0 19.5G 0 part
├─pve-swap 253:0 0 2.4G 0 lvm [SWAP]
├─pve-root 253:1 0 4.8G 0 lvm /
├─pve-data_tmeta 253:2 0 1G 0 lvm
│ └─pve-data 253:4 0 8G 0 lvm
└─pve-data_tdata 253:3 0 8G 0 lvm
└─pve-data 253:4 0 8G 0 lvm
sdb 8:16 0 50G 0 disk
sdc 8:32 0 50G 0 disk
sdd 8:48 0 50G 0 disk
sr0 11:0 1 655.3M 0 rom
rbd0 252:0 0 32G 0 diskcode

建立ceph集群存储OSD服务,在全部节点上执行
由于咱们模拟了三块硬盘全部把三块硬盘都加上
pveceph createosd /dev/sdb
pveceph createosd /dev/sdc
pveceph createosd /dev/sddorm

建立完成后,查看OSD运行状态,确认OSD运行正常:ip

root@pve-1:~# ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 0.43822 root default
-7 0.14607 host pve-1
6 hdd 0.04869 osd.6 up 1.00000 1.00000
7 hdd 0.04869 osd.7 up 1.00000 1.00000
8 hdd 0.04869 osd.8 up 1.00000 1.00000
-3 0.14607 host pve-2
0 hdd 0.04869 osd.0 up 1.00000 1.00000
2 hdd 0.04869 osd.2 up 1.00000 1.00000
3 hdd 0.04869 osd.3 up 1.00000 1.00000
-5 0.14607 host pve-3
1 hdd 0.04869 osd.1 up 1.00000 1.00000
4 hdd 0.04869 osd.4 up 1.00000 1.00000
5 hdd 0.04869 osd.5 up 1.00000 1.00000资源

6,建立集群存储资源池,PVE内建Ceph采用的是rbd的模型:最外层是pool,至关于一块磁盘,默认的pool名字叫作rbd。每一个pool里面能够有多个image,至关于文件夹。每一个image能够映射成一个块设备,有了设备就能够加载它。在PVE-1节点上执行如下命令:ceph osd pool create mytest 128 128128表明placement-group的数量。每一个pg都是一个虚拟节点,将本身的数据存在不一样的位置。这样一旦存储宕机,pg就会选择新的存储,从而保证了自动高可用。7,复制存储ID和密钥到指定文件位置,在PVE-1节点执行如下操做:cd /etc/pve/priv/cp /etc/ceph/ceph.client.admin.keyring ceph/my-ceph-storage.keyring到这里ceph分布式存储基本完成,下来就在web端设置