单机上部署了Firefly版的Ceph集群,其中包括:mon(一个)、osd(三个)和mds(一个)。单机上使用的操做系统是ubuntu-14.04-server-amd64版。这次升级的要求是数据不能丢失且不能停机升级。git
因为当前Firefly版本使用的是mkcephfs部署的,而新版本的ceph已经用ceph-deploy代替了mkcephfs,所以在Hammer版本中已经没有了mkcephfs。升级部署可使用ceph-deploy工具进行升级,也能够经过包管理的方法进行升级。这里我才用ceph-deploy工具进行升级。ubuntu
具体升级操做流程以下:工具
一、安装ceph-deploy工具。spa
1)更新新版本的软件源。操作系统
#wget -q -O- 'https://git.ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc' | sudo apt-key add -3d
#apt-add-repository 'deb http://download.ceph.com/debian-hammer/ trusty main'rest
#echo deb https://download.ceph.com/debian-hammer/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.listorm
2)更新ceph-deploy。
server
#pip install -U ceph-deployip
二、更新monitor节点。
1)更新ceph集群中的全部monitor节点的ceph版本。
因为个人集群都部署在一台设备上了,因此此处的更新就是整个Ceph集群的更新
#ceph-deploy install --release hammer ceph0
2)从新启动每个monitor节点。
#/etc/init.d/ceph restart mon
3)查看monitor节点的启动状况。
#ceph mon stat
e1: 1 mons at {a=192.168.250.58:6789/0}, election epoch 1, quorum 0 a
三、更新OSD节点。
1)更新ceph集群中的全部osd节点的ceph版本。
#ceph-deploy install --release hammer ceph0
2)从新启动每个osd节点。
#/etc/init.d/ceph restart osd
3)查看osd节点的启动状况。
#ceph osd stat
osdmap e191: 3 osds: 3 up, 3 in
四、更新MDS节点。
1)更新ceph集群中的全部mds节点的ceph版本。
#ceph-deploy install --release hammer ceph0
2)从新启动每个mds节点。
#/etc/init.d/ceph restart mds
3)查看mds节点的启动状况。
#ceph mds stat
e27: 1/1/1 up {0=0=up:active}
五、查看当前ceph集群的版本号。
#ceph --verison
ceph version 0.94.5 (9764da52395923e0b32908d83a9f7304401fee43)
此处能够看到ceph已经成功升级到了Hammer版本。
六、查看当前ceph集群的运行状况。
#ceph -s
cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9
health HEALTH_WARN
too many PGs per OSD (2760 > max 300)
monmap e1: 1 mons at {a=192.168.250.58:6789/0}
election epoch 1, quorum 0 a
mdsmap e27: 1/1/1 up {0=0=up:active}
osdmap e190: 3 osds: 3 up, 3 in
pgmap v450486: 2760 pgs, 21 pools, 27263 MB data, 18280 objects
85251 MB used, 1589 GB / 1672 GB avail
2760 active+clean
此时能够看到Ceph当前的状态是HEALTH_WARN状态。问题出在ceph集群默认每一个OSD上最多只能有300个PGs,而当前的系统上有多达2760个PGs(在Firefly版本上并无给出上述的HEALTH_WARN状态,而是升级到Hammer版后才给出的提示)。
针对这个问题,个人解决方案是修改ceph配置文件中关于关于没有OSD最多能够配置的PGs数量来解决这个问题。在ceph.conf的[mon]节点下添加mon pg warn max per osd = 4096。保存ceph.conf后从新启动ceph monitor节点,以后再使用ceph -s查看当前ceph集群的状态时,一切就都正常了。
#ceph -s
cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9
health HEALTH_OK
monmap e1: 1 mons at {a=192.168.250.58:6789/0}
election epoch 1, quorum 0 a
mdsmap e27: 1/1/1 up {0=0=up:active}
osdmap e191: 3 osds: 3 up, 3 in
pgmap v450550: 2760 pgs, 21 pools, 27263 MB data, 18280 objects
85245 MB used, 1589 GB / 1672 GB avail
2760 active+clean
ceph集群从Firefly版升级到Hammer版须要注意的问题有:
一、monitor访问权限中必定要添加caps mon 'allow *'到/var/lib/ceph/mon/ceph-a/keyring中;
二、集群必定要使用默认的路径,即:/var/lib/ceph