ceph经常使用命令

一、查看ceph集群配置信息node

ceph daemon /var/run/ceph/ceph-mon.$(hostname -s).asok config show

二、在部署节点修改了ceph.conf文件,将新配置推送至所有的ceph节点json

ceph-deploy  --overwrite-conf config push dlp node1 node2 node3

三、检查仲裁状态,查看mon添加是否成功spa

ceph quorum_status --format json-pretty

四、列式pool列表code

ceph osd lspools

五、列示pool详细信息orm

ceph osd dump |grep pool

六、检查pool的副本数对象

ceph osd dump|grep -i size

七、建立poolblog

ceph osd pool create pooltest 128

八、删除pool资源

ceph osd pool delete data #这种删除会提示你还要添加参数,要再写一边pool的名字和加上--yes-i-really-really-mean-it

ceph osd pool delete data data
--yes-i-really-really-mean-it

九、设置pool副本数部署

ceph osd pool get data size

ceph osd pool set data size 3

十、设置pool配额get

ceph osd pool set-quota data max_objects 100                              #最大100个对象

ceph osd pool set-quota data max_bytes $((10 * 1024 * 1024 * 1024))       #容量大小最大为10G

十一、重命名pool

ceph osd pool rename data date

十二、PG, Placement Groups。CRUSH先将数据分解成一组对象,而后根据对象名称、复制级别和系统中的PG数等信息执行散列操做,再将结果生成PG ID。能够将PG看作一个逻辑容器,这个容器包含多个对 象,同时这个逻辑对象映射之多个OSD上。若是没有PG,在成千上万个OSD上管理和跟踪数百万计的对象的复制和传播是至关困难的。没有PG这一层,管理海量的对象所消耗的计算资源也是不可想象的。建议每一个OSD上配置50~100个PG。

  PGP是为了实现定位而设置的PG,它的值应该和PG的总数(即pg_num)保持一致。对于Ceph的一个pool而言,若是增长pg_num,还应该调整pgp_num为一样的值,这样集群才能够开始再平衡。

  参数pg_num定义了PG的数量,PG映射至OSD。当任意pool的PG数增长时,PG依然保持和源OSD的映射。直至目前,Ceph还未开始再平衡。此时,增长pgp_num的值,PG才开始从源OSD迁移至其余的OSD,正式开始再平衡。PGP,Placement Groups of Placement。

计算PG数:

ceph集群中的PG总数

PG总数 = (OSD总数 * 100) / 最大副本数        ** 结果必须舍入到最接近的2的N次方幂的值

ceph集群中每一个pool中的PG总数

存储池PG总数 = (OSD总数 * 100 / 最大副本数) / 池数

获取现有的PG数和PGP数值

ceph osd pool get data pg_num

ceph osd pool get data pgp_num

1三、修改存储池的PG和PGP

ceph osd pool set data pg_num = 1

ceph osd pool set data pgp_num = 1

为何使用ceph –s会出现clock报错呢?

  由于你不设置这个参数的话,它默认的时间偏移值是0.05秒,就是说每0.05秒确认时间是否一致,那确定作不到这么大的精度,因此要调大一些,参数为mon_clock_drift_allowed = 2,当我检查出时间不一致之后,我达到30次再报警,mon_clock_drift_warn_backoff = 30。

相关文章
相关标签/搜索