• Ceph PG介绍及故障状态和修复


    1 PG介绍
    pg的全称是placement group,中文译为放置组,是用于放置object的一个载体,pg的创建是在创建ceph存储池的时候指定的,同时跟指定的副本数也有关系,比如是3副本的则会有3个相同的pg存在于3个不同的osd上,pg其实在osd的存在形式就是一个目录,可以列出来看下:

    [root@abc ~]# ll /var/lib/ceph/osd/ceph-2/current/
    total 332
    drwxr-xr-x 2 root root 32 Sep 19 15:27 1.11_head
    drwxr-xr-x 2 root root 98 Sep 21 15:12 1.14_head
    drwxr-xr-x 2 root root 83 Sep 21 14:12 1.1f_head
    drwxr-xr-x 2 root root 98 Sep 21 18:43 1.24_head
    drwxr-xr-x 2 root root 6 Sep 21 18:43 1.24_TEMP
    drwxr-xr-x 2 root root 32 Sep 19 15:27 1.25_head
    drwxr-xr-x 2 root root 164 Sep 21 15:14 1.2d_head
    drwxr-xr-x 2 root root 32 Sep 19 15:27 1.2_head
    drwxr-xr-x 2 root root 98 Sep 21 15:15 1.34_head

    这里只列出来一部分,可以看到有1.24这样开头的,这其实就是pg的id,前面的1表示这个pg是对应哪个存储池的,存储池id可以通过ceph df看到:

    [root@u131Oi ~]# ceph df
    GLOBAL:
    SIZE AVAIL RAW USED %RAW USED 
    10704G 9808G 896G 8.37 
    POOLS:
    NAME ID USED %USED MAX AVAIL OBJECTS 
    volumes 1 116M 0 3059G 46 
    images 2 29218M 0.92 3059G 3669 
    backups 3 0 0 3059G 0 
    vms 4 269G 8.09 3059G 103678 
    snapshots 5 0 0 3059G 0 
    gnocchi 6 394M 0.01 3059G 23310

    说明该pg是属于volumes存储池的,后面的24是用于区分同个池中的不同的pg的,两者结合起来就作为pg的id了,crush map通过pgid可以计算出该pg是分布在哪组osd上的,可以通过如下命令查看pg分布于哪些osd上:

    [root@abc ~]# ceph pg map 1.24
    osdmap e1008 pg 1.24 (1.24) -> up [0,2,8] acting [0,2,8]

    可以看到该pg的3副本分别是分布在osd.0,osd.2和osd.8上的,其中最前面的0表示主副本存在于osd.0上。

    2 PG在ceph中的作用
    从上面可以看到所有数据其实都是抽象成多个object,每个object都会对应到唯一的一个pg上(多副本表示有多个相同的pg,当然object也自然是多副本的),然后pg映射到osd上存储,所以pg可以说是ceph的核心概念了,那为什么要引进pg这个概念呢?
    这是因为如果要追踪的目标如果是object,那么要追踪的数量就太多了,这样可能会加大复杂性,而且也会带来不小的开销,于是引进pg这个概念,把object装进pg中,以pg为存储单元个体,直接追踪pg状态,一般pg数量是远远小于object数量的。

    3 PG数量计算方法
    官方给出的计算公式是这样的:
    Total PGs = (Total_number_of_OSD * 100) / max_replication_count
    但每个池中pg数量最好接近或等于2的次方
    例:
    有100个osd,2副本,5个pool
    Total PGs =100*100/2=5000
    每个pool 的PG=5000/5=1000,那么创建pool的时候就指定pg为1024
    ceph osd pool create pool_name 1024
    下面给出我在程序中写的pg计算函数(仅供参考):

    def pg_calc(osd_count, pool_count, rep_size):
        osd_count = int(osd_count)
        pool_count = int(pool_count)
        rep_size = int(rep_size)
        pg_num = 512
        if rep_size == 2:
            if osd_count > 0 and osd_count < 5:
                pg_num = 128
            elif osd_count >= 5 and osd_count <= 10:
                pg_num = 512
            else:
                pg_num = int((osd_count * 100) / (rep_size))
        else:
            pg_num = int((osd_count * 100) / (rep_size))
            per_pool_pg = pg_num / pool_count
        for i in range(0, 21):
            tmp = 2 ** i
            if tmp >= per_pool_pg:
                pg_num = tmp
                break
    
        return pg_num

    4 PG的状态有哪些
    从第2点我们知道由于pg的引进,我们只要追踪pg的状态即可,因此pg在集群中是存在多种状态的,pg的状态也决定着当前集群数据的健康状态。
    (1)Active:当前拥有最新状态数据的pg正在工作中,能正常处理来自客户端的读写请求。
    (2)inactive:正在等待具有最新数据的OSD出现,即当前具有最新数据的pg不在工作中,不能正常处理来自客户端的读写请求。
    (3)Clean:PG所包含的object达到指定的副本数量,即object副本数量正常。
    (4)Unclean:PG所包含的object没有达到指定的副本数量,比如一个PG没在工作,另一个PG在工作,object没有复制到另外一个PG中。
    (5)Peering:PG所在的OSD对PG中的对象的状态达成一个共识(维持对象一致性)。
    (6)Degraded:主osd没有收到副osd的写完成应答,比如某个osd处于down状态。
    (7)Stale:主osd未在规定时间内向mon报告其pg状态,或者其它osd向mon报告该主osd无法通信。
    (8)Inconsistent:PG中存在某些对象的各个副本的数据不一致,原因可能是数据被修改。
    (9)Repair:pg在scrub过程中发现某些对象不一致,尝试自动修复。
    (10)Undersized:pg的副本数少于pg所在池所指定的副本数量,一般是由于osd down的缘故。
    (11)Scrubbing(deep + Scrubbing):pg对对象的一致性进行扫描。
    (12)Recovering:pg间peering完成后,对pg中不一致的对象执行同步或修复,一般是osd down了或新加入了osd。

    (13)Backfilling:一般是当新的osd加入或移除掉了某个osd后,pg进行迁移或进行全量同步。

    (14)down:包含必备数据的副本挂了,pg此时处理离线状态,不能正常处理来自客户端的读写请求。

    5 PG修复
    5.1 通常查看集群是否正常都是通过ceph -s命令查看,如果显示是HEALTH_OK则表示集群是健康的,一切运行正常,比如:

    [root@ctl0 ~]# ceph -s
    cluster ce0d75a9-9d6a-4b8e-ab4c-c3645f69506a
    health HEALTH_OK
    monmap e3: 3 mons at {ctl0=10.16.30.16:6789/0,ctl1=10.16.30.14:6789/0,ctl2=10.16.30.15:6789/0}
    election epoch 20, quorum 0,1,2 ctl1,ctl2,ctl0
    osdmap e39: 3 osds: 3 up, 3 in
    pgmap v58: 192 pgs, 6 pools, 0 bytes data, 0 objects
    102 MB used, 98153 MB / 98255 MB avail
    192 active+clean


    但有时也会遇见ceph -s显示的是HEALTH_WARN,如下所示:

    [root@ctl0 ~]# ceph -s
    cluster ce0d75a9-9d6a-4b8e-ab4c-c3645f69506a
    health HEALTH_WARN
    135 pgs degraded
    135 pgs stuck unclean
    135 pgs undersized
    1/3 in osds are down
    monmap e3: 3 mons at {ctl0=10.16.30.16:6789/0,ctl1=10.16.30.14:6789/0,ctl2=10.16.30.15:6789/0}
    election epoch 20, quorum 0,1,2 ctl1,ctl2,ctl0
    osdmap e41: 3 osds: 2 up, 3 in
    pgmap v64: 192 pgs, 6 pools, 0 bytes data, 0 objects
    103 MB used, 98152 MB / 98255 MB avail
    135 active+undersized+degraded
    57 active+clean


    可以看到很多pg的状态是不健康的了,但从中其实也可以发现有一个osd挂了,其实只要把该osd重新拉起来就好了,拉起来后集群会自动重新恢复健康状态。但是也有可能出现这个osd再也起不来了,比如硬盘损坏了,这时多副本就发挥作用了,因为还有其它副本在其它osd上,这时我们可以通过均衡数据的方法来将集群恢复并将该osd踢出集群。
    这里我们以osd.2为例子。
    均衡数据恢复步骤:
    # 先将该osd reweight 到0,也就是将权重降低到0,让数据副本分散到其它osd上

    ceph osd reweight 2 0.0

    # 待集群重新恢复为ok后执行以下命令将osd踢出集群

    service ceph stop osd.2
    ceph osd out 2
    ceph osd crush remove osd.2
    ceph auth del osd.2
    ceph osd rm osd.2

    5.2 有时可能碰上osd拉起后还是有些pg不健康的,比如:
    (1)Unfound objects
    ceph集群知道该对象存在,但无法定位该object在哪时会报这个错误。
    解决办法:
    <1>尝试让失败的osd起来,如果起来后集群恢复正常,则结束
    <2>尝试将该pg的unfound对象回滚到上一个版本,ceph pg $pgid mark_unfound_lost revert,如果恢复正常,则结束
    <3>如果还是不行,那只有将该object删除掉了,注意这会导致丢失数据,ceph pg $pgid mark_unfound_lost delete

    (2)inconsistent objects
    pg中保存的object中有些副本数据不一致,有些事伴随着scrub errors错误
    <1>ceph health detail 找出问题pg
    <2>尝试ceph pg repair $pgid,若成功,则结束(这个执行修复后一般要等久点,实在不能自动repair,再用以下方式)
    <3>通过ceph pg map $pgid,找出主osd,打开其日志查看是哪个object不一致
    <4>找出所有该objects所有副本存放的位置,用摘要算法(md5sum,sha256)等计算出其hash值,如果是3副本,删除与其他副本不一致的;如果是2副本,则可能会误删。
    <5> 再次执行 ceph pg repair $pgid

    (3)stale pg
    pg出现stale状态,也就是pg处于僵死状态,该状态是无法处理新的请求了的,新的请求过来只会block,这种情况一般是由于所有副本pg的osd都挂了,要模拟其实也很简单,比如设置2副本,然后将2个不同故障域的osd挂掉即可出现,最好的恢复方法当然是重新拉起这两个osd,但有时可能出现这样的情况,两个osd永远也拉不起来了,然后你把这两个osd清理出去了,清理完后这些pg当然就是stale的状态,这时的恢复方法只能是丢掉这个pg里的数据了,重新创建pg:
    <1>使用命令ceph pg dump |grep stale 找出所有的stale的pg,也可以ceph health detail |grep stale
    <2>执行ceph pg force_create_pg $pg_id命令强制重新创建pg,这时可以看到pg会转为creating状态
    <3>重启ceph集群中的所有OSD

  • 相关阅读:
    分页插件PageHelper
    持久层的具体实现
    SSM框架搭建
    mysql库中建立存储过程
    安装python2.7
    Spark应用程序第三方jar文件依赖解决方案
    spark2.0.1源码编译
    Hadoop2.7.3源码编译
    Hadoop2.x伪分布式环境搭建(一)
    Linux基础环境的各项配置(三)
  • 原文地址:https://www.cnblogs.com/luohaixian/p/9693978.html
Copyright © 2020-2023  润新知