第 21 章 配置 Ceph 目标大小比率


根据集群使用量以及您希望在三种类型的存储(块、共享文件系统和对象存储)中填充集群,您可以将值设置为 targetSizeRatio 参数。目标大小比率是用于在池间平衡数据的相对值。所有池目标大小比率的总和不需要添加到 1,但它可能大于 1,Ceph 会相应地调整值。但是,每个值都应该是一个非零值,即使它非常小。

注意

目标大小比率并不意味着,放置组(PG)池数量存在立即变化。

流程

  • 要针对块存储进行优化,请运行以下命令并设置目标比率。在本例中,块存储针对 80% 进行了优化。

    $ oc patch storagecluster ocs-storagecluster -n openshift-storage --type merge -p '
    {
      "spec": {
        "managedResources": {
          "cephBlockPools": {
            "poolSpec": {
              "replicated": {
                "size": 3,
                "targetSizeRatio": 0.8
              }
            }
          }
        }
      }
    }'
    $ oc patch storagecluster ocs-storagecluster -n openshift-storage --type merge -p '
    {
      "spec": {
        "managedResources": {
          "cephFilesystems": {
            "dataPoolSpec": {
              "replicated": {
                "size": 3,
                "targetSizeRatio": 0.2
              }
            }
          }
        }
      }
    }'
    $ ceph osd pool autoscale-status
    POOL                                          SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
    .mgr                                        580.0k                3.0         6144G  0.0000                                  1.0      32              on         False
    ocs-storagecluster-cephblockpool            216.7M                3.0         6144G  0.8000        0.8000           0.8000   1.0     256              on         False
    ocs-storagecluster-cephfilesystem-metadata  55030                 3.0         6144G  0.0000                                  4.0      32              on         False
    ocs-storagecluster-cephfilesystem-data0         0                 3.0         6144G  0.2000        0.2000           0.2000   1.0     128          32  on         False
  • 要优化文件系统中的存储,请运行以下命令:

    在这个示例中,文件系统被优化为 98%。Block pool targetSizeRatio: 0.01/0.02 Filesystem targetSizeRatio: 0.98 Object store targetSizeRatio: 0.01 (如果存在)

    $ oc patch storagecluster ocs-storagecluster -n openshift-storage --type merge -p '
    {
      "spec": {
        "managedResources": {
          "cephBlockPools": {
            "poolSpec": {
              "replicated": {
                "size": 3,
                "targetSizeRatio": 0.02
              }
            }
          }
        }
      }
    }'
    $ oc patch storagecluster ocs-storagecluster -n openshift-storage --type merge -p '
    {
      "spec": {
        "managedResources": {
          "cephFilesystems": {
            "dataPoolSpec": {
              "replicated": {
                "size": 3,
                "targetSizeRatio": 0.98
              }
            }
          }
        }
      }
    }'
    $ ceph osd pool autoscale-status
    POOL                                          SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
    .mgr                                        580.0k                3.0         6144G  0.0000                                  1.0      32              on         False
    ocs-storagecluster-cephblockpool            216.9M                3.0         6144G  0.0909        0.0200           0.0909   1.0     256          32  on         False
    ocs-storagecluster-cephfilesystem-metadata  59126                 3.0         6144G  0.0000                                  4.0      32              on         False
    ocs-storagecluster-cephfilesystem-data0         0                 3.0         6144G  0.9091        0.2000           0.9091   1.0      32         256  on         False
  • 要优化 cephobjectstore 中的存储,请运行以下命令:

    在本例中,cephobjectstore 被优化为 80%。

    $ oc patch storagecluster ocs-storagecluster -n openshift-storage --type merge -p '
    {
      "spec": {
        "managedResources": {
          "cephObjectStores": {
            "dataPoolSpec": {
              "replicated": {
                "size": 3,
                "targetSizeRatio": 0.80
              }
            }
          }
        }
      }
    }'
  • 要编辑自定义 cephblockpool 数据池的目标大小比率,请运行以下命令:
$ oc patch cephblockpool ceph1-pool-block --type=json -p '[{"op": "add", "path": "/spec/replicated/targetSizeRatio", "value":0.99}]
  • 要编辑自定义文件系统数据池的目标大小比率,请编辑 managedResources > cephFilesystems > additionalDataPools 下的 ocs-storagecluster YAML,如下所示:

          additionalDataPools:
          - compressionMode: aggressive
            name: pool-1
            replicated:
              size: 3
              targetSizeRatio: 0.80:
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部