4.17. 池值


以下列表包含您可以设置或获取的键值对。如需更多信息,请参阅 Set Pool ValuesGetting Pool Values 部分。

Expand
表 4.1. 可用的池值
value描述类型必填默认

size

指定池中对象的副本数量。如需了解更多详细信息 ,请参阅设置 Object Replicas 部分。仅适用于复制池。

整数

None

min_size

指定 I/O 所需的最小副本数。如需了解更多详细信息 ,请参阅设置 Object Replicas 部分。对于纠删代码池,这应设置为大于 k 的值。如果在值 k 中允许 I/O,则永久 OSD 失败时不会丢失冗余数据。如需更多信息,请参阅 纠删代码池概述

整数

None

crash_replay_interval

指定允许客户端重播已确认但未提交的请求的秒数。

整数

None

pg_num

池的放置组总数。有关计算适当数字的详细信息,请参阅 Red Hat Ceph Storage 配置指南中的 池、放置组和 CRUSH 配置参考部分。默认值 8 不适用于大多数系统。

整数

8

pgp-num

用于放置目的的放置组总数。这应当等于放置组总数,但放置组 分割场景除外。有效范围:Equal 到或小于 pg_num 变量指定的内容。

整数

是。如果未指定,则获取默认值或 Ceph 配置值。

None

crush_rule

用于映射集群中的对象放置的规则。

字符串

None

hashpspool

在给定池中启用或禁用 HASHPSPOOL 标志。启用此选项后,池散列和放置组映射将更改为改进池和放置组重叠的方式。有效设置: 1 启用标志,0 会禁用标志。重要信息:不要在具有大量 OSD 和数据的集群池上启用此选项。池中的所有放置组都必须重新映射导致数据移动过多。

整数

None

fast_read

在启用这个标志的池中,如果启用了这个标志,读取请求会发出后续读取操作,并等待其接收足够的分片来解码客户端。如果是 jerasureisa erasure plug-ins,当第一个 K 回复返回后,客户端请求会立即使用来自这些回复的数据来提供。这有助于分配一些资源以提高性能。目前,这个标志只支持纠删代码池。

布尔值

0

allow_ec_overwrites

写入到纠删代码池都可以更新对象的一部分,因此 Ceph Filesystem 和 Ceph Block Device 可以使用它。

布尔值

None

compression_algorithm

设置与 BlueStore 存储后端一起使用的内联压缩算法。此设置覆盖 bluestore_compression_algorithm 配置设置。有效设置: lz4,snappy,zlib,zstd

字符串

None

compression_mode

为 BlueStore 存储后端设置内联压缩算法的策略。此设置覆盖 bluestore_compression_mode 配置设置。有效设置: none,passive,aggressive,force

字符串

None

compression_min_blob_size

BlueStore 不会压缩小于这个大小的块。此设置覆盖 bluestore_compression_min_blob_size 配置设置。

Unsigned 整数

None

compression_max_blob_size

在压缩数据前,BlueStore 将大于这个大小的块分成较小的 compression_max_blob_size blob。

Unsigned 整数

None

nodelete

在给定池中设置或取消设置 NODELETE 标志。有效范围: 1 设置标记。0 unsets 标记。

整数

None

nopgchange

在给定池中设置或取消设置 NOPGCHANGE 标志。

整数

None

nosizechange

在给定池中设置或取消设置 NOSIZECHANGE 标志。有效范围: 1 设置标志。0 取消设置标志。

整数

None

write_fadvise_dontneed

在给定池中设置或取消设置 WRITE_FADVISE_DONTNEED 标志。有效范围: 1 设置标志。0 取消设置标志。

整数

None

noscrub

在给定池中设置或取消设置 NOSCRUB 标志。有效范围: 1 设置标志。0 取消设置标志。

整数

None

nodeep-scrub

在给定池中设置或取消设置 NODEEP_SCRUB 标志。有效范围: 1 设置标志。0 取消设置标志。

整数

None

scrub_min_interval

加载时池清理的最小间隔(以秒为单位)。如果是 0, Ceph 将使用 osd_scrub_min_interval 配置设置。

0

scrub_max_interval

池清理对集群负载的影响间隔(以秒为单位)。如果是 0,Ceph 将使用 osd_scrub_max_interval 配置设置。

0

deep_scrub_interval

池 'deep' 清理的时间间隔(以秒为单位)。如果是 0, Ceph 将使用 osd_deep_scrub_interval 配置设置。

0

peering_crush_bucket_count

该值与 peering_crush_bucket_barrier 一起使用,以确定所选执行集合中 OSD 集合是否可以相互对等,具体取决于操作集合中的不同 bucket 的数量。

整数

None

peering crush_bucket_target

这个值与 peering_crush_bucket_barrier 和 size 一起使用,以计算值 bucket_max,限制同一 bucket 中的 OSD 数量被选择处于 PG 执行的集合中。

整数

None

peering crush_bucket_barrier

池在其中扩展的 bucket 类型。例如,机架、行或数据中心。

字符串

None

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat