2.14. Ceph 重新平衡和恢复


当管理员添加 Ceph OSD 到 Ceph 存储集群时,Ceph 将更新 cluster map。这会更改 cluster map 也会改变对象放置,因为修改后的群集映射也会更改 CRUSH 计算的输入。CRUSH 平均放置数据,但随机放置.因此,当管理员添加新 OSD 时,只有少量数据移动。数据量通常是新 OSD 的数量划分为集群中的数据总量。例如,在具有 50 个 OSD 的集群中,在添加 OSD 时可能会移动 1/50th 或 2% 的数据。

下图说明了重新平衡过程,其中部分(但不是所有)PG 从示意图中现有的 OSD 1 和 2 迁移到示意图中的新 OSD OSD 3。即使重新平衡,CRUSH 仍然稳定。许多 PG 保留在原始配置中,每个 OSD 都会添加一些容量,因此新的 OSD 在集群重新平衡后不会出现负载高峰。

Rebalancing and Recovery
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.