2.6. colocation 如何工作及其优点
您可以在同一主机上并置容器化 Ceph 守护进程。以下是合并某些 Ceph 服务的优点:
- 以小规模显著提高总拥有成本 (TCO)
- 在最低配置的情况下,从六个主机减少到三个主机
- 更轻松地升级
- 更好的资源隔离
Colocation 工作方式
借助 Cephadm 编配器,您可以将以下列表中的一个守护进程与一个或多个 OSD 守护进程 (ceph-osd) 并置:
-
Ceph monitor (
ceph-mon
) 和 Ceph 管理器 (ceph-mgr
) 守护进程 -
用于 Ceph 对象网关 (
nfs-ganesha
) 的 NFS Ganesha (nfs-ganesha) -
RBD 镜像(
rbd-mirror
) - Observability Stack (Grafana)
此外,对于 Ceph 对象网关 (radosgw
) 和 Ceph 文件系统 (ceph-mds
),您可以与 OSD 守护进程以及以上列表中的守护进程并置在一起,但 RBD 镜像除外。
不支持在给定节点上并置同一类守护进程。
因为 ceph-mon
和 ceph-mgr
可以一起工作,所以不能把两个独立的守护进程计数为两个独立的守护进程。
红帽建议将 Ceph 对象网关与 Ceph OSD 容器共存以提高性能。
通过上面共享的 colocation 规则,我们有以下符合这些规则的最低集群大小:
示例 1
- 介质:全闪存系统 (SSD)
- 使用案例: Block (RBD )和 File (CephFS) 或对象(Ceph 对象网关)
- 节点数: 3 个
- 复制方案:2
主机 | Daemon | Daemon | Daemon |
---|---|---|---|
host1 | OSD | Monitor/Manager | Grafana |
host2 | OSD | Monitor/Manager | RGW 或 CephFS |
host3 | OSD | Monitor/Manager | RGW 或 CephFS |
具有三个副本的存储集群的最小大小为四个节点。同样,有两个副本的存储集群的大小是三个节点集群。对于在集群中带有额外节点的复制因数需要有一定数量的节点,以避免集群在长时间内处于降级状态。
图 2.2. 并置的守护进程示例 1

示例 2
- 介质:SSD 或 HDD
- 使用案例: Block (RBD)、文件 (CephFS) 和对象 (Ceph 对象网关)
- 节点数:4
- 复制方案:3
主机 | Daemon | Daemon | Daemon |
---|---|---|---|
host1 | OSD | Grafana | CephFS |
host2 | OSD | Monitor/Manager | RGW |
host3 | OSD | Monitor/Manager | RGW |
host4 | OSD | Monitor/Manager | CephFS |
图 2.3. 并置的守护进程示例 2

示例 3
- 介质:SSD 或 HDD
- 使用案例:Ceph 对象网关 (Ceph 对象网关) 和 NFS (Ceph 对象网关) 和用于 Ceph 对象网关的 NFS
- 节点数:4
- 复制方案:3
主机 | Daemon | Daemon | Daemon |
---|---|---|---|
host1 | OSD | Grafana | |
host2 | OSD | Monitor/Manager | RGW |
host3 | OSD | Monitor/Manager | RGW |
host4 | OSD | Monitor/Manager | NFS (RGW) |
图 2.4. 共存的守护进程示例 3

下图显示了具有并置守护进程和非并置守护进程的存储集群之间的区别。
图 2.5. colocated Daemons

图 2.6. 非并置守护进程
