第 10 章 Ceph 文件系统镜像
作为存储管理员,您可以将 Ceph 文件系统(CephFS)复制到另一个 Red Hat Ceph Storage 集群上的远程 Ceph 文件系统。
先决条件
- 源和目标集群必须运行 Red Hat Ceph Storage 6.0 或更高版本。
10.1. Ceph 文件系统镜像 复制链接链接已复制到粘贴板!
Ceph 文件系统(CephFS)支持将快照异步复制到另一个 Red Hat Ceph Storage 集群上的远程 CephFS。快照同步会将快照数据复制到远程 Ceph 文件系统,并在带有相同名称的远程目标上创建新快照。您可以配置特定的目录以进行快照同步。
CephFS 镜像的管理由 CephFS 镜像守护进程(cephfs-mirror
)进行。此快照数据通过对远程 CephFS 进行批量副本来同步。所选同步快照对的顺序使用 snap-id
创建。
不支持同步硬链接。硬链接的文件作为常规文件同步。
CephFS 镜像包含功能,如快照识别或高可用性。它们可以通过 Ceph Manager 镜像
模块来管理,这是推荐的控制接口。
Ceph Manager 模块和接口
Ceph Manager mirroring
默认为禁用。它提供了用于管理目录快照镜像的接口。Ceph 管理器接口主要是关于监控用于管理 CephFS 镜像命令的打包程序。这些是推荐的控制接口。
Ceph Manager mirroring
模块作为 Ceph Manager 插件实施。它负责分配目录到 cephfs-mirror
守护进程以进行同步。
Ceph Manager mirroring
模块还提供了一系列命令来控制目录快照的镜像。mirror
模块不管理 cephfs-mirror
守护进程。cephfs-mirror
守护进程的停止、启动、重新启动和启用由 systemctl
控制,但由 cephadm
管理。
与带有 fs mirror
前缀的 monitor 命令相比,镜像模块命令使用 fs snapshot mirror
前缀。确保您使用 module 命令前缀来控制目录快照的镜像。
snapshot incarnation
可能会使用相同的名称和不同的内容来删除和重新创建快照。用户可以之前同步"旧"快照,并在禁用镜像时重新创建快照。使用快照名称推断出时间点会导致 "new" 快照,而不是获取同步。
二级文件系统上的快照存储了从中进行同步的快照的 snap-id
。此元数据存储在 Ceph 元数据服务器的 SnapInfo
结构中。
高可用性
您可以在两个或多个节点上部署多个 cephfs-mirror
守护进程,以便在目录快照同步过程中实现并发性。当部署或终止 cephfs-mirror
守护进程时,Ceph Manager 镜像
模块会发现修改的 cephfs-mirror
守护进程集合,并在新集合中重新平衡目录分配,从而提供高可用性。
CephFS-mirror
守护进程使用简单的 M/N 策略共享同步负载,其中 M 是目录数量,N 是 cephfs-mirror
守护进程的数量。
重新添加 Ceph 文件系统镜像对等点
当重新添加或重新分配对等到另一集群中的 CephFS 时,请确保所有镜像守护进程停止与对等点同步。您可以使用 fs mirror status
命令验证它。Peer UUID 不应显示在命令输出中。
从 peer 清除同步目录,然后再将它重新添加到另一个 CephFS,特别是新主文件系统中可能存在的目录。如果您要将 peer 重新添加到之前从中同步的同一主文件系统,则不需要此项。