2.2. 块存储卷服务的高可用性
Block Storage 卷服务(cinder-volume)以主动-被动模式部署到 Controller 节点上。在这种情况下,Pacemaker 维护此服务的高可用性(HA)。
在分布式 Compute 节点(DCN)部署中,块存储服务以主动-被动模式部署到中央站点上。在这种情况下,Pacemaker 维护此服务的 HA。仅在需要存储的边缘站点上部署块存储卷服务。由于 Pacemaker 无法部署到边缘站点,因此块存储卷服务必须以主动-主动模式部署,以确保此服务的 HA。dcn-storage.yaml heat 模板执行此配置。但是,您需要手动维护此服务。有关在需要存储的边缘站点维护块存储卷服务的更多信息,请参阅 边缘站点的块存储服务维护命令。
如果您在需要存储的边缘站点使用多个存储后端,则所有后端都必须支持主动-主动模式。因为如果您在不支持主动模式的后端中保存数据,所以您将面临丢失数据的风险。
2.2.1. 边缘站点的块存储卷服务的维护命令 复制链接链接已复制到粘贴板!
在需要存储的边缘站点以主动-主动模式部署块存储卷服务(cinder-volume)后,您可以使用以下命令管理集群及其服务。
这些命令需要 3.17 或更高版本的 Block Storage (cinder) REST API 微版本。
| 用户目标 | 命令 |
| 请参阅服务列表,包括集群名称、主机、区域、状态、状态、禁用原因和后端状态等详情。 注意
Red Hat Ceph Storage 后端的默认集群名称是 |
|
| 请参阅整个集群的详细和概述信息,而不是单个服务。 |
|
| 请参阅特定集群的详细信息。 |
|
| 启用禁用的服务。 |
|
| 禁用集群服务。 |
|
2.2.2. 卷管理和非受管 复制链接链接已复制到粘贴板!
取消管理机制有助于使用 X 版本 X 将卷从一个服务移动到使用版本 X+1 的另一个服务。这两个服务都会在此过程中继续运行。
在 API 版本 3.17 或更高版本中,您可以看到在块存储集群中可用于管理的卷和快照列表。要查看这些列表,请使用带有 cinder manageable-list 或 cinder snapshot-manageable-list 的 --cluster 参数。
在 API 版本 3.16 及更高版本中,cinder manage 命令也接受可选的 --cluster 参数,以便您可以将之前非受管卷添加到块存储集群中。
2.2.3. 在集群服务上的卷迁移 复制链接链接已复制到粘贴板!
使用 API 版本 3.16 及更高版本,cinder migrate 和 cinder-manage 命令接受 --cluster 参数来定义主动-主动部署的目的地。
当您在块存储服务上迁移卷时,传递可选的 --cluster 参数并省略 主机 位置参数,因为参数是互斥的。
2.2.4. 启动块存储服务维护 复制链接链接已复制到粘贴板!
所有块存储卷服务在启动时执行自己的维护。在一个集群中分组多个卷服务的环境中,您可以清理当前没有运行的服务。
命令 work-cleanup 会触发服务器清理。该命令返回:
- 命令可以清理的服务列表。
- 命令无法清理的服务列表,因为它们目前没有在集群中运行。
work-cleanup 命令仅适用于运行 API 版本 3.24 或更高版本的服务器。
先决条件
- 成功安装 undercloud。如需更多信息,请参阅 Director 安装和使用 中的 在 undercloud 上安装 director。
流程
运行以下命令,以验证集群的所有服务是否正在运行:
$ cinder cluster-list --detailed或者,运行
cluster show命令。如果有任何服务没有运行,请运行以下命令来识别这些特定服务:
$ cinder service-list运行以下命令以触发服务器清理:
$ cinder work-cleanup [--cluster <cluster-name>] [--host <hostname>] [--binary <binary>] [--is-up <True|true|False|false>] [--disabled <True|true|False|false>] [--resource-id <resource-id>] [--resource-type <Volume|Snapshot>]注意过滤器,如
--cluster、--host和--binary,定义命令清理的内容。您可以在集群名称、主机名、服务类型和资源类型上过滤,包括特定资源。如果不应用过滤,命令会尝试清理可以清理的所有内容。以下示例按集群名称过滤:
$ cinder work-cleanup --cluster tripleo@tripleo_ceph