入门指南
Red Hat Ceph Storage 入门指南
摘要
第 1 章 开始使用
了解如何开始使用 Red Hat Ceph Storage 及其基本功能。此信息面向面向 Red Hat Ceph Storage 新客户或已建立的客户,希望了解 Red Hat Ceph Storage 的工作原理以及如何在工作流中开始。
此信息为 Red Hat Ceph Storage 提供基本工作流。有关正确文档部分的详细信息链接。
使用此信息了解如何使用 Red Hat Ceph Storage 基本工作流。有关正确文档部分的详细说明链接。
在开始使用 Red Hat Ceph Storage 前,熟悉以下信息:
第 2 章 对象存储
Ceph 对象网关客户端是云平台的领先存储后端,为音频、位映射、视频和其他数据等对象提供 RESTful S3 兼容和 Swift 兼容对象存储。Ceph 对象网关(也称为 RADOS 网关(RGW))是在 librados
库基础上构建的对象存储接口,为应用提供 Ceph 存储群集的 RESTful 网关。
常见用例
以下是 CephFS 最常见的用例:
- 存储即服务(SaaS)
- 为小型和大型对象存储提供可扩展性和性能。
- AI、分析和 Big Data,包括 Data Lake 和 Data Lake House
- 云原生数据 lake,具有大规模可扩展性和高可用性,支持要求要求的工作负载。
- 备份、存档或大量非结构化数据
- 通过事件驱动的架构来架构应用中的数据流的唯一新方法。
- 数据密集型工作负载,如 Cloud Native (S3)对象数据
- 从对象存储中备份和恢复有助于提高恢复时间目标(RTO)和恢复点目标(RPO)。
- 物联网(IoT)
- 对象网关充当 IoT 系统中的中间者,从各种设备聚合数据、转换通信协议并启用边缘处理。它们增强了安全性,促进设备管理,确保互操作性,有效处理整个 IoT 生态系统。
2.1. 对象存储常见工作负载
了解对象存储的最常见工作负载。
- 数据效率
- 用于纠删代码、精简配置、生命周期管理和压缩。
- 数据安全性
- 用于对象锁定、密钥管理、静态和动态加密,以及 WORM。
- 数据弹性
- 用于备份、快照、克隆和业务连续性。
2.2. 对象存储接口
了解三个对象存储接口。
- 管理 API
- 提供用于管理 Ceph 对象网关的管理界面。如需更多信息,请参阅 Ceph 对象网关管理 API
- S3
- 通过与 Amazon S3 RESTful API 的大子集兼容的接口提供对象存储功能。有关更多信息,请参阅 Ceph 对象网关和 S3 API。
- Swift
- 通过与 OpenStack Swift API 的大集兼容的接口提供对象存储功能。Ceph 对象网关是一种与 Ceph 存储群集交互的服务。有关更多信息,请参阅 Ceph 对象网关和 Swift API。
2.3. 对象存储入门
本节列出了使用对象存储所需的相关任务。
开始前
如需 通过 Red Hat Ceph Storage 认证作为 S3 目标的备份供应商列表,请参阅 Red Hat Ceph Storage 7.0 的 Compatibility Matrix。
先决条件
特定的网络和硬件要求可用于 Ceph 对象存储。如需更多信息,请参阅 Red Hat Ceph Storage 的注意事项和建议。
设置 S3 服务器端安全性
如需更多信息,请参阅 服务器加密(SSE)。
通过仪表板管理对象网关
有关更多信息,请参阅 使用控制面板管理 Ceph 对象网关。
多站点复制,以启用备份的灾难恢复
详情请查看 故障切换和灾难恢复。
使用 Ceph Orchestrator 部署 Ceph 对象网关
Ceph 对象网关通过使用 Ceph 编排器和命令行界面或使用服务规格来部署。您还可以配置多站点 Ceph 对象网关,并使用 Ceph 编排器移除 Ceph 对象网关。cephadm 命令将 Ceph 对象网关部署为守护进程集合,这些守护进程在多站点部署中管理单集群部署或特定的域和区域。
有关完整的 Ceph 对象网关部署信息和说明,请参阅 部署。
或者,您可以使用命令行界面部署 Ceph 对象网关。有关更多信息,请参阅 使用命令行界面部署 Ceph 对象网关。
第 3 章 块存储
Red Hat Ceph Storage 使用块存储,并把它称为 Ceph 块设备。基于块的存储接口是使用旋转介质(如硬盘和闪存存储(SSD 和 HDD)存储数据的最常见方式。
Ceph 块设备利用 librbd
库与 OSD 交互。
Ceph 块设备为内核虚拟机(KVM) (如快速仿真器(QEMU))和基于云的计算系统(如 OpenStack)提供高性能,它们依赖于 libvirt 和 QEMU 实用程序与 Ceph 块设备集成。您可以使用同一存储集群同时运行 Ceph 对象网关和 Ceph 块设备。
Ceph 块设备可以通过 Ceph 控制面板或命令行界面(CLI)命令轻松管理。有关 Ceph 块设备的详细信息,请参阅 Ceph 块设备简介。
3.1. 块存储常见工作负载
了解 Ceph 块设备的最常见工作负载。
- 数据库存储
- 用于数据保护应用数据库备份。
- 设备镜像
- 使用 来防止数据丢失或站点失败。
- 数据弹性
- 使用 复制和纠删代码。
3.2. 块存储入门
本节列出了使用块存储所需的相关任务。
使用仪表板管理 Ceph 块设备
使用 Red Hat Ceph Storage 仪表板管理 Ceph 块设备。作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中管理和监控块设备镜像。该功能在通用镜像功能和镜像功能之间划分。例如,您可以创建新镜像,查看集群间镜像的镜像状态,以及设置镜像的 IOPS 限制。
有关更多信息,请参阅使用 Ceph 控制面板管理块设备。
常见块存储CLI命令
此信息可用于快速参考基本块设备镜像 CLI 命令。有关每个命令的完整列表和更多详情,请参阅 Ceph 块设备简介。
创建镜像
语法
rbd create IMAGE_NAME --size MEGABYTES --pool POOL_NAME
rbd create IMAGE_NAME --size MEGABYTES --pool POOL_NAME
Copy to Clipboard Copied! 重要必须先创建池,然后才能创建块设备镜像。详情请参阅 创建块设备池。
列出镜像
语法
rbd ls POOL_NAME
rbd ls POOL_NAME
Copy to Clipboard Copied! 从默认池中的特定镜像检索镜像信息
语法
rbd --image IMAGE_NAME info
rbd --image IMAGE_NAME info
Copy to Clipboard Copied! 从池中的镜像检索信息。
语法
rbd --image IMAGE_NAME -p POOL_NAME info
rbd --image IMAGE_NAME -p POOL_NAME info
Copy to Clipboard Copied! 调整镜像大小。
增加默认
rbd
池 Ceph 块设备镜像的最大大小。语法
rbd resize --image IMAGE_NAME --size SIZE
rbd resize --image IMAGE_NAME --size SIZE
Copy to Clipboard Copied! 增加特定池的 Ceph 块 Deivce 镜像的最大大小。
语法
rbd resize --image POOL_NAME/IMAGE_NAME --size SIZE
rbd resize --image POOL_NAME/IMAGE_NAME --size SIZE
Copy to Clipboard Copied! 减少默认
rbd
池 Ceph 块设备镜像的最大大小。语法
rbd resize --image IMAGE_NAME --size SIZE --allow-shrink
rbd resize --image IMAGE_NAME --size SIZE --allow-shrink
Copy to Clipboard Copied! 减少特定池的 Ceph 块设备镜像的最大大小。
语法
rbd resize --image POOL_NAME/IMAGE_NAME --size SIZE --allow-shrink
rbd resize --image POOL_NAME/IMAGE_NAME --size SIZE --allow-shrink
Copy to Clipboard Copied!
将镜像移动到回收站中。
语法
rbd trash mv POOL_NAME/IMAGE_NAME
rbd trash mv POOL_NAME/IMAGE_NAME
Copy to Clipboard Copied! 从回收站中恢复镜像。
语法
rbd trash restore POOL_NAME/IMAGE_NAME
rbd trash restore POOL_NAME/IMAGE_NAME
Copy to Clipboard Copied! 确保启用了
rbd_support
Ceph Manager 模块。语法
ceph mgr module ls
ceph mgr module ls
Copy to Clipboard Copied!
第 4 章 文件存储
Ceph 文件系统(CephFS)是兼容 POSIX 标准的文件系统,该标准基于 Ceph 的分布式对象存储构建,称为 RADOS (可靠的自主分布式对象存储)。
Ceph 文件系统
CephFS 提供对 Red Hat Ceph Storage 集群的文件访问,并尽可能使用 POSIX 语义。
4.1. 文件存储常见工作负载
使用 CephFS 的最常见工作负载是用于数据安全性。
有关使用 CephFS 保护数据的更多信息,请参阅 Ceph 文件系统。
4.2. 文件存储入门
本节列出了使用文件存储所需的相关任务。
限制
要了解在使用 Ceph 文件系统时要考虑的限制和 POSIX 标准,请参阅 Ceph 文件系统限制和 POSIX 标准。
设置 Ceph 文件系统
使用以下步骤设置 Ceph 文件系统。
基本 CephFS CLI 命令
此信息可用于快速参考基本 CephFS CLI 命令。有关每个命令的完整列表和更详细的信息,请参阅管理 Ceph 文件系统卷、子卷组和子卷。
创建 Ceph 文件系统卷.
语法
ceph fs volume create VOLUME_NAME
ceph fs volume create VOLUME_NAME
Copy to Clipboard Copied! 创建文件系统子卷。
语法
ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE] [--namespace-isolated]
ceph fs subvolume create VOLUME_NAME SUBVOLUME_NAME [--size SIZE_IN_BYTES --group_name SUBVOLUME_GROUP_NAME --pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE] [--namespace-isolated]
Copy to Clipboard Copied! 创建文件系统子卷组。
语法
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]
ceph fs subvolumegroup create VOLUME_NAME GROUP_NAME [--pool_layout DATA_POOL_NAME --uid UID --gid GID --mode OCTAL_MODE]
Copy to Clipboard Copied! 列出 Ceph 文件系统卷。
语法
ceph fs volume ls
ceph fs volume ls
Copy to Clipboard Copied! 列出 Ceph 文件系统子卷。
语法
ceph fs subvolume ls VOLUME_NAME
ceph fs subvolume ls VOLUME_NAME
Copy to Clipboard Copied! 列出 Ceph 文件系统子卷组。
语法
ceph fs subvolumegroup ls VOLUME_NAME
ceph fs subvolumegroup ls VOLUME_NAME
Copy to Clipboard Copied! 查看有关 Ceph 文件系统卷的信息。
语法
ceph fs volume info VOLUME_NAME
ceph fs volume info VOLUME_NAME
Copy to Clipboard Copied! 删除 Ceph 文件系统卷.
语法
ceph fs volume rm VOLUME_NAME [--yes-i-really-mean-it]
ceph fs volume rm VOLUME_NAME [--yes-i-really-mean-it]
Copy to Clipboard Copied! 删除文件系统子卷。
语法
ceph fs subvolume rm VOLUME_NAME SUBVOLUME_NAME
ceph fs subvolume rm VOLUME_NAME SUBVOLUME_NAME
Copy to Clipboard Copied! 删除文件系统子卷组。
语法
ceph fs subvolumegroup rm VOLUME_NAME GROUP_NAME [--force]
ceph fs subvolumegroup rm VOLUME_NAME GROUP_NAME [--force]
Copy to Clipboard Copied! 创建文件系统子卷的快照。
语法
ceph fs subvolume snapshot create VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME]
ceph fs subvolume snapshot create VOLUME_NAME SUBVOLUME_NAME SNAP_NAME [--group_name GROUP_NAME]
Copy to Clipboard Copied!
4.3. 部署 Ceph 文件系统
了解 Ceph 文件系统的基本部署程序。
Ceph 文件系统的详细部署说明请参见 Ceph 文件系统的部署。