仪表板指南
使用 Ceph Dashboard 监控 Ceph 集群
摘要
第 1 章 Ceph 仪表板概述 复制链接链接已复制到粘贴板!
作为存储管理员,Red Hat Ceph Storage 控制面板提供管理和监控功能,允许您管理和监控集群,以及视觉化与其相关的信息和性能统计信息。控制面板使用由 ceph-mgr
守护进程托管的 Web 服务器。
控制面板可从 Web 浏览器访问,包含许多有用的管理和监控功能,例如配置管理器模块并监控 OSD 状态。
Ceph 仪表板提供以下功能:
- 多用户和角色管理
控制面板支持多个具有不同权限和角色的用户帐户。可以使用命令行和 Web 用户界面来管理用户帐户和角色。控制面板支持多种增强密码安全性的方法。可以配置密码复杂性规则,要求用户在登录后或可配置的时间段后更改密码。
有关更多信息,请参阅在 Ceph 控制面板中管理角色, 以及在 Ceph 控制面板中管理用户。
- 单点登录(SSO)
控制面板支持使用 SAML 2.0 协议与外部身份提供程序进行身份验证。
有关更多信息 ,请参阅为 Ceph 仪表板启用单点登录。
- Auditing
仪表板后端可以配置为记录 Ceph 管理器日志中的所有 PUT、POST 和 DELETE API 请求。
有关在仪表板中使用管理器模块的更多信息,请参阅控制面板 上查看和编辑 Ceph 集群的管理器模块。
管理功能
Red Hat Ceph Storage 控制面板包含各种管理功能。
- 查看集群层次结构
例如,您可以查看 CRUSH map,以确定特定 OSD ID 正在运行的主机。如果 OSD 出现问题,这非常有用。
有关更多信息,请参阅 在仪表板上查看 Ceph 集群的 CRUSH map。
- 配置管理器模块
您可以查看和更改 Ceph 管理器模块的参数。
有关更多信息,请参阅 在仪表板上查看和编辑 Ceph 集群的管理器模块。
- 嵌入式 Grafana 仪表板
Ceph Dashboard Grafana 仪表板可能会嵌入到外部应用程序和网页中,以提供有关 Prometheus 模块收集性能指标的信息。
有关更多信息,请参阅 Ceph 控制面板组件。
- 查看和过滤日志
您可以查看事件并审核集群日志,并根据优先级、关键字、日期或时间范围过滤它们。
有关更多信息,请参阅 控制面板上 Ceph 集群的过滤日志。
- 切换仪表板组件
您可以启用和禁用仪表板组件,以便只有您需要的功能可用。
有关更多信息,请参阅 切换 Ceph 仪表板功能。
- 管理 OSD 设置
您可以使用控制面板设置集群范围的 OSD 标志。您也可以将 OSD 标记为 up、down 或 out,清除和重新加权 OSD,执行清理操作,修改各种清理相关配置选项,选择 profile 以调整回填活动级别。您可以设置和更改 OSD 的设备类别,按设备类别显示和排序 OSD。您可以在新的驱动器和主机上部署 OSD。
有关更多信息,请参阅 在仪表板上管理 Ceph OSD。
- 查看警报
警报页面允许您查看当前警报的详情。
有关更多信息,请参阅查看 Ceph 仪表板上的警报。
- 升级
您可以使用仪表板升级 Ceph 集群版本。
如需更多信息,请参阅 升级集群。
- 镜像的服务质量
您可以对镜像设置性能限制,例如限制 IOPS 或读取 BPS burst 速率。
有关更多信息,请参阅在 Ceph 控制面板中管理块设备镜像。
监控功能
在 Red Hat Ceph Storage Dashboard 中监控不同的功能。
- 用户名和密码保护
您只能通过提供可配置的用户名和密码来访问仪表板。
有关更多信息,请参阅 在 Ceph 控制面板中管理用户。
- 集群的整体健康状况
显示性能和容量指标。这还显示总体集群状态、存储利用率,例如对象数量、原始容量、每个池的使用情况、池列表及其状态和用量统计。
有关更多信息,请参阅 在仪表板上查看和编辑 Ceph 集群的配置。
- 主机
提供与集群关联的所有主机的列表,以及运行的服务和已安装的 Ceph 版本。
有关更多信息,请参阅 在仪表板上监控 Ceph 集群的主机。
- 性能计数器
显示每个正在运行的服务的详细统计信息。
有关更多信息,请参阅 控制面板上 Ceph 集群的监控服务。
- Monitors
列出所有 monitor、其仲裁状态和打开的会话。
有关更多信息,请参阅 仪表板上的 Ceph 集群的监控监控器。
- 配置编辑器
显示所有可用的配置选项、描述、类型、默认值和当前设置的值。这些值可编辑。
有关更多信息,请参阅 在仪表板上查看和编辑 Ceph 集群的配置。
- 集群日志
显示并过滤集群事件的最新更新,并根据优先级、日期或关键字审核日志文件。
有关更多信息,请参阅 控制面板上 Ceph 集群的过滤日志。
- 设备管理
列出 Orchestrator 已知的所有主机。列出附加到主机的所有驱动器及其属性。显示推动健康预测、SMART 数据和闪烁的 LED。
有关更多信息,请参阅 在仪表板上监控 Ceph 集群的主机。
- 查看存储集群容量
您可以在 Ceph 仪表板的 Capacity 页面中查看 Red Hat Ceph Storage 集群的原始存储容量。
有关更多信息,请参阅了解 Ceph 仪表板的登录页面。
- 池
列出和管理所有 Ceph 池及其详细信息。例如:应用程序、放置组、复制大小、EC 配置集、配额和 CRUSH 规则集。
有关更多信息,请参阅 控制面板上了解 Ceph 仪表板和 Ceph 集群的 Monitoring 池的 登录页面。
- OSD
列出和管理所有 OSD、其状态和用量统计。OSD 还列出用于读取和写入操作的详细信息,如属性、OSD map、元数据和性能计数器。OSD 也列出与 OSD 关联的所有驱动器。
有关更多信息,请参阅监控仪表板上的 Ceph OSD。
- 镜像
列出所有 Ceph 块设备(RBD)镜像及其属性,如大小、对象和功能。创建、复制、修改和删除 RBD 镜像。创建、删除和回滚选定镜像的快照,防止或取消保护这些快照以进行修改。复制或克隆快照,扁平化克隆的镜像。
注意特定镜像的 Overall Performance 选项卡中的 I/O 性能图仅在指定包含该镜像的池后才会显示值,方法是在 Cluster→Manager 模块→Prometheus 中设置
rbd_stats_pool
参数。有关更多信息,请参阅监控 Ceph 控制面板中的块设备镜像。
- 块设备镜像
为远程 Ceph 服务器启用并配置 Ceph 块设备(RBD)镜像。列出所有活跃同步守护进程及其状态、池和 RBD 镜像,包括它们的同步状态。
有关更多信息,请参阅 Ceph 仪表板上的镜像视图。
- Ceph 文件系统
列出所有活动的 Ceph 文件系统(CephFS)客户端和相关池,包括它们的使用量统计数据。驱除活跃的 CephFS 客户端,管理 CephFS 配额和快照,并浏览 CephFS 目录结构。
有关更多信息,请参阅 监控仪表板上的 Ceph 文件系统。
- 对象网关(RGW)
列出所有活跃的对象网关及其性能计数器。显示和管理,包括添加、编辑和删除 Ceph 对象网关用户及其详细信息,如配额,以及用户的存储桶及其详细信息,如所有者或配额。
有关更多信息,请参阅 控制面板上的监控 Ceph 对象网关守护进程。
安全功能
控制面板提供以下安全功能:
- SSL 和 TLS 支持
Web 浏览器和控制面板之间的所有 HTTP 通信均通过 SSL 保护。可以使用内置命令创建自签名证书,但也可以导入由证书颁发机构(CA)签名和发布的自定义证书。
有关更多信息,请参阅 Ceph 控制面板安装并访问。
先决条件
- 系统管理员级别体验。
1.1. Ceph Dashboard 组件 复制链接链接已复制到粘贴板!
仪表板的功能由多个组件提供。
- 用于部署的 Cephadm 应用。
-
嵌入式仪表板
ceph-mgr
模块。 -
嵌入的 Prometheus
ceph-mgr
模块。 - Prometheus 时间序列数据库。
- Prometheus node-exporter 守护进程,在存储集群的每个主机上运行。
- 用于监控用户界面和警报的 Grafana 平台。
1.2. Red Hat Ceph Storage Dashboard 架构 复制链接链接已复制到粘贴板!
控制面板架构依赖于 Ceph 管理器仪表板插件和其他组件。请参见以下示意图,以了解 Ceph 管理器和仪表板如何协同工作。
第 2 章 Ceph Dashboard 安装和访问 复制链接链接已复制到粘贴板!
作为系统管理员,您可以使用 bootstrap 集群中提供的凭证访问仪表板。
Cephadm 默认安装控制面板。以下是仪表板 URL 的示例:
URL: https://host01:8443/ User: admin Password: zbiql951ar
URL: https://host01:8443/
User: admin
Password: zbiql951ar
更新浏览器,再清除 Cookie,然后再访问仪表板 URL。
以下是可用于 Ceph 仪表板配置的 Cephadm bootstrap 选项:
- [-initial-dashboard-user INITIAL_DASHBOARD_USER] - 在 bootstrapping 设置 initial-dashboard-user 时使用这个选项。
- [-initial-dashboard-password INITIAL_DASHBOARD_PASSWORD] - 在 bootstrapping 设置 initial-dashboard-password 时使用该选项。
- [–ssl-dashboard-port SSL_DASHBOARD_PORT] - 当 bootstrap 设置自定义仪表板端口而不是默认的 8443 端口时使用这个选项。
- [-dashboard-key DASHBOARD_KEY] - 在 bootstrap 设置用于 SSL 的自定义密钥时使用这个选项。
- [–dashboard-crt DASHBOARD_CRT] - 在 bootstrap 来为 SSL 设置自定义证书时使用这个选项。
- [–skip-dashboard] - 当 bootstrap 在没有仪表板的情况下部署 Ceph 时使用这个选项。
- [–dashboard-password-noupdate] - 如果您使用了以上两个选项并不希望在第一次登陆时重置密码时,在 bootstrap 中使用这个选项。
- [-allow-fqdn-hostname] - 在 bootstrap 时使用该选项以允许完全限定的主机名。
- [-skip-prepare-host] - 在 bootstrap 时使用该选项跳过主机准备。
为了避免与仪表板相关的外部 URL 连接问题,请将完全限定域名(FQDN)用于主机名,例如 host01.ceph.redhat.com
。
在客户端互联网浏览器中直接打开 Grafana URL,并接受安全例外来查看 Ceph 仪表板上的图形。重新加载浏览器以查看更改。
示例
cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt --initial-dashboard-user admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname
[root@host01 ~]# cephadm bootstrap --mon-ip 127.0.0.1 --registry-json cephadm.txt --initial-dashboard-user admin --initial-dashboard-password zbiql951ar --dashboard-password-noupdate --allow-fqdn-hostname
在使用 cephadm
增强存储集群时,您可以使用 --image
选项用于自定义容器镜像或本地容器镜像。
只有在 bootstrap 没有使用 --dashboard-password-noupdate
选项时,您必须在第一次使用 bootstrap 时更改密码。您可以在 var/log/ceph/cephadm.log
文件中找到 Ceph 仪表板凭据。使用 "Ceph Dashboard is now available at" 字符串进行搜索。
本节涵盖以下任务:
2.1. Ceph 控制面板的网络端口要求 复制链接链接已复制到粘贴板!
Ceph 仪表板组件使用某些必须可以被访问的 TCP 网络端口。默认情况下,在安装 Red Hat Ceph Storage 时,在 firewalld
中自动打开网络端口。
端口 | 使用 | 原始主机 | 目的地主机 |
---|---|---|---|
8443 | 仪表板 Web 界面 | 需要访问 Grafana 服务器上的 Ceph Dashboard UI 和主机的 IP 地址,因为 AlertManager 服务也可以启动到 Dashboard 的连接以报告警报。 | Ceph 管理器主机。 |
3000 | Grafana | 需要访问 Grafana 仪表板 UI 和所有 Ceph Manager 主机和 Grafana 服务器的 IP 地址。 | 运行 Grafana 服务器的主机。 |
2049 | NFS-Ganesha | 需要访问 NFS 的 IP 地址。 | 提供 NFS 服务的 IP 地址。 |
9095 | 基本 Prometheus 图形的默认 Prometheus 服务器 | 需要访问 Prometheus UI 以及运行 Prometheus 的所有 Ceph Manager 主机和 Grafana 服务器或主机的 IP 地址。 | 运行 Prometheus 的主机或主机。 |
9093 | Prometheus Alertmanager | 需要访问 Alertmanager Web UI 以及运行 Prometheus 的所有 Ceph Manager 主机和 Grafana 服务器或主机的 IP 地址。 | Grafana 服务器下所有 Ceph Manager 主机。 |
9094 | Prometheus Alertmanager 可配置从多个实例组成的高可用性集群 | Grafana 服务器下所有 Ceph Manager 主机。 |
Prometheus Alertmanager High Availability(对等点守护进程同步),因此 |
9100 |
Prometheus | 运行 Prometheus 的主机需要查看节点导出器指标 Web UI 以及运行 Prometheus 的所有 Ceph Manager 主机和 Grafana 服务器或主机。 | 所有存储集群主机,包括 MON、OSDS、Grafana 服务器主机。 |
9283 | Ceph Manager Prometheus exporter 模块 | 运行 Prometheus 的主机需要访问 Ceph 导出器 metrics Web UI 和 Grafana 服务器。 | 所有 Ceph Manager 主机。 |
2.2. 访问 Ceph 仪表板 复制链接链接已复制到粘贴板!
您可以访问 Ceph 仪表板来管理和监控 Red Hat Ceph Storage 集群。
先决条件
- 成功安装 Red Hat Ceph Storage 仪表板。
- NTP 正在正确同步时钟。
流程
在网页浏览器中输入以下 URL:
语法
https://HOST_NAME:PORT
https://HOST_NAME:PORT
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 替换:
- 带有活跃管理器主机的完全限定域名(FQDN)的 HOST_NAME。
PORT 带有端口
8443
示例
https://host01:8443
https://host01:8443
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 您也可以在 Cephadm shell 中运行以下命令获取仪表板的 URL:
示例
[ceph: root@host01 /]# ceph mgr services
[ceph: root@host01 /]# ceph mgr services
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 此命令将显示当前配置的所有端点。查找
dashboard
键,以获取用于访问仪表板的 URL。
-
在登录页面中,输入用户名
admin
和 bootstrap 中提供的默认密码。 - 首次登录 Red Hat Ceph Storage 仪表板时,您必须更改密码。
登录后,会显示仪表板默认登录页面,其中提供了 Red Hat Ceph Storage 集群的状态、性能、清单和容量指标的详细信息。
图 2.1. Ceph 仪表板登录页面
-
点仪表板页面中的菜单图标(
)折叠或显示垂直菜单中的选项。
2.3. 在 Ceph 仪表板中扩展集群 复制链接链接已复制到粘贴板!
您可以使用仪表板来扩展 Red Hat Ceph Storage 集群,以添加主机、添加 OSD 和创建服务,如 Alertmanager、Cephadm-exporter、CephFS-mirror、Grafana、ingress、MDS、NFS、node-exporter、Prometheus、RBD-mirror 和 Ceph 对象网关。
引导新的存储集群后,会创建 Ceph Monitor 和 Ceph Manager 守护进程,集群处于 HEALTH_WARN 状态。在仪表板上创建集群的所有服务后,集群的健康状况从 HEALTH_WARN 更改为 HEALTH_OK 状态。
先决条件
- 启动的存储集群。如需了解更多详细信息 ,请参阅 Red Hat Ceph Storage 安装指南中的 引导 新存储集群部分。
-
在 Red Hat Ceph Storage 仪表板中,用户至少为
cluster-manager
角色。如需了解更多详细信息,请参阅 Red Hat Ceph Storage 仪表板指南中的 Ceph仪表板上的用户角色和权限 部分。
流程
将 Bootstrapped 主机中的 admin 密钥复制到其他主机:
语法
ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME
ssh-copy-id -f -i /etc/ceph/ceph.pub root@HOST_NAME
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02 [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03
[ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host02 [ceph: root@host01 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host03
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 使用 bootstrap 过程中提供的默认凭证登录到控制面板。
- 更改密码,再使用新密码登录控制到仪表板。
在登录页面上,单击 Expand Cluster。
注意点 Expand Cluster 可打开向导,执行扩展步骤。要单独跳过并添加主机和服务,请点 跳过。
图 2.2. 展开集群
添加主机。这需要针对存储集群中的每个主机完成。
- 在 Add Hosts 步骤中,单击 Add。
提供主机名。这与从 bootstrapped 主机复制密钥时提供的主机名相同。
注意使用以逗号分隔的主机名、范围表达式或逗号分隔的范围表达式列表来添加多个主机。
- 可选:提供主机的对应 IP 地址。
- 可选:选择将要创建服务的主机的标签。点击铅笔图标选择或添加新标签。
单击 Add Host。
新主机显示在 Add Hosts 窗格中。
- 点击 Next。
创建 OSD:
- 在 Create OSD 步骤中,对于主设备,单击 Add。
- 在 主设备 窗口中,过滤该设备并选择设备。
- 点击 Add。
- 可选:在 Create OSD 窗口中,如果您有任何共享设备,如 WAL 或 DB 设备,则添加设备。
- 可选:在 Features 部分中,选择 Encryption 来加密功能。
- 点击 Next。
创建服务:
- 在 Create Services 步骤中,单击 Create。
在 Create Service 表单中:
- 选择服务类型。
-
提供服务 ID。ID 是该服务的唯一名称。此 ID 在服务名称中使用,即
service_type.service_id
。
…可选:如果服务是 Unmanaged,则选择该选项。
+ 选择 Unmanaged 服务时,编配器不会启动或停止与此服务关联的任何守护进程。放置和所有其他属性都会被忽略。
- 选择放置是否由主机或标签选择。
- 选择主机。
在 Count 字段中,提供需要部署的守护进程或服务数量。
点 Create Service。
新服务显示在 Create Services 窗格中。
- 在 Create Service 窗口中,单击 Next。
查看集群扩展详情。
查看 Cluster Resources,即服务主机、主机详情。要编辑任何参数,请点击 Back 并按照前面的步骤操作。
图 2.3. 查看集群
单击 Expand Cluster。
此时会显示
Cluster expansion displayed
通知,集群状态在仪表板上更改为 HEALTH_OK。
验证
登录到
cephadm
shell:示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行
ceph -s
命令。示例
[ceph: root@host01 /]# ceph -s
[ceph: root@host01 /]# ceph -s
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 集群的运行状况是 HEALTH_OK。
2.4. 升级集群 复制链接链接已复制到粘贴板!
使用控制面板升级 Ceph 集群。
集群镜像从 registry.redhat.io
自动拉取。另外,还可使用自定义镜像进行升级。
先决条件
在开始升级过程前,请验证您的升级路径和操作系统是否被支持。有关更多信息,请参阅 Red Hat Ceph Storage 8.0 的兼容性列表。
在开始前,请确保您有以下先决条件:
这些项目无法通过仪表板完成,且必须通过命令行界面手动完成,然后才能从仪表板升级集群。
如需更多信息,请参阅 在断开连接的环境中升级 Red Hat Ceph Storage 集群,并完成第 1 步。
最新的
cephadm
。语法
dnf udpate cephadm
dnf udpate cephadm
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 最新的
cephadm-ansible
。语法
dnf udpate cephadm-ansible
dnf udpate cephadm-ansible
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 最新的
cephadm pre-flight playbook
。语法
ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom upgrade_ceph_packages=true"
ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom upgrade_ceph_packages=true"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下 Ceph 命令,以避免在集群升级过程中警报和重新平衡数据:
语法
ceph health mute DAEMON_OLD_VERSION --sticky ceph osd set noout ceph osd set noscrub ceph osd set nodeep-scrub
ceph health mute DAEMON_OLD_VERSION --sticky ceph osd set noout ceph osd set noscrub ceph osd set nodeep-scrub
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
流程
查看是否有集群升级可用,并根据需要在仪表板上的 Administration > Upgrade 中进行升级。
注意如果仪表板显示
Not retrieve upgrade
消息,请检查 registry 是否已添加到容器配置文件中,并将凭据添加到 Podman 或 docker 中。如果需要,在升级过程中点 Pause 或 Stop。升级进度会在进度栏中显示,以及升级过程中的信息。
注意停止升级时,升级会首先暂停,然后提示您停止升级。
- 可选。从 Upgrade 页面的 Cluster logs 部分,在升级过程中查看集群日志。
- 确认集群状态显示 OK 状态,验证升级是否已成功完成。
验证升级完成后,取消设置
noout
、noscrub
和nodeep-scrub
标志。示例
[ceph: root@host01 /]# ceph osd unset noout [ceph: root@host01 /]# ceph osd unset noscrub [ceph: root@host01 /]# ceph osd unset nodeep-scrub
[ceph: root@host01 /]# ceph osd unset noout [ceph: root@host01 /]# ceph osd unset noscrub [ceph: root@host01 /]# ceph osd unset nodeep-scrub
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.5. 切换 Ceph 仪表板功能 复制链接链接已复制到粘贴板!
您可以通过根据需要启用或禁用功能来自定义 Red Hat Ceph Storage 仪表板组件。所有功能都会默认启用。当禁用某个功能时,web-interface 元素会变为隐藏的,相关的 REST API 端点会拒绝该功能的任何进一步请求。启用和禁用仪表板功能可以通过命令行界面或 Web 界面完成。
可用功能:
Ceph 块设备:
-
镜像管理,
rbd
-
镜像,
mirroring
-
镜像管理,
-
Ceph 文件系统,
cephfs
-
Ceph 对象网关,
rgw
-
NFS Ganesha 网关
nfs
默认情况下,Ceph Manager 与 Ceph 监控器共存。
您可以一次性禁用多个功能。
禁用某个功能后,可能需要 20 秒来反映 web 界面中的更改。
先决条件
- 安装并配置 Red Hat Ceph Storage 仪表板软件。
- 用户访问 Ceph Manager 主机或控制面板 Web 界面。
- 对 Ceph Manager 主机的 root 级别访问权限。
流程
从仪表板 web 界面中切换仪表板功能:
- 在仪表板登录页面中,进入 Administration→Manager Modules 并选择 dashboard 模块。
- 点 Edit。
- 在 Edit Manager 模块 表单中,您可以通过选择或清除不同功能名称旁边的复选框来启用或禁用仪表板功能。
- 进行选择后,单击 更新。
使用命令行界面切换仪表板功能:
登录到 Cephadm shell:
示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 列出功能状态:
示例
[ceph: root@host01 /]# ceph dashboard feature status
[ceph: root@host01 /]# ceph dashboard feature status
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 禁用一个功能:
[ceph: root@host01 /]# ceph dashboard feature disable rgw
[ceph: root@host01 /]# ceph dashboard feature disable rgw
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 本例禁用 Ceph 对象网关功能。
启用一个功能:
[ceph: root@host01 /]# ceph dashboard feature enable cephfs
[ceph: root@host01 /]# ceph dashboard feature enable cephfs
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 这个示例启用了 Ceph Filesystem 功能。
2.6. 了解 Ceph 仪表板的登录页面 复制链接链接已复制到粘贴板!
登录页面通过导航栏和单个面板显示整个 Ceph 集群的概述。
菜单栏中提供以下选项:
- 任务和通知
- 提供任务和通知消息。
- Help
- 提供 product 和 REST API 文档的链接、有关 Red Hat Ceph Storage 仪表板的详细信息,以及用于报告问题的格式。
- 仪表板设置
- 提供对用户管理和遥测配置的访问权限。
- 用户
- 使用此菜单查看登录状态、更改密码和注销仪表板。
图 2.4. 菜单栏中
导航菜单可以通过单击导航菜单图标
来打开或隐藏。
Dashboard
主仪表板显示有关集群状态的特定信息。
可以从导航菜单中点 Dashboard 随时访问主仪表板。
仪表板登录页面将窗格组织到不同的类别。
图 2.5. Ceph 仪表板登录页面
- 详情
- 显示特定的集群信息,如果遥测活跃或不活跃。
- 清单(Inventory)
显示集群的不同部分、可用数量及其状态。
直接从 清单 链接到特定清单项目,其中可用。
- 主机
- 显示 Ceph 存储集群中的主机总数。
- Monitors
- 显示 Ceph 监控器和仲裁状态的数量。
- managers
- 显示管理器守护进程的数量和状态。
- OSD
- 显示 Ceph Storage 集群中的 OSD 总数,以及 中启动的数量、和 的数量。
- 池
- 显示 Ceph 集群中的存储池数量。
- PGs
显示放置组(PG)的总数。PG 状态划分为 Working 和 Warning,以简化显示。各自包含多个状态。+ 工作状态包括具有以下状态的 PG:
- 激活
- backfill_wait
- 回填
- 创建
- deep
- degraded
- forced_backfill
- forced_recovery
- peering
- peered
- recovering
- recovery_wait
- repair
- 清理
- snaptrim
- snaptrim_wait + Warning 状态包含具有以下状态的 PG:
- backfill_toofull
- backfill_unfound
- down
- incomplete
- 不一致
- recovery_toofull
- recovery_unfound
- remapped
- snaptrim_error
- stale
- undersized
- 对象网关
- 显示 Ceph 存储集群中对象网关的数量。
- 元数据服务器
- 显示 Ceph 文件系统(CephFS)的元数据服务器的数量和状态。
- Status
- 显示集群和主机和守护进程状态的健康状态。此时会显示 Ceph 存储集群的当前健康状况。danger 和 warning 警报直接显示在登录页面中。单击 View alerts 以获取完整的警报列表。
- 容量
- 显示存储使用指标。这显示为已用、warning 和 danger 的图表。数字以百分比表示,以 GiB 为单位。
- Cluster Utilization
- Cluster Utilization 窗格显示与数据传输速度相关的信息。从列表中选择数据输出的时间范围。选择最后 5 分钟到最后 24 小时之间的范围。
- 使用的容量(RAW)
- 显示 GiB 中的使用量。
- IOPS
- 显示每秒 I/O 读写操作总数。
- OSD 冲突
- 显示每毫秒应用和提交总数。
- 客户端吞吐量
- 以每秒 KiB 为单位显示总客户端读取和写入吞吐量。
- 恢复吞吐量
- 显示集群修复和平衡操作的速度。例如,显示由于磁盘丢失而可能移动的后台数据的状态。该信息以字节/秒为单位。
2.7. 使用 Ceph 仪表板更改仪表板密码 复制链接链接已复制到粘贴板!
默认情况下,用于访问仪表板的密码在引导集群时由系统随机生成。首次登录 Red Hat Ceph Storage 仪表板时,您必须更改密码。您可以使用控制面板更改 admin
用户的密码。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
流程
登录到仪表板:
语法
https://HOST_NAME:8443
https://HOST_NAME:8443
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 进入菜单栏中的 User→Change 密码。
- 输入旧密码进行验证。
- 在 New password 字段中,输入新密码。密码必须包含最少 8 个字符,且不能与最后一个字符相同。
- 在 Confirm password 字段中,再次输入新密码以确认。
单击 "更改密码 "。
您将退出并重定向到登录屏幕。此时会出现确认密码的通知。
2.8. 使用命令行界面更改 Ceph 仪表板密码 复制链接链接已复制到粘贴板!
如果您忘记了 Ceph 仪表板密码,您可以使用命令行界面更改密码。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 安装了仪表板的主机的根级别访问。
流程
登录到 Cephadm shell:
示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建
dashboard_password.yml
文件:示例
[ceph: root@host01 /]# touch dashboard_password.yml
[ceph: root@host01 /]# touch dashboard_password.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 编辑该文件并添加新仪表板密码:
示例
[ceph: root@host01 /]# vi dashboard_password.yml
[ceph: root@host01 /]# vi dashboard_password.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重置仪表板密码:
语法
ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE
ceph dashboard ac-user-set-password DASHBOARD_USERNAME -i PASSWORD_FILE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}
[ceph: root@host01 /]# ceph dashboard ac-user-set-password admin -i dashboard_password.yml {"username": "admin", "password": "$2b$12$i5RmvN1PolR61Fay0mPgt.GDpcga1QpYsaHUbJfoqaHd1rfFFx7XS", "roles": ["administrator"], "name": null, "email": null, "lastUpdate": , "enabled": true, "pwdExpirationDate": null, "pwdUpdateRequired": false}
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
- 使用新密码登录控制面板。
2.9. 为 Grafana 设置 admin 用户密码 复制链接链接已复制到粘贴板!
默认情况下,cephadm
不会为 Grafana 创建管理员用户。使用 Ceph 编排器,您可以创建 admin 用户并设置密码。
使用这些凭证,您可以使用 admin 用户提供的密码登录到存储集群的 Grafana URL。
先决条件
- 安装了监控堆栈的 Red Hat Ceph Storage 集群。
-
cephadm
主机的 root 级别访问权限。 -
启用
dashboard
模块。
流程
作为 root 用户,创建一个
grafana.yml
文件并提供以下详情:语法
service_type: grafana spec: initial_admin_password: PASSWORD
service_type: grafana spec: initial_admin_password: PASSWORD
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
service_type: grafana spec: initial_admin_password: mypassword
service_type: grafana spec: initial_admin_password: mypassword
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将
grafana.yml
文件挂载到容器的一个目录中:示例
cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml
[root@host01 ~]# cephadm shell --mount grafana.yml:/var/lib/ceph/grafana.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意每次退出 shell 时,您都必须在部署守护进程前将该文件挂载到容器中。
可选:检查是否启用了
dashboard
Ceph Manager 模块:示例
[ceph: root@host01 /]# ceph mgr module ls
[ceph: root@host01 /]# ceph mgr module ls
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 可选:启用
dashboard
Ceph Manager 模块:示例
[ceph: root@host01 /]# ceph mgr module enable dashboard
[ceph: root@host01 /]# ceph mgr module enable dashboard
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 使用
orch
命令应用规格:语法
ceph orch apply -i FILE_NAME.yml
ceph orch apply -i FILE_NAME.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml
[ceph: root@host01 /]# ceph orch apply -i /var/lib/ceph/grafana.yml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 重新部署
grafana
服务:示例
[ceph: root@host01 /]# ceph orch redeploy grafana
[ceph: root@host01 /]# ceph orch redeploy grafana
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 这会创建一个名为
admin
的 admin 用户,用户具有所给密码,用户可以使用这些凭证登录到 Grafana URL。
验证:
使用凭证登录到 Grafana:
语法
https://HOST_NAME:PORT
https://HOST_NAME:PORT
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
https://host01:3000/
https://host01:3000/
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.10. 手动启用 Red Hat Ceph Storage Dashboard 复制链接链接已复制到粘贴板!
如果您在引导过程中使用 --skip-dashboard
选项安装了 Red Hat Ceph Storage 集群,仪表板 URL 和凭证不会出现在引导输出中。您可以使用命令行界面手动启用仪表板。虽然部署了 Prometheus、Grafana、Alertmanager、Alertmanager 和 node-exporter 等监控堆栈组件,但它们会被禁用,您必须手动启用。
先决条件
-
在 bootstrap 中使用
--skip-dashboard
选项安装运行的 Red Hat Ceph Storage 集群。 - 需要启用控制面板的主机的根级别访问权限。
流程
登录到 Cephadm shell:
示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查 Ceph Manager 服务:
示例
[ceph: root@host01 /]# ceph mgr services { "prometheus": "http://10.8.0.101:9283/" }
[ceph: root@host01 /]# ceph mgr services { "prometheus": "http://10.8.0.101:9283/" }
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 您可以看到没有配置 Dashboard URL。
启用 dashboard 模块:
示例
[ceph: root@host01 /]# ceph mgr module enable dashboard
[ceph: root@host01 /]# ceph mgr module enable dashboard
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 为仪表板访问创建自签名证书:
示例
[ceph: root@host01 /]# ceph dashboard create-self-signed-cert
[ceph: root@host01 /]# ceph dashboard create-self-signed-cert
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意您可以禁用证书验证以避免认证错误。
检查 Ceph Manager 服务:
示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建 admin 用户和密码以访问 Red Hat Ceph Storage 仪表板:
语法
echo -n "PASSWORD" > PASSWORD_FILE ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator
echo -n "PASSWORD" > PASSWORD_FILE ceph dashboard ac-user-create admin -i PASSWORD_FILE administrator
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator
[ceph: root@host01 /]# echo -n "p@ssw0rd" > password.txt [ceph: root@host01 /]# ceph dashboard ac-user-create admin -i password.txt administrator
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 启用监控堆栈。详情请参阅 Red Hat Ceph Storage Dashboard 指南中的 启用监控堆栈 部分。
2.11. 在仪表板中使用单点登录 复制链接链接已复制到粘贴板!
Ceph 控制面板支持外部身份验证用户,可选择 Security Assertion Markup Language (SAML) 2.0 协议,或使用 OAuth2 代理(oauth2-proxy
)。在将单点登录(SSO)与 Ceph 控制面板搭配使用之前,请创建控制面板用户帐户并分配任何必要的角色。Ceph 控制面板完成用户授权,然后现有的身份提供程序(IdP)完成身份验证过程。您可以使用 SAML 协议或 oauth2-proxy
启用单点登录。
Red Hat Ceph Storage 支持使用 RHSSO (Keycloak)仪表板 SSO 和多因素身份验证。
OAuth2 SSO 使用 oauth2-proxy
服务与 Ceph 管理网关(mgmt-gateway
)一起使用,从而提供统一访问和改进的用户体验。
OAuth2 SSO、mgmt-gateway
和 oauth2-proxy
服务是技术预览。
有关 Ceph 管理网关和 OAuth2 代理服务的更多信息,请参阅使用 Ceph 管理网关(mgmt-gateway)和使用 OAuth2 代理(oauth2-proxy)服务。
有关红帽构建的 Keycloack 的更多信息,请参阅红帽客户门户网站上的 红帽 构建 Keycloak。
2.11.1. 创建管理员帐户,将用户同步到 Ceph 仪表板 复制链接链接已复制到粘贴板!
您必须创建 admin 帐户,以便将用户同步到 Ceph 仪表板。
在创建了帐户后,请使用 Red Hat Single Sign-on(SSO)将用户同步到 Ceph 仪表板。请参阅 Red Hat Ceph Storage 仪表板指南中的使用 Red Hat Single Sign-On 将用户同步到 Ceph 仪表板。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 用户添加到仪表板中。
- 所有主机上的 root 级别访问权限。
- 安装了 Java OpenJDK。如需更多信息,请参阅红帽客户门户网站中的 Installing and using OpenJDK 8 for RHEL 指南中的 Installing a JRE on RHEL by using yum 部分。
- 从 ZIP 文件安装的 Red Hat Single Sign-On。请参阅红帽客户门户网站上的 Red Hat Single Sign -On 的 Server 安装和配置指南中的 从 ZIP 文件安装 RH-SSO 部分。
流程
- 在安装了 Red Hat Ceph Storage 的系统中下载 Red Hat Single Sign-On 7.4.0 服务器。
解压文件夹:
unzip rhsso-7.4.0.zip
[root@host01 ~]# unzip rhsso-7.4.0.zip
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 进入
standalone/configuration
目录并打开standalone.xml
进行编辑:cd standalone/configuration vi standalone.xml
[root@host01 ~]# cd standalone/configuration [root@host01 configuration]# vi standalone.xml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在新创建的
rhsso-7.4.0
文件夹的bin
目录中,运行add-user-keycloak
脚本来添加初始管理员用户:./add-user-keycloak.sh -u admin
[root@host01 bin]# ./add-user-keycloak.sh -u admin
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
将
localhost
和两个127.0.0.1
实例的所有实例替换为安装 Red Hat SSO 的计算机的 IP 地址。 启动服务器。在
rh-sso-7.4
文件夹的bin
目录中,运行独立
引导脚本:./standalone.sh
[root@host01 bin]# ./standalone.sh
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 创建 admin 账户,https: IP_ADDRESS :8080/auth,带有一个用户名和密码:
注意只有在第一次登录到控制台时,才需要创建一个 admin 帐户。
- 使用创建的凭据登录 admin 控制台。
2.11.2. 使用 Red Hat Single Sign-On 将用户同步到 Ceph 仪表板 复制链接链接已复制到粘贴板!
您可以使用红帽单点登录(SSO)与轻量级目录访问协议(LDAP)集成来把用户同步到 Red Hat Ceph Storage 仪表板。
用户被添加到特定域中,它们可以通过 SSO 访问仪表板,而无需密码进行任何额外的要求。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 用户添加到仪表板中。请参阅 Red Hat Ceph Storage Dashboard Guide 中的 Creating users on Ceph dashboard 部分。
- 所有主机上的 root 级别访问权限。
- 为同步用户创建的 admin 帐户。请参阅 Red Hat Ceph Storage Dashboard Guide中的创建管理员帐户,以便将用户同步到 Ceph 仪表板部分。
流程
- 要创建域,点 Master 下拉菜单。在这个域中,您可以提供对用户和应用程序的访问权限。
在 Add Realm 窗口中,输入区分大小写的域名,并将参数 Enabled 设置为 ON,点 Create :
在 Realm Settings 选项卡中,设置以下参数并点 Save :
- enabled - ON
- 用户管理的访问 - ON
记录下 SAML 2.0 身份提供商元数据的链接地址,粘贴到 Client Settings 中。
在 Clients 选项卡中,点 Create :
在 Add Client 窗口中设置以下参数,点 Save :
Client ID - BASE_URL:8443/auth/saml2/metadata
示例
https://example.ceph.redhat.com:8443/auth/saml2/metadata
- 客户端协议 - saml
在 Client 窗口中,在 Settings 选项卡中设置以下参数:
Expand 表 2.2. 客户端设置标签页 参数的名称 语法 示例 客户端 ID
BASE_URL:8443/auth/saml2/metadata
https://example.ceph.redhat.com:8443/auth/saml2/metadata
Enabled
ON
ON
客户端协议
saml
saml
包括 AuthnStatement
ON
ON
签署文档
ON
ON
签名算法
RSA_SHA1
RSA_SHA1
SAML 签名密钥名称
KEY_ID
KEY_ID
有效重定向 URL
BASE_URL:8443/*
https://example.ceph.redhat.com:8443/*
基本 URL
BASE_URL:8443
https://example.ceph.redhat.com:8443/
Master SAML 处理 URL
https://localhost:8080/auth/realms/REALM_NAME/protocol/saml/descriptor
https://localhost:8080/auth/realms/Ceph_LDAP/protocol/saml/descriptor
注意从 Realm Settings 选项卡中粘贴 SAML 2.0 身份提供程序元数据的链接。
在 Fine Grain SAML Endpoint Configuration 下,设置以下参数并点 Save :
Expand 表 2.3. 精细的 SAML 配置 参数的名称 语法 Example Assertion Consumer Service POST Binding URL
BASE_URL:8443/#/dashboard
https://example.ceph.redhat.com:8443/#/dashboard
Assertion Consumer Service Redirect Binding URL
BASE_URL:8443/#/dashboard
https://example.ceph.redhat.com:8443/#/dashboard
Logout Service Redirect Binding URL
BASE_URL:8443/
https://example.ceph.redhat.com:8443/
在 Clients 窗口的 Mappers 选项卡中,设置以下参数并点 Save :
Expand 表 2.4. 客户端映射程序标签 参数的名称 Value 协议
saml
名称
username
Mapper Property
用户属性
属性
username
SAML 属性名称
username
在 Clients Scope 选项卡中,选择 role_list :
- 在 Mappers 选项卡中,选择 角色列表,将 Single Role Attribute 设置为 ON。
选择 User_Federation 选项卡:
- 在 User Federation 窗口中,从下拉菜单中选择 ldap :
在 User_Federation 窗口中,Settings 选项卡设置以下参数,然后单击保存 :
Expand 表 2.5. 用户 Federation Settings 标签页 参数的名称 Value 控制台显示名称
rh-ldap
导入用户
ON
Edit_Mode
READ_ONLY
用户名 LDAP 属性
username
RDN LDAP 属性
username
UUID LDAP 属性
nsuniqueid
用户对象类
inetOrgPerson, organizationalPerson, rhatPerson
连接 URL
示例:ldap://ldap.corp.redhat.com,点 Test Connection。您将收到 LDAP 连接成功的通知。
用户 DN
ou=users, dc=example, dc=com
绑定类型
simple
点 Test authentication。您将收到 LDAP 身份验证成功的通知。
在 Mappers 选项卡中,选择 first name 行并编辑以下参数,然后单击 Save :
- LDAP 属性 - 指定名称
在 User_Federation 选项卡,Settings 选项卡中,点 Synchronize all users:
您将收到用户同步成功完成的通知。
在 Users 选项卡中,搜索添加到仪表板中的用户并点击 Search 图标:
要查看用户,请点特定行。您应该看到联邦链接,作为提供给用户联邦的名称。
重要不要手动添加用户,因为用户不会由 LDAP 同步。如果手动添加,点 Delete 来删除用户。
注意如果 Red Hat SSO 当前正在您的工作环境中使用,请务必先启用 SSO。有关更多信息,请参阅 Red Hat Ceph Storage Dashboard Guide 中的 Enabling Single Sign-On with SAMLE 2.0 for the Ceph Dashboard 部分。
验证
用户添加到 realm,控制面板可以使用其电子邮件地址和密码访问 Ceph 仪表板。
示例
https://example.ceph.redhat.com:8443
2.11.3. 为 Ceph 仪表板启用带有 SAML 2.0 的单点登录 复制链接链接已复制到粘贴板!
Ceph 控制面板支持使用安全断言标记语言(SAML)2.0 协议进行外部身份验证。在将单点登录(SSO)与 Ceph 控制面板搭配使用之前,请创建控制面板用户帐户并分配所需的角色。Ceph 控制面板对用户执行授权,身份验证过程由现有的身份提供程序(IdP)执行。您可以使用 SAML 协议启用单点登录。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 安装 Ceph 控制面板.
- 对 Ceph Manager 主机的 root 级别访问权限。
流程
要在 Ceph Dashboard 中配置 SSO,请运行以下命令:
语法
cephadm shell CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY
cephadm shell CEPH_MGR_HOST ceph dashboard sso setup saml2 CEPH_DASHBOARD_BASE_URL IDP_METADATA IDP_USERNAME_ATTRIBUTE IDP_ENTITY_ID SP_X_509_CERT SP_PRIVATE_KEY
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
cephadm shell host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt
[root@host01 ~]# cephadm shell host01 ceph dashboard sso setup saml2 https://dashboard_hostname.ceph.redhat.com:8443 idp-metadata.xml username https://10.70.59.125:8080/auth/realms/realm_name /home/certificate.txt /home/private-key.txt
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 替换
-
CEPH_MGR_HOST 与 Ceph
mgr
主机。例如,host01
- CEPH_DASHBOARD_BASE_URL 带有可以访问 Ceph 仪表板的基本 URL。
- IDP_METADATA,包含到远程或本地路径的 URL,或 IdP 元数据 XML 的内容。支持的 URL 类型包括 http、https 和 文件。
- 可选:IDP_USERNAME_ATTRIBUTE,包含用于从身份验证响应中获取用户名的属性。默认为 uid。
- 可选 :当 IdP 元数据中存在多个实体 ID 时,使用 IdP 实体 ID 的 IDP_ENTITY_ID。
- 可选:SP_X_509_CERT,包含 Ceph Dashboard 用来签名和加密的证书文件路径。
- 可选 :SP_PRIVATE_KEY 以及 Ceph Dashboard 用来签名和加密的私钥的文件路径。
-
CEPH_MGR_HOST 与 Ceph
验证当前的 SAML 2.0 配置:
语法
cephadm shell CEPH_MGR_HOST ceph dashboard sso show saml2
cephadm shell CEPH_MGR_HOST ceph dashboard sso show saml2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
cephadm shell host01 ceph dashboard sso show saml2
[root@host01 ~]# cephadm shell host01 ceph dashboard sso show saml2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要启用 SSO,运行以下命令:
语法
cephadm shell CEPH_MGR_HOST ceph dashboard sso enable saml2 SSO is "enabled" with "SAML2" protocol.
cephadm shell CEPH_MGR_HOST ceph dashboard sso enable saml2 SSO is "enabled" with "SAML2" protocol.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
cephadm shell host01 ceph dashboard sso enable saml2
[root@host01 ~]# cephadm shell host01 ceph dashboard sso enable saml2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 打开您的仪表板 URL。
示例
https://dashboard_hostname.ceph.redhat.com:8443
https://dashboard_hostname.ceph.redhat.com:8443
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 在 SSO 页面上,输入登录凭据。SSO 会重定向到仪表板 Web 界面。
2.11.4. 使用 OAuth2 协议将 Red Hat SSO 配置为身份提供程序 复制链接链接已复制到粘贴板!
您可以通过将 Red Hat SSO 配置为身份提供程序(IdP),为 IBM Storage Ceph 控制面板启用单点登录(SSO)。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 具有对应子卷的子卷组。
-
启用 Ceph 管理网关(
mgmt-gateway
)服务。有关更多信息,请参阅启用 Ceph 管理网关。 -
启用 OAuth2 代理服务(
oauth2-proxy
)。如需更多信息,请参阅启用 OAuth2 代理服务。 - 在配置身份提供程序前,请确保配置了 oauth2 代理和身份提供程序。
流程
在 Red Hat SSO 中创建域。
- 单击 Master HEKETIdrop-down 菜单,再选择 Add Realm。
- 为域输入一个区分大小写的名称。
- 设置 Enabled HEKETIto ON ,点 Create。
配置 realm 设置。
- 进入 Realm Settings swigtab。
- 将 Enabled 设置为 ON,将 用户管理的访问权限 设置为 ON。
- 点* swigSave*。
- 复制 swigOpenID Endpoint Configuration swigURL。对于 OAuth2 Proxy 设置,请使用此配置中的 swigissuer swigendpoint。
示例
Issuer: http://<your-ip>:<port>/realms/<realm-name>
Issuer: http://<your-ip>:<port>/realms/<realm-name>
创建和配置 OIDC 客户端。
- 创建类型为 swigOpenID Connect 的客户端。
- 启用客户端身份验证和授权。
设置重定向 URL。
- 有效的重定向 URL: https://<host_name|IP_address>/oauth2/callback
- 有效的注销重定向 URL: https://<host_name|IP_address>/oauth2/sign_out
- 进入 Credentials 选项卡,并记下 wagonclient_id swigand swigclient_secret 的值。这些凭证需要配置 swigoauth2-proxywagonservice。
创建用于仪表板访问的角色。
- 导航到 Roles 选项卡。
- 创建角色并将其分配给 OIDC 客户端。
- 使用 IBM Storage Ceph 仪表板支持的角色名称。
创建用户并分配角色。
- 创建新用户。
- 定义用户凭据。
- 打开 swigRole Mappings swigtab,并将之前创建的角色分配给该用户。
为仪表板启用 SSO。
语法
ceph dashboard sso enable
ceph dashboard sso enable
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
现在,为 Ceph 管理堆栈启用了 SSO。当用户访问控制面板时,它们会被重定向到 Red Hat SSO 登录页面。身份验证成功后,会根据 Red Hat SSO 中指定的角色在所有监控堆栈(包括仪表板、Grafana 和 Prometheus)授予用户访问权限。
2.11.5. 使用 OAuth2 协议将 IBM Security Verify 配置为身份提供程序 复制链接链接已复制到粘贴板!
您可以通过将 IBM Security Verify 配置为身份提供程序(IdP)为 IBM Storage Ceph 仪表板启用单点登录(SSO)。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 安装 Ceph 控制面板.
-
启用 Ceph 管理网关(
mgmt-gateway
)服务。有关更多信息,请参阅启用 Ceph 管理网关。 -
启用 OAuth2 代理服务(
oauth2-proxy
)。如需更多信息,请参阅启用 OAuth2 代理服务。
流程
- 从 IBM Security Verify 应用程序,进入到 Applications > Application,然后点 Add An Application。
- 在 Application Type 下,选择 Custom Application,再单击 Add Application。
- 在 General 选项卡下添加公司名称。
- 导航到 Sign-on 选项卡,然后从 Sign-on Method 下拉列表中选择 Open ID Connect 1.0。
在 Application URL 部分下,输入 mgmt-gateway URL。
示例
https://<HOSTNAME/IP_OF_THE_MGMT-GATEWAY_HOST>
https://<HOSTNAME/IP_OF_THE_MGMT-GATEWAY_HOST>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 清除 PKCE 验证 复选框。
从 Redirect URIs 部分,填写重定向 URI。使用以下重定向 URL 格式:
从 Token settings 中,选择 JWT 作为访问令牌格式。对于以下每个属性,在对应字段中输入详情,然后从下拉列表中选择对应的属性源:
- 名称 | preferred_username
- 电子邮件 | 电子邮件
- 从 Consent Settings,从下拉列表中选择 Do not ask for consent。
- 在 Custom Scopes 中清除 Restrict Custom Scopes 复选框,然后点 Save。
添加用户。
- 进入 Directory > Users & Groups 并点 Add User。
- 提供所需的用户名和有效电子邮件地址。初始用户凭证发送到提供的电子邮件地址。
- 点击 Save。
进入 Directory > Attributes,再点 Add Attribute。
- 选中 Custom Attribute,然后选择 Single Sign On (SSO) 复选框。点 Next。
- 在 Attribute Name 字段中,输入 roles。
- 在 Data Type 下,从下拉列表中选择 Multivalue String。
- 点 Additional settings,从 Apply Transformation 下拉列表中选择 Lowercase,然后点 Next。
- 单击 Add Attribute。
进入 Directory > Users & Groups 并编辑新添加的用户。
- 选择 View Extended Profile。
- 从 自定义用户属性,添加所需的仪表板角色。例如,管理员、read-only、block-manager 等。此用户会自动继承仪表板角色。
- 单击 Save settings。
进入 Applications > Application,点在第 2 步中创建的自定义应用程序的 Settings 图标。
- 在 Sign-on 选项卡中,进入 *Token setting*s。
- 对于 roles 属性,在对应的字段中输入详情,然后从下拉列表中选择对应的属性源: roles | roles
- 在 Entitlements 选项卡中,添加新创建的用户并点 Save。
2.11.6. 启用 OAuth2 单点登录 复制链接链接已复制到粘贴板!
为 Ceph 控制面板启用 OAuth2 单点登录(SSO)。OAuth2 SSO 使用 oauth2-proxy 服务。
为 Red Hat Ceph Storage 8.0 启用 OAuth2 单点登录是技术预览。
红帽产品服务级别协议(SLA)不支持技术预览功能,且其功能可能并不完善,因此红帽不建议在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。如需了解更多详细信息,请参阅红帽技术预览功能的支持范围。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 安装 Ceph 控制面板.
- Ceph 管理器主机的 root 级别访问权限。
- 在 7.6.0 上带有 Red Hat Single-Sign 的 admin 帐户。如需更多信息,请参阅 使用红帽单点登录 7.6.0 创建管理员帐户。
-
启用 Ceph 管理网关(
mgmt-gateway
)服务。有关更多信息,请参阅启用 Ceph 管理网关。 -
启用 OAuth2 代理服务(
oauth2-proxy
)。如需更多信息,请参阅启用 OAuth2 代理服务。 - 您应该拥有运行 Red Hat Single-Sign-On 7.6.0 的 admin 帐户,运行 OAuth2 协议,或 IBM Security Verify with OAuth2 协议正在运行。如需更多信息,请参阅使用 OAuth2 协议将 IBM 安全验证配置为身份提供程序。
流程
启用 Ceph 控制面板 OAuth2 SSO 访问。
语法
ceph dashboard sso enable oauth2
ceph dashboard sso enable oauth2
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard sso enable oauth2 SSO is "enabled" with "oauth2" protocol.
[ceph: root@host01 /]# ceph dashboard sso enable oauth2 SSO is "enabled" with "oauth2" protocol.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 设置有效的重定向 URL。
语法
https://HOST_NAME|IP_ADDRESS/oauth2/callback
https://HOST_NAME|IP_ADDRESS/oauth2/callback
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意此 URL 必须与 OAuth2 代理服务中配置的重定向 URL 相同。
配置有效的用户角色。
注意对于管理员角色,请使用管理员或只读访问权限配置 IDP 用户。
打开您的仪表板 URL。
示例
https://<hostname/ip address of mgmt-gateway host>
https://<hostname/ip address of mgmt-gateway host>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 在 SSO 页面上,输入身份提供程序(IdP)凭据。SSO 重定向到仪表板 Web 界面。
验证
使用 cephadm shell ceph dashboard sso status
命令随时检查 SSO 状态。
示例
cephadm shell ceph dashboard sso status
[root@host01 ~]# cephadm shell ceph dashboard sso status
SSO is "enabled" with "oauth2" protocol.
2.11.7. 为 Ceph 仪表板禁用单点登录 复制链接链接已复制到粘贴板!
您可以随时为 Ceph 控制面板禁用 SAML 2.0 和 OAuth2 SSO。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 安装 Ceph 控制面板.
- 对 Ceph Manager 主机的 root 级别访问权限。
- 为 Ceph Dashboard 启用单点登录
流程
要查看 SSO 的状态,请运行以下命令:
语法
cephadm shell CEPH_MGR_HOST ceph dashboard sso status
cephadm shell CEPH_MGR_HOST ceph dashboard sso status
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
cephadm shell host01 ceph dashboard sso status
[root@host01 ~]# cephadm shell host01 ceph dashboard sso status SSO is "enabled" with "SAML2" protocol.
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要禁用 SSO,请运行以下命令:
语法
cephadm shell CEPH_MGR_HOST ceph dashboard sso disable SSO is "disabled".
cephadm shell CEPH_MGR_HOST ceph dashboard sso disable SSO is "disabled".
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
cephadm shell host01 ceph dashboard sso disable
[root@host01 ~]# cephadm shell host01 ceph dashboard sso disable
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
第 3 章 管理 Ceph 仪表板上的角色 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在仪表板上创建、编辑、克隆和删除角色。
默认情况下,有 8 个系统角色。您可以创建自定义角色,并授予这些角色的权限。这些角色可以根据要求分配给用户。
本节涵盖了以下管理任务:
3.1. Ceph 仪表板上的用户角色和权限 复制链接链接已复制到粘贴板!
用户帐户与一组角色关联,它们定义可以访问的特定仪表板功能。前往 Dashboard settings→User management 来查看用户角色和权限。
Red Hat Ceph Storage 仪表板功能或模块在安全范围内分组。安全范围是预定义的和静态。Red Hat Ceph Storage 仪表板中当前可用的安全范围是:
- CephFS :包括与 CephFS 管理相关的所有功能。
- config-opt :包含与 Ceph 配置选项管理相关的所有功能。
- dashboard-settings :允许编辑仪表板设置。
- Grafana :包括与 Grafana 代理相关的所有功能。
- Host :包括与 Hosts 菜单条目相关的所有功能。
- log :包含与 Ceph 日志管理相关的所有功能。
- manager: 包含与 Ceph 管理器管理相关的所有功能。
- monitor :包含与 Ceph 监视器管理相关的所有功能。
- NFS-ganesha :包含与 NFS-Ganesha 管理相关的所有功能。
- OSD :包含与 OSD 管理相关的所有功能。
- 池 :包含与池管理相关的所有功能。
- Prometheus :包括与 Prometheus 警报管理相关的所有功能。
- rbd-image: 包含与 RBD 镜像管理相关的所有功能。
- rbd-mirroring :包含与 RBD 镜像管理相关的所有功能。
- rgw :包含与 Ceph 对象网关(RGW)管理相关的所有功能。
角色指定了一个安全范围和一组权限之间的一组映射。有四种权限 :
- 读
- 创建
- Update(更新)
- 删除
system roles 列表包括
- administrator :允许所有安全范围的完整权限。
- block-manager :允许 RBD-image 和 RBD-mirroring 范围的完整权限。
- cephfs-manager :允许 Ceph 文件系统范围的完整权限。
- cluster-manager :允许主机、OSD、监控、管理器和 config-opt 范围的完整权限。
- ganesha-manager :允许 NFS-Ganesha 范围的完整权限。
- pool-manager :允许池范围的完整权限。
- read-only :允许所有安全范围的读取权限,但仪表板设置和 config-opt 范围除外。
- rgw-manager :允许 Ceph 对象网关范围的完整权限。
例如,您需要提供 rgw-manager
对所有 Ceph 对象网关操作的用户的访问权限。
3.2. 在 Ceph 仪表板上创建角色 复制链接链接已复制到粘贴板!
您可以在仪表板上创建自定义角色,并且这些角色可以根据其角色分配给用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
流程
- 登录到仪表板。
点 Dashboard Settings 图标,然后点 User Management。
- 在 Roles 选项卡上,单击 Create。
在 Create Role 窗口中,设置 Name,Description,并为此角色选择 Permissions,然后单击 Create Role 按钮。
在本例中,使用
ganesha-manager
和rgw-manager
角色分配的用户可以管理所有 NFS-Ganesha 网关和 Ceph 对象网关操作。- 您会收到一条通知角色已成功创建。
- 点行的 Expand/Collapse 图标,以查看提供给角色的详细信息和权限。
3.3. 编辑 Ceph 仪表板的角色 复制链接链接已复制到粘贴板!
控制面板允许您在仪表板上编辑角色。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 在仪表板上创建角色。
流程
- 登录到仪表板。
点 Dashboard Settings 图标,然后点 User Management。
- 在 Roles 选项卡上,点击您要编辑的角色。
在 Edit Role 窗口中,编辑参数,然后点 Edit Role。
- 您会收到成功更新该角色的通知。
3.4. 在 Ceph 仪表板上克隆角色 复制链接链接已复制到粘贴板!
当您想要为现有角色分配额外权限时,您可以克隆系统角色并在 Red Hat Ceph Storage 控制面板中进行编辑。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 角色在仪表板上创建。
流程
- 登录到仪表板。
点 Dashboard Settings 图标,然后点 User Management。
- 在 Roles 选项卡上,点击您要克隆的角色。
- 从 Edit 下拉菜单中选择 Clone。
在 Clone Role 对话框中,输入角色的详细信息,然后单击 Clone Role。
- 克隆角色后,您可以根据要求自定义权限。
3.5. 删除 Ceph 仪表板的角色 复制链接链接已复制到粘贴板!
您可以删除您在 Red Hat Ceph Storage 仪表板中创建的自定义角色。
您无法删除 Ceph 控制面板的系统角色。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 在仪表板上创建自定义角色。
流程
- 登录到仪表板。
单击 Dashboard Settings 图标,然后选择 User management。
- 在 Roles 选项卡上,点击您要删除的角色,然后从操作下拉菜单中选择 Delete。
- 在 Delete Role 通知中,选择 Yes, I am sure,再单击 Delete Role。
第 4 章 在 Ceph 仪表板上管理用户 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上使用特定角色创建、编辑和删除用户。基于角色的访问权限控制会根据其角色和要求向每个用户提供。
您还可以在仪表板上创建、编辑、导入、导出和删除 Ceph 客户端身份验证密钥。创建身份验证密钥后,您可以使用命令行界面(CLI)轮转密钥。密钥轮转满足当前的行业和安全合规性要求。
本节涵盖了以下管理任务:
4.1. 在 Ceph 仪表板中创建用户 复制链接链接已复制到粘贴板!
您可以根据其角色在 Red Hat Ceph Storage 仪表板中创建用户,并有足够的角色和权限。例如,如果您希望用户管理 Ceph 对象网关操作,您可以为该用户提供 rgw-manager
角色。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
Red Hat Ceph Storage 仪表板不支持更改用户密码时的任何电子邮件验证。此行为是有意设计的,因为控制面板支持单点登录(SSO),此功能可以委派给 SSO 提供程序。
流程
- 登录到仪表板。
点 Dashboard Settings 图标,然后点 User Management。
- 在 Users 选项卡中,点 Create。
在 Create User 窗口中,设置 Username 和其他参数,包括角色,然后点 Create User。
- 您收到用户创建成功的通知。
4.2. 在 Ceph 仪表板中编辑用户 复制链接链接已复制到粘贴板!
您可以编辑 Red Hat Ceph Storage 仪表板中的用户。您可以根据要求修改用户的密码和角色。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 在控制面板上创建的用户。
流程
- 登录到仪表板。
点 Dashboard Settings 图标,然后点 User Management。
- 要编辑该用户,请点行。
- 在 Users 选项卡中,从 Edit 下拉菜单中选择 Edit。
在 Edit User 窗口中,编辑 password 和角色等参数,然后点 Edit User。
注意如果要禁用任何用户对 Ceph 仪表板的访问,可以在 Edit User 窗口中取消选择 Enabled 选项。
- 您收到用户创建成功的通知。
4.3. 删除 Ceph 仪表板中的用户 复制链接链接已复制到粘贴板!
您可以删除 Ceph 仪表板中的用户。有些用户可能会从系统中删除。可以从 Ceph 控制面板删除对此类用户的访问权限。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
- 在控制面板上创建的用户。
流程
- 登录到仪表板。
点 Dashboard Settings 图标,然后点 User Management。
- 在 Users 选项卡中,点击您要删除的用户。
- 从 Edit 下拉菜单中选择 Delete。
在 Delete User notification 中,选择 Yes, I am sure 并点 Delete User。
4.4. 用户功能 复制链接链接已复制到粘贴板!
Ceph 将数据 RADOS 对象存储在池内,与使用的 Ceph 客户端无关。Ceph 用户必须有权访问给定池才能读取和写入数据,并且必须具有可执行权限才能使用 Ceph 管理的命令。通过创建用户,您可以控制他们对 Red Hat Ceph Storage 集群、池和池中数据的访问。
Ceph 具有 用户类型
的概念,即始终是 客户端
。您需要定义具有 TYPE.ID
的用户,其中 ID 是用户 ID,如 client.admin
。此用户输入是因为 Cephx 协议不仅限于客户端,也供客户端使用,如 Ceph 监控器、OSD 和元数据服务器。区分用户类型有助于区分客户端用户和其他用户。这种区别简化了访问控制、用户监控和可追溯性。
4.4.1. 功能 复制链接链接已复制到粘贴板!
Ceph 使用功能(大写)描述授予经过身份验证的用户的权限,以练习 monitor、OSD 和元数据服务器的功能。此能力根据应用程序标签来限制对池中的数据的访问、池中的命名空间或一组池。Ceph 管理用户在创建或更新用户时指定用户的功能。
您可以将功能设置为监控、管理器、OSD 和元数据服务器。
-
Ceph 监控功能包括
r
、w
和x
访问设置。它们可以通过profile NAME
从预定义的配置集应用。 -
OSD 功能包括
r
、w
、x
、class-read
和class-write
access 设置。它们可以通过profile NAME
从预定义的配置集应用。 -
Ceph 管理器功能包括
r
、w
和x
访问设置。它们可以通过profile NAME
从预定义的配置集应用。 -
对于管理员,元数据服务器(MDS)功能包括
allow *
。
Ceph 对象网关守护进程(radosgw
)是 Red Hat Ceph Storage 集群的客户端,不表示为 Ceph 存储集群守护进程类型。
4.5. 访问功能 复制链接链接已复制到粘贴板!
本节介绍可提供给 Ceph 用户或 Ceph 客户端的不同访问或实体功能,如块设备、对象存储、文件系统和原生 API。
另外,您可以在为客户端分配角色时描述功能配置文件。
allow
, 描述-
守护进程的以前访问设置。仅表示 MDS 的
rw
r
, 描述- 授予用户 读取访问权限。需要 monitor 来检索 CRUSH map。
w
, 描述- 授予用户对对象 的写入访问权限。
x
, 描述-
授予用户调用类方法的能力,即 读取和写入,以及对 monitor 执行
auth
操作。 class-read
, 描述-
授予用户调用类读取方法的能力。
x
的子集. class-write
, 描述-
授予用户调用类写入方法的能力。
x
的子集. - *,
所有
, 描述 - 授予用户对特定守护进程或 池的读取、写入 和 执行权限,以及执行 admin 命令的能力。
以下条目描述了有效的功能配置集:
配置集 osd
, 描述- 这仅适用于 Ceph Monitor。授予用户权限以 OSD 连接到其他 OSD 或 monitor。在 OSD 上延迟,使 OSD 能够处理复制心跳流量和状态报告。
配置集 mds
, 描述- 这仅适用于 Ceph Monitor。授予用户权限以 MDS 连接到其他 MDS 或 monitor。
配置集 bootstrap-osd
, 描述-
这仅适用于 Ceph Monitor。授予用户权限来引导 OSD。对部署工具(如
ceph-volume
和cephadm
)进行限制,以便在引导 OSD 时具有添加密钥的权限。 配置集 bootstrap-mds
, 描述-
这仅适用于 Ceph Monitor。授予用户引导元数据服务器的权限。对部署工具(如
cephadm
)进行限制,以便在引导元数据服务器时具有添加密钥的权限。 配置集 bootstrap-rbd
, 描述-
这仅适用于 Ceph Monitor。授予用户权限来引导 RBD 用户。对部署工具(如
cephadm
)进行限制,以便在引导 RBD 用户时具有添加密钥的权限。 配置集 bootstrap-rbd-mirror
, 描述-
这仅适用于 Ceph Monitor。授予用户引导
rbd-mirror
守护进程用户的用户权限。对部署工具(如cephadm
)进行限制,以便在引导rbd-mirror
守护进程时具有添加密钥的权限。 profile rbd
, 描述-
这适用于 Ceph Monitor、Ceph Manager 和 Ceph OSD。授予用户权限来操作 RBD 镜像。当用作 monitor 上限时,它为用户提供 RBD 客户端应用所需的最小特权;此类特权包括能够阻止其他客户端用户。当用作 OSD 上限时,它提供对指定池的读写访问权限的 RBD 客户端应用程序。Manager cap 支持可选
pool
和namespace
关键字参数。 profile rbd-mirror
, 描述-
这仅适用于 Ceph Monitor。授予用户权限来操作 RBD 镜像并检索 RBD 镜像 config-key secret。它提供了操作
rbd-mirror
守护进程所需的最少特权。 profile rbd-read-only
, 描述-
这适用于 Ceph 监控器和 Ceph OSD。授予用户对 RBD 镜像的只读权限。Manager cap 支持可选
pool
和namespace
关键字参数。 profile simple-rados-client
, 描述- 这仅适用于 Ceph Monitor。授予用户监控、OSD 和 PG 数据的只读权限。用于直接 librados 客户端应用程序使用。
profile simple-rados-client-with-blocklist
, 描述- 这仅适用于 Ceph Monitor。授予用户监控、OSD 和 PG 数据的只读权限。用于直接 librados 客户端应用程序使用。另外,还包括添加块列表条目的权限,以构建高可用性(HA)应用程序。
profile fs-client
, 描述- 这仅适用于 Ceph Monitor。授予用户对监控、OSD、PG 和 MDS 数据的只读权限。用于 CephFS 客户端。
配置集 role-definer
, 描述- 这适用于 Ceph 监控器和 Auth。授予用户 auth 子系统的所有权限、对 monitor 的只读权限,而不授予任何其他权限。对于自动化工具非常有用。警告:除非自己真正知道您要做的操作,否则不要分配此内容,因为安全状态比较显著且有很大程度。
配置集崩溃
, 描述-
这适用于 Ceph 监控器和 Ceph 管理器。授予用户对 monitor 的只读访问权限。与管理器 crash 模块一起使用,将守护进程
崩溃转储
上传到监控存储中,以便稍后进行分析。
4.6. 创建用户功能 复制链接链接已复制到粘贴板!
在 Ceph 仪表板上创建具有不同功能的基于角色的访问用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
流程
- 在仪表板导航中,前往 Administration→Ceph Users。
- 点 Create。
在 Create User 表单中,提供以下详情:
-
用户实体 :输入为
TYPE。ID.
-
Entity :可以是
mon
、mgr
、osd
或mds
。 实体功能 :输入您可以提供给用户的功能。例如,'allow *' 和
profile crash
是可分配给客户端的一些功能。注意您可以根据要求向用户添加更多实体。
-
用户实体 :输入为
点 Create User.
通知显示用户创建成功。
4.7. 编辑用户功能 复制链接链接已复制到粘贴板!
在仪表板中编辑用户或客户端的角色。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
流程
- 在仪表板导航中,前往 Administration→Ceph Users。
- 选择您要编辑的角色的用户。
- 点 Edit。
在 Edit User 表单中,根据需要编辑 实体 和实体功能。
注意您可以根据要求向用户添加更多实体。
单击 编辑用户。
通知显示用户已被成功编辑。
4.8. 导入用户功能 复制链接链接已复制到粘贴板!
在仪表板上,将用户或客户端的角色从本地主机导入到客户端。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
流程
在本地主机上创建密钥环文件:
Example
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 在仪表板导航中,前往 Administration→Ceph Users。
- 选择您要导出的角色的用户。
- 选择 Edit→Import。
- 在 Import User 表单中,单击 Choose File。
- 浏览本地主机上的文件并选择.
单击 Import User。
通知显示密钥已被成功导入。
4.9. 导出用户功能 复制链接链接已复制到粘贴板!
将用户或客户端的角色从仪表板导出到本地主机。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
流程
- 在仪表板导航中,前往 Administration→Ceph Users。
- 选择您要导出的角色的用户。
- 从操作下拉列表中选择 Export。
从 Ceph 用户导出数据 对话框,单击 Copy to Clipboard。
通知显示密钥被成功复制。
在本地系统中,创建一个密钥环文件并粘贴密钥:
Example
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 单击 Close。
4.10. 删除用户功能 复制链接链接已复制到粘贴板!
删除仪表板上的用户或客户端的角色。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 控制面板的管理员级别访问权限。
流程
- 在仪表板导航中,前往 Administration→Ceph Users。
- 选择您要删除的用户,然后从操作下拉菜单中选择 Delete。
- 在 Delete user 对话框中,选择 Yes, I am sure。
单击 Delete user。
通知显示用户已被成功删除。
第 5 章 管理 Ceph 守护进程 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上管理 Ceph 守护进程。
5.1. 守护进程操作 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 仪表板允许您启动、停止、重启和重新部署守护进程。
除了监控和管理器守护进程外,所有守护进程都支持这些操作。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 在存储集群中至少配置一个守护进程。
流程
您可以通过两种方式管理守护进程。
在 Services 页面中:
- 在仪表板导航中,前往 Administration→Services。
使用运行该操作的守护进程扩展服务。
注意行可以随时折叠。
在 Daemons 选项卡中,选择守护进程所在的行。
注意可以搜索和过滤 Daemons 表。
选择需要在守护进程上运行的操作。选项为 Start,Stop,Restart, 和 Redeploy。
图 5.1. 从服务管理守护进程
在 Hosts 页面中:
- 在仪表板导航中进入 Cluster→Hosts。
- 在 Hosts List 选项卡上,展开 host 行,再选择守护进程要对其执行操作的主机。
在主机的 Daemons 选项卡中,选择守护进程所在的行。
注意可以搜索和过滤 Daemons 表。
选择需要在守护进程上运行的操作。选项为 Start,Stop,Restart, 和 Redeploy。
图 5.2. 从主机管理守护进程
第 6 章 监控 Ceph 仪表板上的集群 复制链接链接已复制到粘贴板!
作为存储管理员,您可以使用 Red Hat Ceph Storage Dashboard 根据主机、服务、数据访问方法等来监控集群的特定方面。
本节涵盖了以下管理任务:
- 在仪表板上监控 Ceph 集群的主机。
- 在仪表板上查看和编辑 Ceph 集群的配置。
- 在仪表板上查看和编辑 Ceph 集群的管理器模块。
- 在控制面板中监控 Ceph 集群的监控器。
- 在仪表板中监控 Ceph 集群的服务。
- 监控仪表板上的 Ceph OSD。
- 监控仪表板上的 HAProxy。
- 在控制面板中,查看 Ceph 集群的 CRUSH map。
- 在仪表板上过滤 Ceph 集群的日志。
- 在仪表板上查看 Ceph 集群的集中式日志。
- 在控制面板中监控 Ceph 集群的池。
- 在仪表板中监控 Ceph 文件系统。
- 在控制面板中监控 Ceph 对象网关守护进程。
- 监控 Ceph 控制面板中的块设备镜像。
6.1. 在控制面板中监控 Ceph 集群的主机 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 中监控集群的主机。
以下是主机页面中的不同选项卡。每个标签页包含一个包含 relavent 信息的表。这些表可以按列和行搜索并自定义。
要更改列的顺序,请选择列名称并拖动以在表中放置。
要选择显示哪些列,点切换列 按钮并选择或清除列名称。
在 line selector 字段中输入要显示的行数。
- Devices
- 此选项卡有一个表,它详细说明设备 ID、设备健康状态的状态、生命周期期望、设备名称、预测创建日期以及主机上的守护进程。
- 物理磁盘
- 此选项卡有一个表,详细说明附加到所选主机的所有磁盘,以及它们的类型、大小等。它的详细信息,如设备路径、设备类型、可用、供应商、型号、大小和部署 OSD。要识别哪个磁盘位于物理设备中的位置,请选择设备并点 Identify。选择 LED 应该 blink 的时长,以查找所选磁盘。
- 守护进程
- 此选项卡有一个表,详细说明了在所选主机上部署的所有服务(它们在其中运行的容器),以及它们的当前状态。表的详情,如守护进程名称、守护进程版本、状态、守护进程上次刷新、CPU 使用量、内存用量(以 MiB 为单位)和守护进程事件。守护进程操作可以从此选项卡运行。如需了解更多详细信息,请参阅 守护进程操作。
- 性能详情
- 此选项卡具有部署 OSD 的详细信息,如 OSD 部署、CPU 使用量、网络负载、网络丢弃率和 OSD 磁盘性能统计信息。通过嵌入的 Grafana 仪表板查看性能信息。
- 设备健康状况
- 对于启用了 SMART 的设备,您只能在部署 OSD 的 OSD 上获取单个健康状态和 SMART 数据。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 主机添加到存储集群中。
- 存储集群中部署了所有服务、监控、管理器和 OSD 守护进程。
流程
- 在仪表板导航中进入 Cluster→Hosts。
- 在 Hosts List 选项卡上,展开 host 行,再选择守护进程要对其执行操作的主机。
在主机的 Daemons 选项卡中,选择守护进程所在的行。
注意可以搜索和过滤 Daemons 表。
选择需要在守护进程上运行的操作。选项为 Start,Stop,Restart, 和 Redeploy。
图 6.1. 监控 Ceph 集群的主机
6.2. 在控制面板中查看和编辑 Ceph 集群的配置 复制链接链接已复制到粘贴板!
您可以在仪表板上查看 Ceph 集群的各种配置选项。您只能编辑一些配置选项。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 所有服务都部署在存储集群中。
流程
- 在仪表板导航中,进入 Administration→Configuration。
要查看配置的详细信息,请展开行内容。
图 6.2. 配置选项
- 可选: 使用搜索字段查找配置。
可选:您可以过滤特定配置。使用以下过滤器:
- level - Basic、advanced 或 dev
- service - Any、mon、mgr、osd、mds、common、mds_client、rgw 和类似的过滤器。
- Source - Any、mon 和类似过滤器
- modified - yes 或 no
要编辑配置,请选择配置行,然后单击 Edit。
使用 Edit 表单编辑所需参数,然后点 Update。
通知显示配置已被成功更新。
6.3. 在控制面板中查看和编辑 Ceph 集群的管理器模块 复制链接链接已复制到粘贴板!
管理器模块用于管理模块特定的配置设置。例如,您可以为集群健康启用警报。
您可以在 Red Hat Ceph Storage 仪表板中查看、启用或禁用集群管理器模块。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
查看管理器模块
- 在仪表板导航中,进入 Administration→Manager Modules。
要查看特定管理器模块的详细信息,请展开行内容。
图 6.3. Manager 模块
启用管理器模块
选择行,然后从操作下拉列表中点 Enable。
禁用 manager 模块
选择行,然后从操作下拉列表中点 Disable。
编辑管理器模块
选择行:
注意不是所有模块都有可配置参数。如果模块不可配置,则 Edit 按钮被禁用。
编辑所需参数并点 Update。
通知显示该模块已被成功更新。
6.4. 在控制面板中监控 Ceph 集群的监控 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板的登录页面上监控 Ceph 监视器的性能,您也可以在 Monitor 面板中查看 monitor 的详细信息,如状态、仲裁、打开会话数和性能计数器。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 监控器部署在存储集群中。
流程
在仪表板导航中,进入 Cluster→Monitors。
Monitor 面板显示有关总体监控状态和监控处于和 out 仲裁的主机的信息。
要查看打开的会话数量,请在 In Quorum 表中将光标悬停在 Open Sessions 上。
要查看任何 monitor 的性能计数器,请点击 In Quorum 和 Not In Quorum 表中的 Name。
图 6.4. 查看监控性能计数器
6.5. 在控制面板中监控 Ceph 集群的服务 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 中监控集群的服务。您可以查看主机名、守护进程类型、守护进程 ID、容器 ID、容器镜像名称、容器镜像 ID、版本状态以及最后一次刷新的时间等详情。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 主机添加到存储集群中。
- 所有服务都部署在存储集群中。
流程
- 在仪表板导航中,前往 Administration→Services。
展开该服务以获取更多详细信息。
图 6.5. 监控 Ceph 集群的服务
6.6. 监控仪表板上的 Ceph OSD 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 的登录页面中监控 Ceph OSD 的状态。您还可以在 OSD 选项卡中查看主机、状态、设备类、放置组(PG)、大小标志、使用量以及读写操作时间等详情。
以下是 OSD 页面中的不同标签页:
- Devices - 此选项卡的详情,如设备 ID、健康状态、生命周期期望、设备名称和主机上的守护进程。
- Attributes (OSD map) - 此选项卡显示集群地址、心跳、OSD 状态和其他 OSD 属性的详细信息。
- Metadata - 此选项卡显示 OSD 对象存储、设备、操作系统和内核详细信息的详细信息。
- 设备健康状况 - 对于启用了 SMART 的设备,您可以获取单个健康状态和 SMART 数据。
- 性能计数器 - 此选项卡提供了在设备上写入的字节数的详细信息。
- 性能详细信息 - 此选项卡具有部署 OSD 的详细信息,如 OSD 部署、CPU 使用量、网络负载、网络降低率和 OSD 磁盘性能统计信息。通过嵌入的 Grafana 仪表板查看性能信息。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 主机添加到存储集群中。
- 所有服务(包括 OSD)都部署在存储集群中。
流程
- 在仪表板导航中进入 Cluster→OSDs。
要查看特定 OSD 的详细信息,请从 OSD List 选项卡中扩展 OSD 行。
图 6.6. 监控 Ceph 集群的 OSD
您可以通过单击对应的标签页来查看其他详细信息,如 Devices,Attributes (OSD map), Metadata,Device Health,Performance counter, 和 Performance Details。
6.7. 监控仪表板上的 HAProxy 复制链接链接已复制到粘贴板!
Ceph 对象网关允许您为单个区域分配多个对象网关实例,以便随着负载增加而横向扩展。由于每个对象网关实例都有自己的 IP 地址,因此您可以使用 HAProxy 在 Ceph 对象网关服务器之间平衡负载。
您可以在仪表板上监控以下 HAProxy 指标:
- HTTP 代码的总响应。
- 请求/响应总数.
- 连接总数。
- 传入/传出字节的当前总数。
您还可以通过运行 ceph dashboard get-grafana-api-url
命令获取 Grafana 详情。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 存储仪表板上的管理级别访问权限。
- 现有 Ceph 对象网关服务,没有 SSL。如果您希望 SSL 服务,则应在 ingress 服务上配置证书,而不是 Ceph 对象网关服务。
- 使用 Ceph 编排器部署的 Ingress 服务。
- 监控堆栈组件在控制面板上创建。
流程
登录到 Grafana URL 并选择 RGW_Overview 面板:
语法
https://DASHBOARD_URL:3000
https://DASHBOARD_URL:3000
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
https://dashboard_url:3000
https://dashboard_url:3000
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 验证 Grafana URL 上的 HAProxy 指标。
- 在 Ceph 仪表板导航中,进入 Object→Gateways。
在 Overall Performance 选项卡中,验证 Ceph 对象网关 HAProxy 指标。
图 6.7. HAProxy 指标
6.8. 在控制面板中查看 Ceph 集群的 CRUSH map 复制链接链接已复制到粘贴板!
您可以查看包含 OSD 列表以及 Red Hat Ceph Storage 仪表板上相关信息的 CRUSH map。CRUSH map 和 CRUSH 算法一起确定数据的保存方式和位置。控制面板允许您查看 CRUSH map 的不同方面,包括 OSD 主机、OSD 守护进程、ID 号、设备类等。
借助 CRUSH map,您可以确定哪些主机上运行一个特定的 OSD ID。如果 OSD 出现问题,这非常有用。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 存储集群中部署的 OSD 守护进程。
流程
- 从仪表板导航中,转至 Cluster→CRUSH 映射。
若要查看特定 OSD 的详细信息,请点它所在的行。
图 6.8. CRUSH 映射详细视图
6.9. 在控制面板中过滤 Ceph 集群的日志 复制链接链接已复制到粘贴板!
您可以根据以下标准,查看和过滤 Red Hat Ceph Storage 集群的日志。条件包括 Priority, Keyword, Date, 和 Time range.
您可以将日志下载到系统中,或者将日志复制到剪贴板,以进行进一步分析。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 由于 Ceph Monitor 是最近一次启动,因此已生成了日志条目。
控制面板日志记录功能仅显示三十最新高级别事件。事件通过 Ceph 监控存储在内存中。重启 monitor 后的条目会消失。如果您需要查看详细或旧的日志,请参阅基于文件的日志。
流程
- 在仪表板导航中,进入 Observability→Logs。
在 Cluster Logs 选项卡中查看集群日志。
图 6.9. 集群日志
- 使用 Priority 过滤器按 Debug、Info、Warning、Error 或 All 过滤。
- 使用 Keyword 字段输入文本,以按关键字进行搜索。
- 使用 Date picker 根据特定日期过滤。
-
使用 Time range 字段输入范围,使用 HH:MM - HH:MM 格式。小时需要是数字
0
到23
。 - 要组合过滤器,请设置两个或多个过滤器。
- 要保存日志,请使用 Download 或 Copy to Clipboard 按钮。
6.10. 在控制面板中查看 Ceph 集群的集中式日志 复制链接链接已复制到粘贴板!
Ceph 控制面板允许您查看 Red Hat Ceph Storage 集群中集中空间中所有客户端的日志,以便有效地监控。这可以通过使用 Loki 来实现,这是一个旨在存储和查询日志的日志聚合系统,以及 Promtail 是一个将本地日志内容发送到私有 Grafana Loki 实例的代理。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- Grafana 配置并在集群中登录。
流程
- 在仪表板导航中,前往 Administration→Services。
- 在 Services 中,单击 Create。
-
在 Create Service 表单中,从 Type 列表中选择
loki
。填写剩余的详细信息,然后单击 创建服务。 重复上述步骤,以创建
Promtail
服务。从 Type 列表中选择promtail
。成功创建后,在 Services 表中会显示
loki
和promtail
服务。图 6.10. 创建 Loki 和 Promtail 服务
注意默认情况下,Promtail 服务部署到所有正在运行的主机上。
启用记录到文件。
- 进入 Administration→Configuration。
-
选择
log_to_file
,然后单击 Edit。 在 Edit log_to_file 表单中,将 global 值设为
true
。图 6.11. 配置日志文件
点 Update。
显示
Updated 配置选项 log_to_file
通知,并返回到 Configuration 表。对
mon_cluster_log_to_file
重复这些步骤,将全局 值设置为true
。注意需要配置
log_to_file
和mon_cluster_log_to_file
文件。
可选 : 要查看 Ceph 对象网关 'ops_log',必须使用以下命令将
rgw_enable_ops_log
设置为true
:ceph config set client.rgw rgw_enable_ops_log true
$ ceph config set client.rgw rgw_enable_ops_log true
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要从仪表板进行此操作,请按照以下步骤执行:
- 进入 Administration → Configuration。
- 将 level 从 'basic' 更改为 'Dev'。
-
搜索
rgw_enable_ops_log
,并将值编辑为true
。 -
接下来,在 Daemon Logs 选项卡下,在
filename
字段找到日志文件,并运行查询来查看 ops 日志。
要查看集中式日志,请转至 Observability→Logs 并切换到 Daemon Logs 选项卡。使用 Log 浏览器 选择文件,然后单击 Show logs 以查看该文件中的日志。
图 6.12. 查看集中式日志
6.11. 在控制面板中监控 Ceph 集群的池 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 中查看集群中池的详情、性能详情、配置和整体性能。
池在 Ceph 存储集群分发和存储数据的方式中发挥着重要作用。如果您在不创建池的情况下部署了集群,Ceph 将使用默认池来存储数据。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建池
流程
- 在仪表板导航中,进入 Cluster→Pools。
- 查看 池列表 选项卡,其中提供了数据保护的详细信息以及池所启用的应用程序。对于所需详情,将鼠标悬停在 Usage、Read bytes 和 Write bytes 上。
展开池行以获取有关特定池的详细信息。
图 6.13. 监控池
- 有关常规信息,请转至 Overall Performance 选项卡。
6.12. 监控仪表板上的 Ceph 文件系统 复制链接链接已复制到粘贴板!
您可以使用 Red Hat Ceph Storage 控制面板监控 Ceph 文件系统(CephFS)和相关组件。
对于列出的每个文件系统,有以下标签:
- 详情
- 查看元数据服务器(MDS)及其等级以及任何备用守护进程、池及其用法,以及性能计数器。
- 目录
- 查看目录、配额和快照列表。选择一个目录来设置和取消设置最大文件和大小配额,并为特定的目录创建和删除快照。
- 子卷
- 创建、编辑和查看子卷信息。它们可以按子卷组过滤。
- 子卷组
- 创建、编辑和查看子卷组信息。
- 快照
- 创建、克隆和查看快照信息。它们可以根据子卷组和子卷进行过滤。
- 快照调度
- 启用、创建、编辑和删除快照调度。
- 客户端
- 查看和驱除 Ceph 文件系统客户端信息。
- 性能详情
- 通过嵌入的 Grafana 仪表板查看文件系统的性能。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- MDS 服务至少部署在其中一个主机上。
- 已安装 Ceph 文件系统。
流程
- 在仪表板导航中进入 File→File Systems。
- 要查看有关单个文件系统的更多信息,请展开文件系统行。
6.13. 在控制面板中监控 Ceph 对象网关守护进程 复制链接链接已复制到粘贴板!
您可以使用 Red Hat Ceph Storage 控制面板监控 Ceph 对象网关守护进程。您可以查看 Ceph 对象网关守护进程的详情、性能计数器和性能详情。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 在存储集群中至少配置一个 Ceph 对象网关守护进程。
流程
- 在仪表板导航中,进入 Object→Gateways。
- 从 Gateways List 选项卡查看单个网关的信息。
- 要查看有关单个网关的更多信息,请展开网关行。
- 如果您配置了多个 Ceph 对象网关守护进程,点 Sync Performance 选项卡并查看多站点性能计数器。
6.14. 监控 Ceph 仪表板上的块设备镜像 复制链接链接已复制到粘贴板!
您可以使用 Red Hat Ceph Storage 控制面板监控和管理块设备镜像。您可以查看镜像的详情、快照、配置详情和性能详情。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
流程
- 在仪表板导航中,进入 Block→Images。
展开镜像行以查看详细信息。
图 6.14. 监控块设备镜像
第 7 章 在 Ceph 仪表板上管理警报 复制链接链接已复制到粘贴板!
作为存储管理员,您可以查看警报详情并在 Red Hat Ceph Storage 仪表板中为它们创建静默。这包括以下预定义警报:
- CephadmDaemonFailed
- CephadmPaused
- CephadmUpgradeFailed
- CephDaemonCrash
- CephDeviceFailurePredicted
- CephDeviceFailurePredictionTooHigh
- CephDeviceFailureRelocationIncomplete
- CephFilesystemDamaged
- CephFilesystemDegraded
- CephFilesystemFailureNoStandby
- CephFilesystemInsufficientStandby
- CephFilesystemMDSRanksLow
- CephFilesystemOffline
- CephFilesystemReadOnly
- CephHealthError
- CephHealthWarning
- CephMgrModuleCrash
- CephMgrPrometheusModuleInactive
- CephMonClockSkew
- CephMonDiskspaceCritical
- CephMonDiskspaceLow
- CephMonDown
- CephMonDownQuorumAtRisk
- CephNodeDiskspaceWarning
- CephNodeInconsistentMTU
- CephNodeNetworkPacketDrops
- CephNodeNetworkPacketErrors
- CephNodeRootFilesystemFull
- CephObjectMissing
- CephOSDBackfillFull
- CephOSDDown
- CephOSDDownHigh
- CephOSDFlapping
- CephOSDFull
- CephOSDHostDown
- CephOSDInternalDiskSizeMismatch
- CephOSDNearFull
- CephOSDReadErrors
- CephOSDTimeoutsClusterNetwork
- CephOSDTimeoutsPublicNetwork
- CephOSDTooManyRepairs
- CephPGBackfillAtRisk
- CephPGImbalance
- CephPGNotDeepScrubbed
- CephPGNotScrubbed
- CephPGRecoveryAtRisk
- CephPGsDamaged
- CephPGsHighPerOSD
- CephPGsInactive
- CephPGsUnclean
- CephPGUnavilableBlockingIO
- CephPoolBackfillFull
- CephPoolFull
- CephPoolGrowthWarning
- CephPoolNearFull
- CephSlowOps
- PrometheusJobMissing
图 7.1. 预定义的警报
您还可以使用简单网络管理协议(SNMP)陷阱来监控警报。
7.1. 启用监控堆栈 复制链接链接已复制到粘贴板!
您可以使用命令行界面手动启用 Red Hat Ceph Storage 集群的监控堆栈,如 Prometheus、Alertmanager 和 Grafana。
您可以使用 Prometheus 和 Alertmanager API 来管理警报和静默。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 对所有主机的根级别访问权限。
流程
登录
cephadm
shell:示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 为监控堆栈设置 API:
指定 Alertmanager 服务器的主机和端口:
语法
ceph dashboard set-alertmanager-api-host ALERTMANAGER_API_HOST:PORT
ceph dashboard set-alertmanager-api-host ALERTMANAGER_API_HOST:PORT
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host http://10.0.0.101:9093 Option ALERTMANAGER_API_HOST updated
[ceph: root@host01 /]# ceph dashboard set-alertmanager-api-host http://10.0.0.101:9093 Option ALERTMANAGER_API_HOST updated
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 要查看配置的警报,请将 URL 配置为 Prometheus API。使用此 API 时,Ceph 控制面板 UI 会验证新静默是否与对应的警报匹配。
语法
ceph dashboard set-prometheus-api-host PROMETHEUS_API_HOST:PORT
ceph dashboard set-prometheus-api-host PROMETHEUS_API_HOST:PORT
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard set-prometheus-api-host http://10.0.0.101:9095 Option PROMETHEUS_API_HOST updated
[ceph: root@host01 /]# ceph dashboard set-prometheus-api-host http://10.0.0.101:9095 Option PROMETHEUS_API_HOST updated
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 设置主机后,刷新浏览器的仪表板窗口。
指定 Grafana 服务器的主机和端口:
语法
ceph dashboard set-grafana-api-url GRAFANA_API_URL:PORT
ceph dashboard set-grafana-api-url GRAFANA_API_URL:PORT
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard set-grafana-api-url https://10.0.0.101:3000 Option GRAFANA_API_URL updated
[ceph: root@host01 /]# ceph dashboard set-grafana-api-url https://10.0.0.101:3000 Option GRAFANA_API_URL updated
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
获取 Prometheus、Alertmanager 和 Grafana API 主机详情:
示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 可选: 如果您在 Prometheus、Alertmanager 或 Grafana 设置中使用自签名证书,请在仪表板中禁用证书验证,这样可避免拒绝由未知证书颁发机构(CA)签名的证书导致的连接,或者与主机名不匹配。
对于 Prometheus:
示例
[ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False
[ceph: root@host01 /]# ceph dashboard set-prometheus-api-ssl-verify False
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 对于 Alertmanager:
示例
[ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False
[ceph: root@host01 /]# ceph dashboard set-alertmanager-api-ssl-verify False
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 对于 Grafana:
示例
[ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False
[ceph: root@host01 /]# ceph dashboard set-grafana-api-ssl-verify False
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
获取 Prometheus、Alertmanager 和 Grafana 的自签名证书验证设置详情:
示例
[ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify
[ceph: root@host01 /]# ceph dashboard get-prometheus-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-alertmanager-api-ssl-verify [ceph: root@host01 /]# ceph dashboard get-grafana-api-ssl-verify
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 可选:如果仪表板没有反映更改,则必须禁用并启用仪表板:
示例
[ceph: root@host01 /]# ceph mgr module disable dashboard [ceph: root@host01 /]# ceph mgr module enable dashboard
[ceph: root@host01 /]# ceph mgr module disable dashboard [ceph: root@host01 /]# ceph mgr module enable dashboard
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7.2. 配置 Grafana 证书 复制链接链接已复制到粘贴板!
cephadm
使用 ceph key/value 存储中定义的证书部署 Grafana。如果没有指定证书,cephadm
会在部署 Grafana 服务的过程中生成自签名证书。
您可以使用 ceph config-key set
命令配置自定义证书。
cephadm
证书只更新单个 Grafana 实例。
由于一个已知问题,在使用多个 Grafana 实例时,请使用 update_grafana_cert.py
脚本以及 红帽客户门户网站上的 RHCS 7 升级后不使用自定义 grafana 证书 的说明。
在更改 Grafana 放置(如将守护进程移到另一主机)时,必须再次运行脚本来生成证书。
前提条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
流程
登录
cephadm
shell:示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 为 Grafana 配置自定义证书:
示例
[ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem
[ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_key -i $PWD/key.pem [ceph: root@host01 /]# ceph config-key set mgr/cephadm/grafana_crt -i $PWD/certificate.pem
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 如果已经部署了 Grafana,请运行
reconfig
以更新配置:示例
[ceph: root@host01 /]# ceph orch reconfig grafana
[ceph: root@host01 /]# ceph orch reconfig grafana
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 每次添加新证书时,请按照以下步骤执行:
创建新目录
示例
mkdir /root/internalca cd /root/internalca
[root@host01 ~]# mkdir /root/internalca [root@host01 ~]# cd /root/internalca
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 生成密钥:
示例
openssl ecparam -genkey -name secp384r1 -out $(date +%F).key
[root@host01 internalca]# openssl ecparam -genkey -name secp384r1 -out $(date +%F).key
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 查看密钥:
示例
openssl ec -text -in $(date +%F).key | less
[root@host01 internalca]# openssl ec -text -in $(date +%F).key | less
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 发出请求:
示例
umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr
[root@host01 internalca]# umask 077; openssl req -config openssl-san.cnf -new -sha256 -key $(date +%F).key -out $(date +%F).csr
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在向签名发送请求前查看请求:
示例
openssl req -text -in $(date +%F).csr | less
[root@host01 internalca]# openssl req -text -in $(date +%F).csr | less
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 作为 CA 签名:
示例
openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf
[root@host01 internalca]# openssl ca -extensions v3_req -in $(date +%F).csr -out $(date +%F).crt -extfile openssl-san.cnf
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 检查签名证书:
示例
openssl x509 -text -in $(date +%F).crt -noout | less
[root@host01 internalca]# openssl x509 -text -in $(date +%F).crt -noout | less
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7.3. 添加 Alertmanager Webhook 复制链接链接已复制到粘贴板!
您可以向现有 Alertmanager 配置添加新 webhook,以接收有关存储集群运行状况的实时警报。您必须启用传入的 webhook,以允许将消息异步到第三方应用程序中。
例如,如果一个 OSD 在 Red Hat Ceph Storage 集群中停机,您可以将 Alertmanager 配置为在 Google chat 上发送通知。
前提条件
- 正在运行的 Red Hat Ceph Storage 集群启用了监控堆栈组件。
- 在接收第三方应用程序上配置的传入 Webhook。
流程
登录
cephadm
shell:示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 将 Alertmanager 配置为使用 Webhook 进行通知:
语法
service_type: alertmanager spec: user_data: default_webhook_urls: - "_URLS_"
service_type: alertmanager spec: user_data: default_webhook_urls: - "_URLS_"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow default_webhook_urls
是添加到默认接收器webhook_configs
配置中的额外 URL 列表。示例
service_type: alertmanager spec: user_data: webhook_configs: - url: 'http:127.0.0.10:8080'
service_type: alertmanager spec: user_data: webhook_configs: - url: 'http:127.0.0.10:8080'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 更新 Alertmanager 配置:
示例
[ceph: root@host01 /]# ceph orch reconfig alertmanager
[ceph: root@host01 /]# ceph orch reconfig alertmanager
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
验证
从 Alertmanager 到 Gchat 的通知示例:
示例
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
7.4. 在 Ceph 仪表板上查看警报 复制链接链接已复制到粘贴板!
触发警报后,您可以在 Red Hat Ceph Storage 控制面板查看它。您可以编辑 Manager 模块 设置,以便在触发警报时触发邮件。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 配置了运行简单邮件传输协议(SMTP)。
- 发出的警报。
流程
- 在仪表板导航中,进入 Observability→Alerts。
- 从 Active Alerts 选项卡中查看活跃的 Prometheus 警报。
从 Alerts 选项卡中查看所有警报。
要查看警报详情,请展开警报行。
要查看警报的来源,请单击其行,然后单击 Source。
7.5. 在 Ceph 仪表板上创建静默 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中针对指定时间为警报创建静默。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 触发警报。
流程
- 在仪表板导航中,进入 Observability→Alerts。
- 在 Silences 选项卡上,单击 Create。
在 Create Silence 表单中,填写所需字段。
使用 Add matcher 添加静默要求。
图 7.2. 创建静默
点击 Create Silence。
通知显示静默创建成功,以及 Silences 表中的 Alerts Silenced 更新。
7.6. 在 Ceph 仪表板上重新创建静默 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上的静默中重新创建静默。
前提条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 触发警报。
- 为警报创建的静默。
流程
- 在仪表板导航中,进入 Observability→Alerts。
- 在 Silences 选项卡中,选择包含您要重新创建的警报的行,然后从操作下拉列表中点 Recreate。
编辑任何需要的详情,点 Recreate Silence 按钮。
通知显示表示静默被成功编辑,静默的状态现在为。
7.7. 在 Ceph 仪表板上编辑静默 复制链接链接已复制到粘贴板!
您可以编辑活跃的静默,例如在 Red Hat Ceph Storage 仪表板中扩展它处于活跃状态的时间。如果静默已到期,可以重新创建静默或为警报创建新静默。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 触发警报。
- 为警报创建的静默。
流程
- 登录到仪表板。
- 在导航菜单中点 Cluster。
- 从下拉菜单中选择 Monitoring。
- 点 Silences 选项卡。
- 要编辑静默,请点击它的行。
- 在 Edit 下拉菜单中,选择 Edit。
在 Edit Silence 窗口中,更新详情并点 Edit Silence。
图 7.3. 编辑静默
- 您会收到成功更新静默的通知。
7.8. 在 Ceph 仪表板中将静默设置为过期 复制链接链接已复制到粘贴板!
您可以使静默到期,以便在 Red Hat Ceph Storage 仪表板中不隐藏匹配的警报。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 触发警报。
- 为警报创建的静默。
流程
- 在仪表板导航中,进入 Observability→Alerts。
- 在 Silences 选项卡中,选择包含您要过期警报的行,然后从操作下拉列表中点 Expire。
在 Expire Silence 通知中,选择 Yes, I am sure 并点 Expire Silence。
通知显示,表示静默成功过期,且警报的 Status 在 Silences 表中 过期。
第 8 章 在 Ceph 仪表板上管理池 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上创建、编辑和删除池。
本节涵盖了以下管理任务:
8.1. 在 Ceph 仪表板上创建池 复制链接链接已复制到粘贴板!
当您在没有创建池的情况下部署存储集群时,Ceph 将使用默认池来存储数据。您可以在 Red Hat Ceph Storage 仪表板中创建一个池来对存储对象进行逻辑分区。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
流程
- 在仪表板导航中,进入 Cluster→Pools。
- 点 Create。
填写 Create Pool 表单。
图 8.1. 创建池
注意表单的变化基于选择。并非所有字段都是必需的。
- 设置池的名称,然后选择池类型。
-
选择 池类型,可以是
replicated
或erasure
。纠删代码称为 Erasure Coded (EC)。 -
可选:如果 PG Autoscale 处于、
off
或warn
,则选择。 - 可选:如果使用复制池类型,请设置复制的大小。
- 可选:如果使用 EC 池类型,请配置以下附加设置。
- 可选: 要查看当前所选 EC 配置集的设置,请点问号。
- 可选:点加号符号添加新 EC 配置集。
- 可选:点击铅笔图标为池选择应用程序。
- 可选:设置 CRUSH 规则(如果适用)。
- 可选:如果需要压缩,请选择 passive, aggressive, 或 force。
- 可选:设置配额。
- 可选:设置服务质量配置。
要保存更改并完成池创建,请单击 Create Pool。
通知显示池创建成功。
8.2. 在 Ceph 仪表板中编辑池 复制链接链接已复制到粘贴板!
您可以编辑 Red Hat Ceph Storage 仪表板中的池。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已创建一个池。
流程
- 在仪表板导航中,进入 Cluster→Pools。
- 要编辑池,请选择池行,再单击 Edit。
- 在 Edit Pool 表单中,编辑所需的参数。
点 Edit Pool 保存更改。
通知显示池已被成功更新。
8.3. 删除 Ceph 仪表板上的池 复制链接链接已复制到粘贴板!
您可以删除 Red Hat Ceph Storage 仪表板中的池。在 Manager 模块中,确保将 mon_allow_pool_delete
的值设为 True
。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已创建一个池。
流程
- 在仪表板导航中,进入 Administration→Configuration。
从 Configuration 表中,选择
mon_allow_pool_delete
,然后单击 Edit。注意如果需要,请清除过滤器并搜索配置。
- 从 Edit mon_allow_pool_delete 表单(在 Values 中),将所有值设置为 true。
点 Update。
通知显示配置已被成功更新。
- 进入 Cluster→Pools。
- 选择要删除的池,然后从操作下拉菜单中选择 Delete。
在 Delete Pool 对话框中,通过单击 Delete Pool 选择 Yes, I am sure. and complete。
通知显示池已被成功删除。
第 9 章 管理 Ceph 仪表板上的主机 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage Dashboard 中为主机启用或禁用维护模式。维护模式可确保关闭主机来执行维护活动,不会损害集群。
您还可以使用 Red Hat Ceph Storage Dashboard 中的 Start Drain 和 Remove 选项删除主机。
本节涵盖了以下管理任务:
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 主机、Ceph 监控和 Ceph 管理器守护进程添加到存储集群中。
9.1. 进入维护模式 复制链接链接已复制到粘贴板!
在 Red Hat Ceph Storage Dashboard 上关机之前,您可以进入主机进入维护模式。如果维护模式成功启用,则主机将会脱机,且执行维护活动的任何错误。如果维护模式失败,这表明失败的原因和在关闭主机前需要执行的操作。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 所有其他预备性检查都由 Ceph 在内部执行,并且 Ceph 内部获取任何可能的错误。
流程
- 在仪表板导航中进入 Cluster→Hosts。
选择要进入维护模式的主机,然后从操作下拉菜单中选择 Enter Maintenance。
注意如果主机包含 Ceph 对象网关(RGW)守护进程,则会显示删除 RGW 守护进程的警告可能会导致客户端丢失连接。单击 Continue 以进入维护。
注意当主机进入维护模式时,所有守护进程都会停止。通过扩展主机视图并切换到 Daemons 选项卡,检查主机守护进程的状态。
通知显示主机已被成功移到 maintance。
验证
Maintenance
标签显示在 Host 表的 Status 列中。注意如果维护模式失败,则会显示通知,指示失败的原因。
9.2. 退出维护模式 复制链接链接已复制到粘贴板!
要重启主机,您可以在 Red Hat Ceph Storage Dashboard 上移出维护模式。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 所有其他预备性检查都由 Ceph 在内部执行,并且 Ceph 内部获取任何可能的错误。
流程
- 在仪表板导航中进入 Cluster→Hosts。
选择当前处于维护模式的主机,然后从操作下拉菜单中选择 Exit Maintenance。
注意通过检查 Host 表中的 Status 列中的
Maintenance 标签来识别哪个主机处于维护状态
。通知显示主机已成功移出维护。
-
在主机上创建所需的服务。默认情况下,会部署
crash
和node-exporter
。
验证
-
Maintenance
标签已从 Host 表的 Status 列中删除。
9.3. 使用 Ceph 控制面板删除主机 复制链接链接已复制到粘贴板!
要从 Ceph 集群中删除主机,您可以在 Red Hat Ceph Storage Dashboard 中使用 Start Drain 和 Remove 选项。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 所有其他预备性检查都由 Ceph 在内部执行,并且 Ceph 内部获取任何可能的错误。
流程
- 在仪表板导航中进入 Cluster→Hosts。
选择要删除的主机,然后从操作下拉菜单中选择 Start Drain。
图 9.1. 选择 Start Drain 选项
此选项排空主机中的所有守护进程。
注意_no_schedule
标签自动应用到主机,这将阻止此主机上的守护进程部署。- 可选: 要停止主机中的守护进程排空,请从操作下拉列表中点 Stop Drain。
检查所有守护进程是否已从主机移除。
- 展开 host 行。
转至 Daemons 选项卡。
不应当列出守护进程。
重要在所有守护进程都已从集群中移除后,可以安全地从集群中删除主机。
选择要删除的主机,然后单击操作下拉菜单中的 Remove。
在 Remove Host 通知中,选择 Yes, I am sure 并点 Remove Host。
通知显示主机已被成功删除。
第 10 章 在控制面板中管理 Ceph OSD 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 控制面板中监控和管理 OSD。
Red Hat Ceph Storage 仪表板的一些功能有:
- 列出 OSD、其状态、统计信息、属性、元数据、设备运行状况、性能计数器和性能详情。
- 将 OSD 关机标记为 down,即丢失、清除、重新加权、清理、深度清理、删除和选择 profile,以调整回填活动。
- 列出与 OSD 关联的所有驱动器。
- 设置并更改 OSD 的设备类。
- 在新的驱动器和主机上部署 OSD。
先决条件
- 正在运行的 Red Hat Ceph Storage 集群
-
在 Red Hat Ceph Storage 仪表板上的
cluster-manager
访问级别
10.1. 在 Ceph 仪表板上管理 OSD 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上对 Ceph OSD 执行以下操作:
- 创建新 OSD。
- 编辑 OSD 的设备类。
- 将标记标记为 No Up,No Down,No In,或 No Out。
- 刮除和深度刮除 OSD。
- 重新加权 OSD。
- 将 OSD 标记为 Out, In, Down, 或 Lost。
- 清除 OSD。
- 销毁 OSD。
- 删除 OSD。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 主机、监控和管理器守护进程添加到存储集群中。
流程
在仪表板导航中进入 Cluster→OSDs。
创建 OSD
要创建 OSD,请从 OSD List 表中单击 Create。
图 10.1. 为 OSD 添加设备
注意确定您有可用的主机和几个可用的设备。检查 Cluster→Physical Disks 中可用的设备,并过滤 Available。
在 Create OSD 表单的 Deployment Options 部分中,选择以下选项之一:
- Cost/Capacity-optimized :集群使用所有可用的 HDD 部署。
- Throughput-optimized :最低设备用于存储数据,使用更快速的设备来存储日志/设备。
- IOPS-optmized :所有可用的 NVMe 设备都用于部署 OSD。
在 Advanced Mode 部分中,点 Add 添加主、WAL 和 DB 设备。
- 主设备 :主存储设备包含所有 OSD 数据。
- WAL 设备 : Write-Ahead-Log 设备用于 BlueStore 的内部日志,且仅在 WAL 设备比主设备快时使用。例如: NVMe 或 SSD 设备。
- DB 设备 :数据库设备用于存储 BlueStore 的内部元数据,且仅在 DB 设备比主设备更快时使用。例如: NVMe 或 SSD 设备。
- 要加密您的数据,出于安全目的,请从表单的 Features 部分中选择 Encryption。
- 单击 Preview。
在 OSD Creation Preview 对话框中,检查 OSD,再单击 Create。
通知显示 OSD 已成功创建,并且 OSD 状态从 in 和 down 变为 in 和 up。
编辑 OSD
若要编辑 OSD,请选择行,再单击 Edit。
- 从 Edit OSD 表单,编辑设备类。
单击 Edit OSD。
图 10.2. 编辑 OSD
通知显示 OSD 已成功更新。
标记 OSD 标记
- 要标记 OSD 的标志,请选择行,然后从操作下拉列表中点 Flags。
- 在单个 OSD 标记 表单中,选择所需的 OSD 标志。
点 Update。
图 10.3. 标记 OSD 标记
通知显示 OSD 标志已被成功更新。
清理 OSD
- 要清理 OSD,请选择行,然后从操作下拉列表中单击 Scrub。
在 OSD Scrub 通知中,单击 Update。
图 10.4. 清理 OSD
通知显示 OSD 的清理成功启动。
深度刮除 OSD
- 要深度清理 OSD,请选择行,然后从操作下拉列表中点 Deep Scrub。
在 OSD Deep Scrub 通知中,单击 Update。
图 10.5. 深度刮除 OSD
通知显示 OSD 的深度清理成功启动。
重新加权 OSD
- 要重新加权 OSD,请选择行,然后从操作下拉列表中点 Reweight。
- 在 Reweight OSD 表单中,输入 0 到 1 之间的值。
点 Reweight。
图 10.6. 重新加权 OSD
标记 OSD out
- 要将 OSD 标记为 out,请选择行,然后从操作下拉列表中单击 Mark Out。
在 Mark OSD out 通知中,单击 Mark Out。
图 10.7. 标记 OSD out
OSD 状态更改为 out。
将 OSD 标记为 in
- 要将 OSD 标记为 in,可选择处于 out 状态的 OSD 行,然后从操作下拉列表中点 Mark In。
在通知 中的 Mark OSD 中,单击 Mark In。
图 10.8. 将 OSD 标记为 in
OSD 状态更改为 中的。
标记 OSD 停机
- 要标记 OSD 停机,请从操作下拉列表中选择行并单击 Mark Down。
在 Mark OSD down 通知中,点 Mark Down。
图 10.9. 标记 OSD 停机
OSD 状态更改为 down。
标记 OSD lost
- 要标记 丢失的 OSD,可选择 OSD 处于 out 和 down 状态,然后从操作下拉列表中点 Mark Lost。
在 Mark OSD Lost 通知中,选择 Yes, I am sure 并点 Mark Lost。
图 10.10. 标记 OSD lost
清除 OSD
- 要清除 OSD,可选择 OSD 处于 down 状态,然后从操作下拉列表中点 Purge。
在 Purge OSD 通知中,选择 Yes, I am sure,再单击 Purge OSD。
图 10.11. 清除 OSD
所有标志都已重置,并且 OSD in 和 up 状态。
销毁 OSD
- 若要销毁 OSD,可选择 OSD 处于 down 状态,然后从操作下拉列表中选择 Destroy。
在 Destroy OSD 通知中,选择 Yes, I am sure,再单击 Destroy OSD。
图 10.12. 销毁 OSD
OSD 状态更改为已 销毁。
删除 OSD
- 若要删除 OSD,请选择 OSD,再从操作下拉列表中单击 Delete。
在 Delete OSD 通知中,选择 Yes, I am sure,再单击 Delete OSD。
注意当需要替换失败的 OSD 时,可以保留 OSD_ID。
图 10.13. 删除 OSD
10.2. 替换 Ceph 仪表板上的故障 OSD 复制链接链接已复制到粘贴板!
您可以将 Red Hat Ceph Storage 集群中的故障 OSD 替换为仪表板上访问的 cluster-manager
级别。控制面板中的这一功能的亮点之一是,在替换故障 OSD 时可以保留 OSD ID。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
-
至少需要
cluster-manager
级别访问 Ceph 控制面板。 -
至少一个 OSD 为
down
流程
在仪表板中,您可以使用以下方法识别失败的 OSD:
- 仪表板 AlertManager 弹出通知。
- 仪表板登录页面,显示 HEALTH_WARN 状态。
- 显示故障 OSD 的仪表板登录页面。
显示故障 OSD 的仪表板 OSD 列表。
在以下示例中,您可以看到其中一个 OSD 为 down,其中一个位于控制面板的登录页面上。
图 10.14. Ceph Dashboard 登录页面上的 OSD 状态
如果其中一个 OSD 停机,您也可以查看物理驱动器上的 LED blinking light。
从 Cluster→OSDs,在 OSD 列表 表中选择
out
和down
OSD。- 单击操作下拉菜单中的 Flags,在单个 OSD 标记 表单中选择 No Up,然后单击 Update。
- 从操作下拉列表中点 Delete。在 Delete OSD 通知中,选择 Preserve OSD ID for replacement 和 Yes, I am sure,再单击 Delete OSD。
- 等待 OSD 的状态变为 out 和 destroyed。
可选: 要更改整个集群的 No Up Flag,请从 集群范围的配置 菜单中选择 Flags。
- 在 集群范围的 OSD 标记 表单中,选择 No Up 并点 Update。
可选:如果 OSD 由于硬盘失败而停机,请替换物理驱动器:
- 如果驱动器支持热插拔,请将失败的驱动器替换为新驱动器。
- 如果驱动器不可热插拔并且主机包含多个 OSD,您可能需要关闭整个主机并替换物理驱动器。考虑防止集群回填。详情请参阅 Red Hat Ceph Storage Troubleshooting Guide 中的 Stopping and Starting Rebalancing 章节。
-
当驱动器出现在
/dev/
目录下时,请注意驱动器路径。 - 如果要手动添加 OSD,找到 OSD 驱动器并格式化磁盘。
如果新磁盘有数据,则 zap 磁盘:
语法
ceph orch device zap HOST_NAME PATH --force
ceph orch device zap HOST_NAME PATH --force
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Example
ceph orch device zap ceph-adm2 /dev/sdc --force
ceph orch device zap ceph-adm2 /dev/sdc --force
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- 从 Ceph 控制面板 OSD 列表,单击 Create。
在 Create OSD 表单 Advanced Mode 部分中,添加一个主设备。
- 在 主设备 对话框中,选择一个 主机名 过滤器。
从列表中选择一个设备类型。
注意您必须首先选择 Hostname,然后至少一个过滤器来添加设备。
例如,从 Hostname 列表中选择
Type
,然后选择hdd
。选择 Vendor 和 from device 列表中,选择
ATA
。图 10.15. 使用主设备过滤器
- 点击 Add。
- 在 Create OSD 表单中,单击 Preview。
在 OSD Creation Preview 对话框中,单击 Create。
通知显示 OSD 已成功创建,并且 OSD 更改处于
out
和down
状态。
选择新创建的具有 out 和 down 状态的 OSD。
- 从操作下拉列表中点 Mark In。
在通知 中的 Mark OSD 中,单击 Mark In。
OSD 状态更改为 中的。
- 从操作下拉列表中点 Flags。
- 清除 No Up selection 并点 Update。
可选: 如果您在集群范围的配置前更改了 No Up 标志,在 集群范围的配置 菜单中选择 Flags。
- 在 集群范围的 OSD 标记 表单中,清除 No Up selection 并点 Update。
验证
验证已销毁的 OSD 是否在设备上创建,并且 OSD ID 已被保留。
第 11 章 使用仪表板管理 Ceph 对象网关 复制链接链接已复制到粘贴板!
作为存储管理员,仪表板的 Ceph 对象网关功能允许您管理和监控 Ceph 对象网关。
您还可以使用控制面板创建使用安全套接字层(SSL)的 Ceph 对象网关服务。
例如,借助监控功能,您可以查看网关守护进程(如其区域名称)或 GET 和 PUT 速率的性能图形的详细信息。通过管理功能,您可以查看、创建和编辑用户和存储桶。
Ceph 对象网关功能在用户功能和 bucket 功能之间划分。
11.1. 手动将 Ceph 对象网关登录凭据添加到仪表板中 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 控制面板可以管理 Ceph 对象网关,也称为 RADOS 网关或 RGW。使用 cephadm
部署 Ceph 对象网关时,会自动配置控制面板使用的 Ceph 对象网关凭据。您也可以使用 命令行界面手动将 Ceph 对象网关凭据强制到 Ceph 控制面板。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
流程
登录到 Cephadm shell:
示例
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 手动设置凭证:
示例
[ceph: root@host01 /]# ceph dashboard set-rgw-credentials
[ceph: root@host01 /]# ceph dashboard set-rgw-credentials
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 这会为系统中的每个域创建一个 Ceph 对象网关用户,其具有 UID
dashboard
。可选:如果您在 Ceph Object Gateway
admin
API 中配置了自定义 admin 资源,则必须设置 admin 资源:语法
ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE
ceph dashboard set-rgw-api-admin-resource RGW_API_ADMIN_RESOURCE
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin Option RGW_API_ADMIN_RESOURCE updated
[ceph: root@host01 /]# ceph dashboard set-rgw-api-admin-resource admin Option RGW_API_ADMIN_RESOURCE updated
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 可选: 如果您将 HTTPS 与自签名证书搭配使用,请在仪表板中禁用证书验证以避免拒绝的连接。
如果证书由未知证书颁发机构签名,或者所使用的主机名与证书中的主机名不匹配,则拒绝的连接可能会发生。
语法
ceph dashboard set-rgw-api-ssl-verify false
ceph dashboard set-rgw-api-ssl-verify false
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例
[ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False Option RGW_API_SSL_VERIFY updated
[ceph: root@host01 /]# ceph dashboard set-rgw-api-ssl-verify False Option RGW_API_SSL_VERIFY updated
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 可选:如果对象网关需要很长时间来处理请求,并且仪表板运行超时,您可以设置超时值:
语法
ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_
ceph dashboard set-rest-requests-timeout _TIME_IN_SECONDS_
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 默认值为 45 秒。
示例
[ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240
[ceph: root@host01 /]# ceph dashboard set-rest-requests-timeout 240
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
11.2. 使用控制面板通过 SSL 创建 Ceph 对象网关服务 复制链接链接已复制到粘贴板!
安装 Red Hat Ceph Storage 集群后,您可以使用以下两种方法使用 SSL 创建 Ceph 对象网关服务:
- 使用命令行界面。
- 使用控制面板.
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 来自认证机构(CA)的 SSL 密钥。
从与网关主机名匹配的 CA 获取 SSL 证书。红帽建议从带有 subject alternate name 字段和通配符的 CA 获取证书,用于 S3-style 子域。
流程
- 在仪表板导航中,前往 Administration→Services。
- 点 Create。
填写 Create Service 表单。
- 从 Type 服务列表中选择 rgw。
-
输入
service_id
中使用的 ID。 - 选择 SSL。
点 Choose File 并上传 SSL 证书
.pem
格式。图 11.1. 创建 Ceph 对象网关服务
- 点 Create Service。
- 检查 Ceph 对象网关服务已启动且正在运行。
11.3. 在控制面板中为 Ceph 对象网关配置高可用性 复制链接链接已复制到粘贴板!
ingress
服务为 Ceph 对象网关提供高可用性端点。您可以使用 Ceph 控制面板 创建和配置入口
服务。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 至少两个 Ceph 对象网关守护进程在不同主机上运行。
- 已安装仪表板。
-
正在运行的
rgw
服务。
流程
- 在仪表板导航中,前往 Administration→Services。
- 点 Create。
-
在 Create Service 表单中,选择
ingress
服务。 选择后端服务并编辑所需的参数。
图 11.2. 创建
入口
服务点 Create Service。
通知显示
ingress
服务已被成功创建。
11.4. 在控制面板中管理 Ceph 对象网关用户 复制链接链接已复制到粘贴板!
作为存储管理员,Red Hat Ceph Storage 控制面板可以查看和管理 Ceph 对象网关用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
11.4.1. 在控制面板中创建 Ceph 对象网关用户 复制链接链接已复制到粘贴板!
在使用 CLI 设置凭据后,您可以在 Red Hat Ceph Storage 上创建 Ceph 对象网关用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
流程
- 在仪表板导航中,进入 Object→Users。
- 在 Users 选项卡中,单击 Create。
创建用户 表单,设置以下参数:
- 输入 用户 ID 和 全名。
- 如果需要,编辑存储桶的最大数量。
- 可选: 电子邮件地址
- 可选:如果用户是 Suspended 或 System 用户,则选择。
- 可选:在 S3 key 部分中,通过清除 Auto-generate 键选择设置自定义 access key 和 secret key。
- 可选:在 User quota 部分中,选择用户配额为 Enabled, sumsize, 或 has Unlimited objects。如果有有限大小,请输入最大大小。如果有有限的对象,请输入最大对象。
- 可选:在 Bucket quota 部分中,选择 bucket 配额为 Enabled、Ranoid size 或 hasRESPONSE objects。如果有有限大小,请输入最大大小。如果有有限的对象,请输入最大对象。
点 Create User.
图 11.3. 创建 Ceph 对象网关用户
通知显示用户创建成功。
11.4.2. 在控制面板中为 Ceph 对象网关用户添加角色 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板上为特定的 Ceph 对象网关用户添加角色。
先决条件
- 已安装 Ceph 对象网关。
- Ceph 对象网关登录凭据添加到控制面板中。
- Ceph 对象网关用户已创建。
流程
- 登录到仪表板。
- 在导航栏中,单击 Object Gateway。
- 单击 Roles。
- 点相关行选择用户。
- 在 Edit 下拉菜单中,选择 Create Role。
在 Create Role 窗口中,配置 角色名称、Path 和 Assume Role Policy Document。
图 11.4. 创建 Ceph 对象网关子用户
- 单击 Create Role。
11.4.3. 在控制面板中创建 Ceph 对象网关子用户 复制链接链接已复制到粘贴板!
子用户与 S3 接口用户关联。您可以在 Red Hat Ceph Storage 仪表板中为特定的 Ceph 对象网关用户创建子用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 创建对象网关用户。
流程
- 在仪表板导航中,进入 Object→Users。
- 在 Uers 选项卡上,选择一个用户,然后单击 编辑。
- 在 Edit User 表单中,单击 Create Subuser。
- 在 Create Subuser 对话框中,输入用户名并选择适当的权限。
选择 Auto-generate secret 框,然后单击 Create Subuser。
图 11.5. 创建 Ceph 对象网关子用户
注意通过选择 Auto-generate-secret,对象网关的 secret 密钥会自动生成。
在 Edit User 表单中,单击 Edit user。
通知显示用户已被成功更新。
11.4.4. 在控制面板中编辑 Ceph 对象网关用户 复制链接链接已复制到粘贴板!
在使用 CLI 设置凭据后,您可以编辑 Red Hat Ceph Storage 上的 Ceph 对象网关用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 创建了 Ceph 对象网关用户。
流程
- 在仪表板导航中,进入 Object→Users。
- 在 Users 选项卡中,选择 user 行,再单击 Edit。
在 Edit User 表单中,编辑所需的参数,再点 Edit User。
图 11.6. 编辑 Ceph 对象网关用户
通知显示用户已被成功更新。
11.4.5. 在仪表板上删除 Ceph 对象网关用户 复制链接链接已复制到粘贴板!
在使用 CLI 设置凭据后,您可以删除 Red Hat Ceph Storage 上的 Ceph 对象网关用户。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 创建了 Ceph 对象网关用户。
流程
- 在仪表板导航中,进入 Object→Users。
- 选择要删除的 Username,然后从操作下拉菜单中选择 Delete。
在 Delete user notification 中,选择 Yes, I am sure 并点 Delete User。
用户已从 Users 表中删除。
图 11.7. 删除 Ceph 对象网关用户
11.5. 在控制面板中管理 Ceph 对象网关存储桶 复制链接链接已复制到粘贴板!
作为存储管理员,Red Hat Ceph Storage 控制面板可以查看和管理 Ceph 对象网关 bucket。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 至少创建一个 Ceph 对象网关用户。
- 对象网关登录凭据添加到仪表板中。
11.5.1. 在控制面板中创建 Ceph 对象网关存储桶 复制链接链接已复制到粘贴板!
在使用 CLI 设置凭据后,您可以在 Red Hat Ceph Storage 上创建 Ceph 对象网关存储桶。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 对象网关用户已创建且不暂停。
流程
- 在仪表板导航中,进入 Object→Buckets。
点 Create。
显示 Create Bucket 表单。
- 输入 存储桶的名称。
- 选择 所有者。所有者是没有暂停的用户。
选择一个 放置目标。
重要创建后无法更改存储桶的放置目标。
可选:在 锁定 部分中,选择 Enabled 来为存储桶对象启用锁定。
重要只能在创建存储桶时启用锁定,且创建后无法更改。
- 选择 Mode,可以是 Compliance 或 Governance。
- 在 Days 字段中,选择应用于此存储桶中新对象的默认保留周期。
可选:在 Security 部分中,选择 Security to encrypt objects in the bucket。
设置 SSE-S3 的配置值。单击 Encryption information 图标,然后单击 此处。
注意使用
SSE-S3
加密类型时,Ceph 管理密码库中存储的加密密钥。- 在 Update RGW Encryption Configuration 对话框中,确保 SSE-S3 被选为 Encryption Type。
- 填写其他所需信息。
点 Submit。
图 11.8. 加密存储桶中的对象
在 Tags 部分中,单击 Add 以添加 bucket 标签。
这些标签等同于 S3 PutBucketTagging。输入标签 Key 和 tag Value 以分类您的存储存储桶。
在 Policies 部分中设置存储桶策略。
输入 Bucket 策略。根据需要,使用 策略生成器 或 策略示例 按钮来帮助创建存储桶策略。以 JSON 格式输入或修改策略。
在表单中使用以下链接来帮助创建存储桶策略。这些链接在浏览器中打开一个新标签页。
策略生成器 是 AWS 的外部工具,用于生成存储桶策略。如需更多信息,请参阅链接:https://awspolicygen.s3.amazonaws.com/policygen.html[AWS Policy Generator]。
注意您可以将策略生成器与 S3 Bucket Policy 类型一起使用,作为构建 Ceph 对象网关存储桶策略的指导行。
策略示例 会进入 AWS 文档,以及存储桶策略示例。
如需有关通过控制面板管理 bucket 策略的更多信息,请参阅 在仪表板上管理 Ceph 对象网关存储桶策略。
设置访问控制列表(ACL)授权和权限信息。
Expand 表 11.1. ACL 用户选项 权限 Bucket Object READ
Grantee 可以列出存储桶中的对象。
Grantee 可以读取对象。
写
Grantee 可以编写或删除存储桶中的对象。
N/A
FULL_CONTROL
Grantee 具有存储桶中对象的完整权限。
Grantee 可以读取和写入对象 ACL。
点 Create bucket。
通知显示存储桶已创建成功。
11.5.2. 在控制面板中编辑 Ceph 对象网关存储桶 复制链接链接已复制到粘贴板!
在使用 CLI 设置凭据后,您可以编辑 Red Hat Ceph Storage 上的 Ceph 对象网关存储桶。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 对象网关用户已创建且不暂停。
- 创建 Ceph 对象网关 bucket。
流程
- 在仪表板导航中,进入 Object>Buckets。
- 在导航栏中,单击 Object Gateway。
选择需要更新的存储桶行,然后点 Edit。Edit Bucket 显示。
可选:启用 Versioning,如果要为现有存储桶中的所有对象启用版本控制状态。
- 要启用版本控制,您必须是存储桶的所有者。
- 如果在创建存储桶的过程中启用了 锁定,则无法禁用版本控制。
- 添加到存储桶的所有对象都将接收唯一的版本 ID。
- 如果存储桶中没有设置 versioning 状态,则存储桶将没有版本控制状态。
可选:为 Multi-Factor Authentication 选择(启用删除)。多因素身份验证(MFA)确保在删除特定存储桶上的对象时,需要使用一次性密码(OTP)。为 Token Serial Number 和 Token PIN 输入一个值。
注意bucket 必须配置有版本控制和 MFA,才能通过 S3 API 进行。
- 可选:根据需要更新 标签 和策略。更新策略包括更新 Bucket 策略和 访问控制列表(ACL)授权和权限信息。有关更多信息,请参阅在仪表板上创建 Ceph 对象网关存储桶。
- 点 Edit Bucket 保存更改。通知显示存储桶已被成功更新。
11.5.3. 删除仪表板上的 Ceph 对象网关存储桶 复制链接链接已复制到粘贴板!
在使用 CLI 设置凭据后,您可以删除 Red Hat Ceph Storage 上的 Ceph 对象网关存储桶。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 对象网关用户已创建且不暂停。
- 创建 Ceph 对象网关 bucket。
流程
- 在仪表板导航中,进入 Object→Buckets。
- 选择要删除的存储桶,然后从操作下拉菜单中选择 Delete。
在 Delete Bucket notification 中,选择 Yes, I am sure 并点 Delete bucket。
图 11.9. 删除 Ceph 对象网关存储桶
11.6. 在 Ceph 仪表板上监控多站点对象网关配置 复制链接链接已复制到粘贴板!
Red Hat Ceph Storage 仪表板支持监控多站点对象网关配置中一个区域的用户和 bucket。例如,如果在主站点的区域中创建了用户和存储桶,您可以在次要站点的二级区域中监控这些用户和 bucket。
先决条件
- 至少在运行两个站点上部署的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 多站点对象网关是在主站点和从属站点上配置的。
- 主站点和次要站点的对象网关登录凭据添加到仪表板中。
- 在主站点上创建对象网关用户。
- 对象网关 bucket 在主站点创建。
流程
- 在辅助站点的仪表板导航中,进入 Object→Buckets。
在主站点中为 Object Gateway 用户创建的二级登录页面上,查看 Object Gateway bucket。
图 11.10. 多站点对象网关监控
11.7. 在控制面板中,查看每个用户的 Ceph 对象网关和每个存储桶性能计数器 复制链接链接已复制到粘贴板!
您可以在 Grafana 仪表板中为每个存储桶查看 Ceph 对象网关性能计数器。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Grafana。
- 已安装 Ceph 对象网关。
- 对象网关登录凭据添加到仪表板中。
- 对象网关用户已创建且不暂停。
为 Ceph 对象网关服务配置以下参数:
ceph config set <rgw-service> <param> <value>
# ceph config set <rgw-service> <param> <value> "rgw_bucket_counters_cache": "true" "rgw_user_counters_cache": "true"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
流程
登录到 Grafana URL。
语法
https://DASHBOARD_URL:3000
https://DASHBOARD_URL:3000
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Example
https://dashboard_url:3000
https://dashboard_url:3000
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 转至"仪表板"选项卡并搜索"RGW S3 Analytics"。
要查看每个存储桶 Ceph 对象网关操作,请选择 'Bucket' 面板:
要查看用户级 Ceph 对象网关操作,请选择"用户"面板:
per-bucket/per-user get operation count
命令的输出会增加每个从 client 运行的 'get' 操作的两个值: s3cmd。这是个已知问题。
11.8. 在控制面板中管理 Ceph 对象网关存储桶策略 复制链接链接已复制到粘贴板!
作为存储管理员,Red Hat Ceph Storage 控制面板可以查看和管理 Ceph 对象网关存储桶策略。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 至少创建一个 Ceph 对象网关用户。
- Ceph 对象网关登录凭据添加到仪表板中。
- 至少一个 Ceph 对象网关 bucket。有关创建存储桶的更多信息,请参阅 在仪表板上创建 Ceph 对象网关存储桶。
11.8.1. 在控制面板中创建和编辑 Ceph 对象网关存储桶策略 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中创建和编辑 Ceph 对象网关存储桶策略。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 至少创建一个 Ceph 对象网关用户。
- Ceph 对象网关登录凭据添加到仪表板中。
- 至少一个 Ceph 对象网关 bucket。有关创建存储桶的更多信息,请参阅 在仪表板上创建 Ceph 对象网关存储桶。
流程
- 从仪表板中,前往 Object → Buckets。
为现有存储桶创建或修改存储桶策略。
注意要在存储桶创建过程中创建存储桶策略,点 Create 并填写 Create Bucket 表单的 Policies 部分中的 bucket 策略信息。
选择创建或修改存储桶策略的存储桶,然后单击 Edit。
- 在 Create Bucket 表单中,前往 Policies。
以 JSON 格式输入或修改策略。
在表单中使用以下链接来帮助创建存储桶策略。这些链接在浏览器中打开一个新标签页。
策略生成器 是 AWS 的外部工具,用于生成存储桶策略。如需更多信息,请参阅 AWS 策略生成器。
注意您可以将策略生成器与
S3 Bucket Policy
类型一起使用,作为构建 Ceph 对象网关存储桶策略的指导行。- 策略示例 会进入 AWS 文档,以及存储桶策略示例。
要保存存储桶策略,请点击 Edit Bucket。
注意在初始存储桶创建过程中创建存储桶策略时,点 Create Bucket。
保存存储桶策略时,会显示
Updated Object Gateway bucket 'bucketname'
通知。
11.8.2. 删除仪表板上的 Ceph 对象网关存储桶策略 复制链接链接已复制到粘贴板!
您可以删除 Red Hat Ceph Storage 仪表板上的 Ceph 对象网关存储桶策略。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 已安装 Ceph 对象网关。
- 至少创建一个 Ceph 对象网关用户。
- Ceph 对象网关登录凭据添加到仪表板中。
- 至少一个 Ceph 对象网关 bucket。有关创建存储桶的更多信息,请参阅 在仪表板上创建 Ceph 对象网关存储桶。
流程
- 从仪表板中,前往 Object → Buckets。
- 选择创建或修改存储桶策略的存储桶,然后单击 Edit。
- 在 Edit Bucket 表单中,前往 Policies。
- 单击 Clear。
要完成存储桶策略删除,请点 Edit Bucket。
删除存储桶策略时,会显示
Updated Object Gateway bucket 'bucketname'
通知。
11.9. 在控制面板中管理 S3 存储桶生命周期策略 复制链接链接已复制到粘贴板!
作为存储管理员,Red Hat Ceph Storage 仪表板允许您在仪表板上查看和管理 S3 存储桶生命周期策略。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 至少创建一个 Ceph 对象网关用户。
- Ceph 对象网关登录凭据添加到仪表板中。
- 至少一个 Ceph 对象网关 bucket。有关创建存储桶的更多信息,请参阅 在仪表板上创建 Ceph 对象网关存储桶。
11.9.1. 在控制面板中应用和查看 S3 存储桶生命周期策略 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中应用和管理 S3 存储桶生命周期策略。
bucket 生命周期策略无法在创建存储桶期间应用。它们只能在创建存储桶后应用。
- 从仪表板中,前往 Object → Buckets。
- 选择需要应用生命周期策略的存储桶,然后点 Edit。
- 在 Edit Bucket 表单中,进入 Policies,并以 JSON 格式在 Lifecycle 字段中应用生命周期规则。
要保存存储桶生命周期策略,请点击 Edit Bucket。
图 11.11. 应用存储桶生命周期策略
应用存储桶生命周期策略后,可以通过扩展相关存储桶条目在存储桶列表屏幕中查看。
图 11.12. 查看存储桶生命周期策略
11.9.2. 删除仪表板上的 S3 存储桶生命周期策略 复制链接链接已复制到粘贴板!
您可以删除 Red Hat Ceph Storage 仪表板中的 S3 存储桶生命周期策略。
流程
- 从仪表板中,前往 Object → Buckets。
- 选择需要删除存储桶生命周期策略的存储桶,然后点 Edit。
- 在 Edit Bucket 表单中,前往 Policies。
- 单击 Clear。
- 要完成存储桶生命周期策略删除,请点击 Edit Bucket。
11.10. 在 Ceph 仪表板上管理多站点对象配置的存储桶 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage Dashboard 的另一个区中编辑一个区域的存储桶。但是,您可以删除主站点中的次要站点的存储桶。您不能删除其他站点中主站点的 master 区域的存储桶。例如,如果在二级站点的区域中创建存储桶,您可以在主站点的 master zone 中编辑和删除这些存储桶。
先决条件
- 至少在运行两个站点上部署的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 多站点对象网关是在主站点和从属站点上配置的。
- 主站点和次要站点的对象网关登录凭据添加到仪表板中。
- 在主站点上创建对象网关用户。
- 对象网关 bucket 在主站点创建。
-
Ceph 控制面板中至少具有
rgw-manager
的访问权限级别。
11.10.1. 监控多站点对象的存储桶 复制链接链接已复制到粘贴板!
在仪表板上监控存储桶的多站点同步状态。您可以在 Ceph Dashboard 上查看源区和来自 Object→Multi-site 的同步状态。
多站点同步状态分为两个部分:
- 主源区域
- 显示 Ceph 对象网关所连接的默认 realm、zonegroup 和区域。
- 源区
-
查看元数据同步状态和数据同步信息进度。当您点击状态时,会显示分片同步的分类。同步状态显示 Last Synced 时间戳,以及与当前时间相关的最后一次同步的相对时间。同步完成后,这显示为 Up to Date。当未捕获同步时,
状态
会显示Syncing
。但是,Last sync
显示同步没有被发现的天数。通过单击Syncing
,它会显示不同步的分片的详细信息。
11.10.2. 在 Ceph 控制面板中编辑多站点对象网关配置的存储桶 复制链接链接已复制到粘贴板!
您可以在多站点对象网关配置中,在 Red Hat Ceph Storage Dashboard 的另一个区域中编辑和更新一个区域的存储桶详情。您可以使用控制面板的此功能编辑存储桶的所有者、版本、多因素身份验证和锁定功能。
先决条件
- 至少在运行两个站点上部署的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 多站点对象网关是在主站点和从属站点上配置的。
- 主站点和次要站点的对象网关登录凭据添加到仪表板中。
- 在主站点上创建对象网关用户。
- 对象网关 bucket 在主站点创建。
-
Ceph 控制面板中至少具有
rgw-manager
的访问权限级别。
流程
在辅助站点的仪表板导航中,进入 Object→Buckets。
此时会显示主站点的 Object Gateway bucket。
- 选择您要编辑的存储桶,然后从操作下拉列表中点 Edit。
在 Edit Bucket 表单中,编辑所需的 prameters,然后点 Edit Bucket。
此时会显示成功更新存储桶的通知。
图 11.13. 在多站点中编辑存储桶
11.10.3. 在 Ceph 控制面板中删除多站点对象网关配置的存储桶 复制链接链接已复制到粘贴板!
您可以在多站点对象网关配置中,在 Red Hat Ceph Storage Dashboard 的主站点中删除二级站点的存储桶。
红帽不推荐从二级站点中删除主站点的存储桶。
先决条件
- 至少在运行两个站点上部署的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 多站点对象网关是在主站点和从属站点上配置的。
- 主站点和次要站点的对象网关登录凭据添加到仪表板中。
- 对象网关用户在主站点上创建。
- 对象网关存储桶在主站点上创建。
-
Ceph 控制面板中至少具有
rgw-manager
的访问权限级别。
流程
- 在主站点的仪表板导航中,进入 Object→Buckets。
- 选择要删除的二级站点的存储桶,然后从操作下拉列表中点 Delete。
在 Delete Bucket notification 中,选择 Yes, I am sure 并点 Delete bucket。
bucket 从 Buckets 表中删除。
11.11. 在 Ceph 仪表板上配置多站点对象网关 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上配置 Ceph 对象网关多站点。
先决条件
- 在两个站点上部署的 Red Hat Ceph Storage 集群。
- 至少一个 Ceph 对象网关服务在两个站点安装。
流程
启用 Ceph 对象网关模块,以便在主站点和次要站点上导入/导出。
- 在二级站点的仪表板导航中,进入 Object→Multi-site。
- 若要访问导入/导出功能,必须启用 rgw 模块 注释,单击 Enable。
在主站点仪表板上,创建一个默认域、zonegroup 和 zone。
- 单击 Create Realm。
- 在 Create Realm 表单中,提供一个 realm 名称,然后选择 Default。
- 单击 Create Realm。
- 从操作下拉列表中点 Create Zone Group。
- 在 Create Zone Group 表单中,提供 zone group name、Ceph Object Gateway 端点,然后选择 Default。
- 单击 Create Zone Group。
- 从操作下拉列表中点 Create Zone。
在 Create Zone 表单中,提供 Zone Name,选择 Default,并提供主站点的 Ceph 对象网关端点。对于用户,提供具有系统特权的用户的访问和 secret 密钥。
注意在创建区域时,红帽建议为仪表板默认用户提供访问密钥和 secret 密钥,即
仪表板
。单击 Create Zone。
此时会显示警告,以重新启动 Ceph 对象网关服务,以完成区域创建。
重新启动 Ceph 对象网关服务。
- 在辅助站点的仪表板导航中,前往 Administration→Services。
- 选择 Ceph 对象网关服务行,再展开行。
- 在 Daemons 选项卡中选择主机名。
- 从操作下拉列表中点 Restart。
在仪表板中,在 Object→Overview 中,您会收到 "The Object Gateway Service is not configured" 的错误。这个程序错误是一个已知问题。请参阅 BZ#2231072。
作为临时解决方案,请在命令行界面上设置 Ceph 对象网关凭据。
语法
ceph dashboard set-rgw-credentials RGW credentials configured
ceph dashboard set-rgw-credentials RGW credentials configured
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 进入 Object→Overview,验证您是否能够访问仪表板上的 Ceph 对象网关。
在主站点上创建复制用户。您可以使用以下两个选项:
使用 CLI 创建用户:
Example
[ceph: root@host01 /]# radosgw-admin user create --uid="uid" --display-name="displayname" --system
[ceph: root@host01 /]# radosgw-admin user create --uid="uid" --display-name="displayname" --system
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 从仪表板创建用户,并通过 CLI 修改用户:
Example
[ceph: root@host01 /]# radosgw-admin user modify --uid="uid" --system
[ceph: root@host01 /]# radosgw-admin user modify --uid="uid" --system
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- 在仪表板导航中,进入 Object→Users。
展开用户行并从 Keys 中,单击 Show。
使用 Copy to Clipboard 复制访问和 secret 密钥。
后续步骤中会用到它们。
从主站点仪表板中,前往 Object→Multi-site。
- 在 Topology Viewer 中,选择区域并点 Edit 图标。
- 在 Edit Zone 表单中,粘贴 S3 access key 字段中的访问密钥,以及 S3 secret key 字段中的 secret 密钥。使用之前复制的密钥。
- 单击 Edit Zone。
单击 Export。
- 在 Export Multi-site Realm Token 对话框中复制令牌。
- 从第二个站点,前往 Object→Multi-site。
单击 Import,从主区域 导入 令牌。
- 在 Import Multi-site Token 对话框中,在 Zone 部分中粘贴之前复制的令牌,并提供 second zone 名称。
- 在 Service 部分中,选择要创建新 Ceph 对象网关服务的放置和端口。
点 Import。
此时会显示一个警告,以重新启动 Ceph 对象网关服务。
重新启动 Ceph 对象网关服务。
- 在辅助站点的仪表板导航中,前往 Administration→Services。
- 选择 Ceph 对象网关服务行,再展开行。
- 在 Daemons 选项卡中选择主机名。
从操作下拉列表中点 Restart。
等待用户同步到次要站点。
使用以下命令验证同步是否已完成:
语法
radosgw-admin sync status radosgw-admin user list
radosgw-admin sync status radosgw-admin user list
Copy to Clipboard Copied! Toggle word wrap Toggle overflow Example
[ceph: root@host01 /]# radosgw-admin sync status [ceph: root@host01 /]# radosgw-admin user list
[ceph: root@host01 /]# radosgw-admin sync status [ceph: root@host01 /]# radosgw-admin user list
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 在 Object→Overview 中,您会收到 "The Object Gateway Service is not configured" 的错误。这个程序错误是一个已知问题。请参阅 BZ#2231072。
作为临时解决方案,请在命令行界面上设置 Ceph 对象网关凭据。
语法
ceph dashboard set-rgw-credentials RGW credentials configured
ceph dashboard set-rgw-credentials RGW credentials configured
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 进入 Object→Overview,验证您是否能够访问仪表板上的 Ceph 对象网关。
在主站点的 Object→Overview 中,在 Multi-Site Sync Status 部分中会显示一个错误,因为在二级区上可以看到端点,主机名不是 IP 地址。这个程序错误是配置多站点时的一个已知问题。请参阅 BZ#2242994。
- 作为临时解决方案,从二级站点仪表板中进入 Object→Multi-site。
- 选择 second zone 并单击 Edit 图标。
- 编辑端点以反映 IP 地址。
- 单击 Edit Zone。
在主站点和次要站点仪表板中,来自 Object→Overview,在 Multi-Site Sync Status 部分中会显示状态。
验证
- 在主站点上创建用户。您会看到用户同步到次要站点。
第 12 章 使用 Ceph 仪表板管理文件系统 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中创建、编辑、删除和管理文件系统访问。
12.1. 配置 CephFS 卷 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中配置 Ceph 文件系统(CephFS)卷。
12.1.1. 创建 CephFS 卷 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中创建 Ceph 文件系统(CephFS)卷。
先决条件
- 部署的 MDS 正常工作的 Red Hat Ceph Storage 集群。
流程
- 在仪表板导航中进入 File > File Systems。
- 点 Create。
在 Create Volume 窗口中设置以下参数:
- name :设置卷的名称。
- Placement (可选):选择卷的放置。您可以将它设置为 Hosts 或 Label。
hosts/Label (可选):如果将放置选为上一个选项中的主机,则从列表中选择适当的主机。如果在上一个选项中将放置选为 Label,则输入标签。
[重要信息]:要识别为主机创建的标签,同时将其用作放置,您可以通过 CLI 运行以下命令:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
点创建卷。
- 通知显示卷创建成功。
12.1.2. 编辑 CephFS 卷 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中编辑 Ceph 文件系统(CephFS)卷。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
流程
- 在仪表板导航中进入 File > File Systems。
- 从列出的卷中,选择要编辑的卷,再单击 Edit。
在 Edit File System 窗口中,根据需要重命名卷,然后点 Edit File System。
通知显示该卷已被成功编辑。
12.1.3. 删除 CephFS 卷 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中删除 Ceph 文件系统(CephFS)卷。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
流程
- 在仪表板导航中进入 File > File Systems。
- 从列出的卷中,选择要删除的卷,然后从操作下拉菜单中选择 Remove。
在 Remove File System 窗口中,选择 Yes, I am sure 并点 Remove File System。
通知显示卷已被成功删除。
12.2. 配置 CephFS 子卷组 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上配置 Ceph 文件系统(CephFS)子卷组。
12.2.1. 创建 CephFS 子卷组 复制链接链接已复制到粘贴板!
您可以创建子卷组,以便在仪表板上创建子卷。您还可以使用子卷组在一组子卷中应用策略。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
流程
- 在仪表板导航中进入 File > File Systems。
- 在列出的卷中,选择要创建子卷所在的行并展开行。
- 在 Subvolume groups 选项卡中,单击 'Create' 以创建子卷组。
在 Create Subvolume 组 窗口中,输入以下参数:
- name :设置子卷组的名称。
- 卷名称 :验证是否选择了卷的正确名称。
- 大小 :设置子卷组的大小。如果留空或输入 0,则默认大小将设置为无限。
- 池 :设置子卷组的池。默认情况下,选择父目录的 data_pool_layout。
- UID :设置子卷组的 UID。
- GID :设置子卷组的 GID。
- 模式 :为目录设置权限。默认情况下,模式为 755,即 rwxr-xr-x。
单击 Create Subvolume 组。
通知显示子卷组创建成功。
12.2.2. 编辑 CephFS 子卷组 复制链接链接已复制到粘贴板!
您可以在仪表板上编辑子卷组。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
流程
- 在仪表板导航中进入 File > File Systems。
- 在列出的卷中,选择要编辑子卷所在的行并展开行。
- 在 Subvolume groups 选项卡中,选择包含您要编辑的组的行。
- 点 Edit 以编辑子卷组。
在 Edit Subvolume 组 窗口中,编辑所需参数,再单击 Edit Subvolume 组。
通知显示子卷组被成功编辑。
12.2.3. 删除 CephFS 子卷组 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中删除 Ceph 文件系统(CephFS)子卷组。
在删除子卷组前,请确保删除子卷组中的子卷。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
流程
- 在仪表板导航中进入 File > File Systems。
- 在列出的卷中,选择要删除子卷所在的行并展开行。
- 在 Subvolume groups 选项卡下,选择您要删除的子卷组,然后单击 Remove from the action 下拉菜单。
在 Remove Subvolume 组 窗口中,选择 'Yes, I am sure',然后单击 Remove Subvolume 组。
通知显示子卷组已被成功删除。
12.3. 配置 CephFS 子卷 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上配置 Ceph 文件系统(CephFS)子卷。
12.3.1. 创建 CephFS 子卷 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中创建 Ceph 文件系统(CephFS)子卷。
在删除子卷组前,请确保删除子卷组中的子卷。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
流程
- 在仪表板导航中进入 File > File Systems。
- 从列出的卷中,选择行。
在 Subvolume 选项卡下,选择要在其中创建子卷的 Subvolume 组。
注意如果选择 Default 选项,则不在任何子卷组下创建子卷。
- 点 Create 创建子卷。
在 Create Subvolume 窗口中,输入以下参数:
- name :设置子卷组的名称。
- 子卷名称 :设置卷的名称。
- size :设置子卷组的大小。如果留空或输入 0,则默认大小将设置为无限。
- pool :设置子卷组的池。默认情况下,选择父目录的 data_pool_layout。
- uid :设置子卷组的 UID。
- GID :设置子卷组的 GID。
- mode :为目录设置权限。默认情况下,模式为 755,即 rwxr-xr-x。
- isolated Namespace:如果要在单独的 RADOS 命名空间中创建子卷,请选择这个选项。
单击 Create Subvolume。
此时会显示成功创建子卷的通知。
12.3.2. 编辑 CephFS 子卷 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板上编辑 Ceph 文件系统(CephFS)子卷。
您只能在仪表板上编辑子卷的大小。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
- 已创建子卷。
流程
- 在仪表板导航中进入 File > File Systems。
- 从列出的卷中,选择行。
- 在 Subvolume 选项卡下,选择您要编辑的子卷,然后点击卷中的 Edit。
- 点 Create 创建子卷。
在 Edit Subvolume 窗口中,输入以下参数:
- name :设置子卷组的名称。
- 子卷名称 :设置卷的名称。
- 大小 :设置子卷组的大小。如果留空或输入 0,则默认大小将设置为无限。
- 池 :设置子卷组的池。默认情况下,选择父目录的 data_pool_layout。
- UID :设置子卷组的 UID。
- GID :设置子卷组的 GID。
- 模式 :为目录设置权限。默认情况下,模式为 755,即 rwxr-xr-x。
单击 Edit Subvolume。
此时会显示成功创建子卷的通知。
12.3.3. 删除 CephFS 子卷 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中删除 Ceph 文件系统(CephFS)子卷。
先决条件
- 部署的 Ceph 文件系统正常工作的 Red Hat Ceph Storage 存储群集。
- 已创建子卷。
流程
- 在仪表板导航中进入 File > File Systems。
- 从列出的卷中,选择行。
- 导航到 Subvolume 选项卡,选择您要删除的子卷,然后单击 Remove。
在 Remove Subvolume 窗口中,确认您要删除所选子卷,然后单击 Remove Subvolume。
此时会显示成功删除子卷的通知。
12.4. 管理 CephFS 快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上监控 Ceph 文件系统(CephFS)卷和子卷快照。
Ceph 文件系统(CephFS)快照创建 Ceph 文件系统的不可变时点视图。CephFS 快照是异步的,并保存在 CephFS 目录中一个名为 .snap 的特殊隐藏目录中。您可以为 Ceph 文件系统中的任何目录指定快照创建。在指定目录时,快照还包含其下的所有子目录。
CephFS 快照功能在新的 Ceph 文件系统上默认启用,但必须在现有 Ceph 文件系统上手动启用。
每个 Ceph 元数据服务器(MDS)集群独立分配 snap 标识符。对共享一个池的多个 Ceph 文件系统使用快照会导致快照冲突,并导致缺少文件数据。
12.4.1. 创建 CephFS 子卷快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上创建 Ceph 文件系统(CephFS)子卷快照。您可以通过创建快照来创建 Ceph 文件系统(CephFS)的不可变、时间点视图。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 具有对应子卷的子卷组。
流程
- 登录控制面板。
- 在仪表板导航菜单中点 File > File Systems。
选择您要创建 subvolune 快照的 CephFS。
如果没有文件系统可用,请创建新文件系统。
- 转至 快照选项卡。有三个列: 组 、subvolumes 和 Create。
- 在 Groups 和 Subvolumes 列中,选择您要创建快照的组和子卷。
在第三列中,单击 Create。Create snapshot 表单将打开。
- 名称 :已添加快照的默认名称(日期和时间)。您可以编辑此名称并添加新名称。
- 卷名称 :卷名称是文件系统名称。它已根据您的选择添加到表单中。
- 子卷组 :已根据您的选择添加了子卷组名称。或者,您可以从下拉列表中选择不同的子卷组。
- 子卷 :子卷名称已根据您的选择添加。或者,您可以从下拉列表中选择不同的子卷。
点 Create Snapshot。
此时会显示成功创建快照的通知。
验证
- 进入到 Snapshots 选项卡,选择创建快照的子卷和 subvoume 组。
12.4.2. 删除 CephFS 子卷快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上创建 Ceph 文件系统(CephFS)子卷快照。您可以通过创建快照来创建 Ceph 文件系统(CephFS)的不可变、时间点视图。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 具有对应子卷的子卷组。
流程
- 登录控制面板。
- 在仪表板导航菜单中点 File > File Systems。
- 选择您要删除子卷快照的 CephFS。
- 转至 快照选项卡。
- 选择您要删除的快照。您可以通过选择创建快照的子卷组和 subvoume 来列出快照。
- 选中"是"框,我确定要确认要删除快照。
单击 Delete Snapshot。
此时会显示成功删除快照的通知。
12.4.3. 克隆 CephFS 子卷快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上克隆 Ceph 文件系统(CephFS)子卷快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 子卷快照。
流程
- 登录控制面板。
- 在仪表板导航菜单中点 File > File Systems。
- 选择您要克隆子卷快照的 CephFS。
- 转至 快照选项卡。
- 选择您要克隆的快照。您可以通过选择创建快照的子卷组和 subvoume 来列出快照。选中"是"框,我确定要确认要删除快照。
- 点 Delete 按钮旁边的箭头。
单击 Clone,再配置以下内容:
- 名称 :已添加了默认名称(创建克隆的日期和时间)。您可以更改此名称并添加新名称。
- 组名 :已根据您的选择添加子卷组名称。或者,您可以从下拉列表中选择不同的子卷组。
点 Create Clone。
此时会显示成功创建克隆的通知。
- 您可以通过转至 Subvolume 列中的 Snapshots 选项卡来验证克隆是否已创建。选择为其创建克隆的子组。
12.4.4. 创建 CephFS 卷快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 IBM Storage Ceph 仪表板上创建 Ceph 文件系统(CephFS)卷快照。您可以通过创建快照来创建 Ceph 文件系统(CephFS)卷的不可变、时间点视图。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 具有对应子卷的子卷组。
流程
- 登录控制面板。
- 在仪表板导航菜单中点 File > File Systems。
选择您要创建子卷快照的 CephFS。
如果没有文件系统可用,请创建新文件系统。
- 转至目录选项卡。
- 从子卷和卷的列表中,选择要创建快照的卷。
在 Snapshot 行中点 Create。Create Snapshot 表单将打开。
- 名称 :已添加快照的默认名称(日期和时间)。您可以编辑此名称并添加新名称。
点 Create Snapshot。
此时会显示成功创建快照的通知。
- 您可以验证快照是否从 目录 选项卡中的 Snapshots 行创建
12.4.5. 删除 CephFS 卷快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中删除 Ceph 文件系统(CephFS)卷快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 卷快照。
流程
- 登录控制面板。
- 在仪表板导航菜单中点 File > File Systems。
- 选择您要删除子卷快照的 CephFS。
- 转至 目录 选项卡。
- 选择您要删除的快照。您可以在 Snapshot 行中看到快照列表。
- 点 'Delete'。
- 选中 Yes, I am sure to delete the snapshot。
单击 Delete CephFS Snapshot。
此时会显示成功删除快照的通知。
12.5. 调度 CephFS 快照 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中调度 Ceph 文件系统(CephFS)快照。
调度 Ceph 文件系统(CephFS)快照可以定期确保一致的可靠备份,从而减少数据丢失的风险。调度快照还可以通过减少手动管理备份的管理开销来简化管理。
有关特定文件系统、子卷或目录的可用快照列表,请参阅 File > File Systems 页面。使用快照列表创建调度的备份。
12.5.1. 创建 CephFS 快照调度 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板上创建 Ceph 文件系统(CephFS)快照调度。
创建策略来自动创建卷或特定目录的 Ceph 文件系统(CephFS)快照。您还可以定义您要调度它的频率(例如:每小时、每天、每天、每周等)
您可以指定快照数量或您要保留快照的时间段。当快照数量超过或保留周期超过时,所有旧的快照都会被删除
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
流程
在仪表板导航中进入 File > File Systems。
列出文件系统卷。选择您要创建快照调度的文件系统。
前往 Snapshot schedules 选项卡。
注意只有集群中禁用了
snapshot_scheduler
时,才会使用 Enable。可选:单击 Enable 来启用snapshot_scheduler
模块。启用调度程序后,等待仪表板重新加载并返回 Snapshot 计划页面。点 'Create'。+ Create Snapshot 调度 表单将打开。
输入目录名称、开始日期、开始时间和调度。
- 目录 :您可以通过键入目录或子卷的路径来搜索,然后从您要创建快照调度的建议列表中选择目录。
- 开始日期 :输入您希望调度程序开始创建快照的日期。默认情况下会选择当前的日期。
- 开始时间 :输入您希望调度程序开始创建快照的时间。默认情况下,会添加当前时间。
- 调度 :输入快照数量以及您要创建快照的频率。频率可以是每小时、每天、每周、每月、每年或最后一个快照。
- 可选:如果要将保留策略添加到调度中,点 Add retention policy。您可以添加多个保留策略。输入快照数量以及您要保留快照的频率。频率可以是每小时、每天、每周、每月、每年或最后一个快照。
单击 Create snapshot schedule。
此时会显示成功创建快照调度的通知。
12.5.2. 编辑 CephFS 快照调度 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 IBM Storage Ceph 仪表板上编辑 Ceph 文件系统(CephFS)快照调度。您只能编辑快照调度的保留策略。您可以添加另一个保留策略或删除现有的策略。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
流程
- 在仪表板导航中进入 File > File Systems。
- 选择您要编辑快照调度的 CephFS,再单击 Snapshot schedule。
- 选择您要编辑的快照调度。
- 点 'Edit'。此时会出现 Edit Snapshot schedule 对话框。
可选:在 Edit Snapshot schedule 对话框中,选择 Add retention policy 来添加调度保留策略。
输入快照数量以及您要保留快照的频率。频率可以是以下之一。每周或最后一个快照。例如,将快照数量输入为 10,然后选择"latest 快照"来保留最后 10 个快照,而不考虑创建它们的频率。每日 ..每小时 .每月 ..yearly
单击"编辑快照调度"以保存。
此时会显示成功创建保留策略的通知。
点 trash 图标删除现有保留策略。
此时会显示一个通知,表示已成功删除保留策略。
12.5.3. 删除 CephFS 快照调度 复制链接链接已复制到粘贴板!
作为存储管理员,您可以删除 IBM Storage Ceph 仪表板上的 Ceph 文件系统(CephFS)快照调度。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 快照计划。
流程
- 在仪表板导航中进入 File > File Systems。
- 选择您要编辑快照调度的 CephFS。
- 点 'Snapshot schedule'。
- 选择您要删除的快照调度。
- 从下拉菜单中选择"编辑"
点 'Delete'。
此时会出现 Delete Snapshot schedule 对话框。
- 选择 Yes,我确定要 确认是否要删除计划。
点 'Delete' 快照调度。
此时会显示成功删除快照调度的通知。
12.5.4. 停用和激活 CephFS 快照调度 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 IBM Storage Ceph 仪表板上停用和激活 Ceph 文件系统(CephFS)快照调度。快照调度默认是激活的,并根据其配置方式运行。停用从调度中排除快照,直到它再次激活为止。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 快照计划。
流程
- 在仪表板导航中进入 File > File Systems。
- 选择您要编辑快照调度的 CephFS。
- 点 'Snapshot schedule'。
- 选择您要取消激活的快照调度,并从操作下拉列表中点击 'Deactivate'。
- 选择 Yes, I am sure 确认是否要取消激活计划。
点 'Deactivate snapshot schedule'。
此时会显示成功取消激活快照调度的通知。
- 您可以在操作下拉列表中点 'Activate' 来激活快照调度。
第 13 章 使用 Ceph 仪表板管理块设备 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage 仪表板中管理和监控块设备镜像。该功能在通用镜像功能和镜像功能之间划分。例如,您可以创建新镜像,查看集群中镜像的镜像状态,以及设置镜像的 IOPS 限制。
13.1. 在 Ceph 仪表板上管理块设备镜像 复制链接链接已复制到粘贴板!
作为存储管理员,您可以使用 Red Hat Ceph Storage 仪表板创建、编辑、复制、清除和删除镜像。
您还可以使用 Ceph 控制面板创建、克隆、复制、回滚和删除镜像的快照。
块设备镜像表被分页,用于 10000+ 镜像存储集群,以减少块设备镜像成本。
13.1.1. 在 Ceph 仪表板上创建镜像 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中创建块设备镜像。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,单击 Create。
- 完成 Create Images 表单。
可选:点 Advanced 设置高级参数,如 条带化 和服务质量。
图 13.1. 创建块设备镜像
点 Create Image。
通知显示镜像创建成功。
13.1.2. 在 Ceph 仪表板上创建命名空间 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中为块设备镜像创建命名空间。
创建命名空间后,您可以为这些命名空间授予用户访问权限。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Namespaces 选项卡中,点 Create。
- 在 Create Namespace 对话框中,选择池并为命名空间输入一个名称。
点 Create。
通知显示命名空间创建成功。
图 13.2. 创建命名空间
13.1.3. 在 Ceph 仪表板上编辑镜像 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板上编辑块设备镜像。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
流程
- 在仪表板导航中,进入 Block→Images。
- 从需要编辑的镜像的菜单中,转至 Edit。
在 Edit Image 表单中,编辑所需的参数,再单击 Edit Image。
通知显示镜像已被成功更新。
图 13.3. 编辑镜像
13.1.4. 在 Ceph 仪表板上复制镜像 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage 仪表板中复制块设备镜像。
先决条件
在开始前,请确保您有以下先决条件:
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,从您要复制的镜像的菜单中点 Copy。
在 Copy Image 表单中,设置所需的参数,再单击 Copy Image。
通知显示镜像被成功复制。
图 13.4. 复制块设备镜像
13.1.5. 将镜像移到 Ceph 控制面板的垃圾箱 复制链接链接已复制到粘贴板!
您可以将块设备镜像移到回收站,然后才能在 Red Hat Ceph Storage 仪表板中删除。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,选择要移到垃圾箱的镜像,然后从镜像菜单中单击 Move to Trash。
在 Move a images to trash 对话框中,更改 Protection expires at 字段,然后单击 Move。
通知显示镜像被成功移到回收站中。
图 13.5. 将镜像移动到回收站
13.1.6. 在 Ceph 仪表板上清除垃圾箱 复制链接链接已复制到粘贴板!
您可以使用 Red Hat Ceph Storage 控制面板清除垃圾箱。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 镜像被回收。
流程
- 在仪表板导航中,进入 Block→Images。
在 Trash 选项卡中,单击 Purge Trash。
重要要能够恢复镜像,请确保在移至回收站前设置了到期日期。
在 Purge Trash 对话框中,选择池,然后单击 Purge Trash。
通知显示回收站中的池被成功清除。
图 13.6. 清除垃圾箱
13.1.7. 在 Ceph 仪表板中从回收中恢复镜像 复制链接链接已复制到粘贴板!
您可以恢复已回收的镜像,并在 Red Hat Ceph Storage Dashboard 上有到期日期。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 镜像被回收。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Trash 选项卡中,选择要恢复的镜像行。
从受保护的镜像菜单中点 Restore。
图 13.7. 从回收站中恢复镜像
在 Restore Image 对话框中,检查镜像名称并点 Restore。
通知显示镜像已成功恢复。
13.1.8. 删除 Ceph 仪表板上的镜像 复制链接链接已复制到粘贴板!
您可以在 Ceph 控制面板中从集群中删除镜像。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
流程
- 在仪表板导航中,进入 Block→Images。
- 选择要删除的行,然后从操作下拉菜单中选择 Delete。
在 Delete RBD 通知中,选择 Yes, I am sure,再单击 Delete RBD。
通知显示镜像已被成功删除。
13.1.9. 删除 Ceph 仪表板上的命名空间。 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 中删除镜像的命名空间。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 池中创建了一个命名空间。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Namespaces 选项卡中,选择命名空间并点 Delete from the action-down。
在 Delete Namespace 通知中,选择 Yes, I am sure 并点 Delete Namespace。
通知显示命名空间已被成功删除。
13.1.10. 在 Ceph 仪表板中创建镜像快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上获取 Ceph 块设备镜像的快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行。
- 在 Snapshots 选项卡中,单击 Create。
在 Create RBD Snapshot 对话框中,输入快照名称,再单击 Create RBD Snapshot。
图 13.8. 创建镜像快照
通知显示快照创建成功。
13.1.11. 在 Ceph 仪表板中重命名镜像的快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上重命名 Ceph 块设备镜像的快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 创建镜像的快照。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行。
- 在 Snapshots 选项卡中,单击 Rename。
- 在 Rename RBD Snapshot 对话框中,输入新名称,再单击 Rename RBD Snapshot。
13.1.12. 保护 Ceph 仪表板上的镜像快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上保护 Ceph 块设备镜像的快照。
当您需要克隆快照时,需要这样做。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 创建镜像的快照。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行并点 Snapshots 选项卡。
选择要保护的快照,然后从操作下拉菜单中选择 Protect。
快照更新和 State 从 Unprotected to Protected。
13.1.13. 在 Ceph 仪表板中克隆镜像的快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上克隆镜像的快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 镜像的快照会被创建和保护。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行。
- 在 Snapshots 选项卡中,选择要克隆的快照,然后从操作下拉菜单中选择 Clone。
在 Clone RBD 表单中,填写所需的详细信息,再单击 Clone RBD。
通知显示快照被成功克隆,新镜像显示在 Images 表中。
13.1.14. 在 Ceph 仪表板中复制镜像的快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上复制镜像的快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 创建镜像的快照。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行。
- 在 Snapshots 选项卡中,选择要克隆的快照,然后从操作下拉列表中单击 Copy。
在 Copy RBD 表单中,填写所需的详细信息,再单击 Copy RBD。
通知显示快照被成功克隆,新镜像显示在 Images 表中。
13.1.15. 在 Ceph 仪表板中取消保护镜像的快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上取消保护 Ceph 块设备镜像的快照。
当您需要删除快照时需要这样做。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 镜像的快照会被创建和保护。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行并点 Snapshots 选项卡。
选择受保护的快照,然后从 操作下拉菜单中选择 Unprotect。
快照更新和 State 从 Protected 变为 Unprotected*。
13.1.16. 在 Ceph 仪表板上回滚镜像快照 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上回滚 Ceph 块设备镜像的快照。将镜像回滚到快照意味着使用快照中的数据覆盖镜像的当前版本。执行回滚所需的时间会随着镜像大小的增加而增加。从快照克隆要快于将镜像回滚到快照,而这是返回到预先存在的状态的首选方法。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 创建镜像的快照。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行并点 Snapshots 选项卡。
- 选择要回滚的快照,然后从快照菜单中选择 Rollback。
在 RBD 快照回滚 对话框中,单击 Rollback。
图 13.9. 镜像的回滚快照
13.1.17. 删除 Ceph 仪表板中的镜像快照 复制链接链接已复制到粘贴板!
您可以删除 Red Hat Ceph Storage Dashboard 上的 Ceph 块设备镜像的快照。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 创建镜像的快照并未受保护。
流程
- 在仪表板导航中,进入 Block→Images。
- 在 Images 选项卡中,展开镜像行。
- 在 Snapshots 选项卡中,选择要删除的快照,然后从操作下拉菜单中选择 Delete。
在 Delete RBD Snapshot 对话框中,选择 Yes, I am sure,再单击 Delete RBD Snapshot。
通知显示快照创建成功。
13.2. 在 Ceph 仪表板上管理镜像功能 复制链接链接已复制到粘贴板!
作为存储管理员,您可以在 Red Hat Ceph Storage Dashboard 上管理和监控块设备的镜像功能。
您可以通过在存储集群间镜像数据镜像,为 Ceph 块设备添加另一层冗余性。了解和使用 Ceph 块设备镜像功能可帮助您防止数据丢失,如站点故障。镜像 Ceph 块设备有两种配置,单向镜像或双向镜像,您可以在池和单个镜像上配置镜像功能。
13.2.1. Ceph 仪表板上的镜像视图 复制链接链接已复制到粘贴板!
您可以在 Red Hat Ceph Storage Dashboard 上查看块设备镜像。
您可以查看守护进程、站点详情、池以及为块设备镜像配置的镜像。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 配置了镜像(mirror)。
流程
在仪表板导航中,进入 Block→Mirroring。
图 13.10. 查看 Ceph 块设备的镜像
13.2.2. 在 Ceph 仪表板上编辑池模式 复制链接链接已复制到粘贴板!
您可以编辑镜像功能的整体状态模式,其中包括 Red Hat Ceph Storage 仪表板中的池和镜像。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 配置了镜像(mirror)。
流程
在仪表板导航中,进入 Block→Mirroring。
- 在池 表中,选择要编辑的池,然后单击 Edit Mode。
在 Edit Mode 对话框中,选择模式并单击 Update。
通知显示,模式已被成功更新,以及 池 表中的 Mode 更新。
13.2.3. 在 Ceph 仪表板上为镜像添加对等功能 复制链接链接已复制到粘贴板!
您可以为 rbd-daemon
mirror 添加存储集群对等点,以便在 Red Hat Ceph Storage Dashboard 上发现其对等存储集群。
先决条件
- 两个健康的运行 Red Hat Ceph Storage 集群。
- 仪表板在两个集群中安装。
- 使用相同名称创建的池。
-
两个集群上
都启用了 RBD 应用。
确保为在其中创建镜像的池启用了镜像(mirror)。
流程
站点 A
- 在仪表板导航中,进入 Block → Mirroring,再点击 Create Bootstrap Token。
- 在 Navigation 菜单中,点 Block 下拉菜单,然后点 Mirroring。
点 Create Bootstrap Token,并在窗口中配置以下内容:
图 13.11. 创建 bootstrap 令牌
- 对于提供的站点名称,请选择要镜像的池。
- 对于所选池,点 Generate 生成新的 bootstrap 令牌。
- 单击 Copy to Clipboard。
- 单击 Close。
启用池镜像模式。
- 选择池。
- 单击 Edit Mode。
- 在 Edit pool mirror mode 对话框中,从 Mode 列表中选择 Image。
点 Update。
通知显示池已被成功更新。
站点 B
在仪表板导航中,进入 Block → Mirroring,再从操作下拉列表中点 Import Bootstrap Token。
注意确保为导入 bootstrap 令牌的特定池启用了镜像模式。
在 Import Bootstrap Token 对话框中,选择方向,并粘贴之前从站点 A 复制的令牌。
图 13.12. 导入 bootstrap 令牌
点 Submit。
添加 peer,并在站点 B 的集群中镜像镜像。
- 在 Block → Mirroring 页面中,在 Pool 表中验证池的健康状况是否处于 OK 状态。
站点 A
创建启用了镜像功能的 镜像。
- 在仪表板导航中,进入 Block → Images。
- 在 Images 选项卡上,单击 Create。
- 在 Create Image 表单中,填写 Name 和 Size。
选择 镜像功能。
注意使用 Journal 或 Snapshot 选择镜像。
点 Create Image。
图 13.13. 创建镜像镜像
验证镜像在两个站点都可用。
- 在 Images 表中,验证站点 A 中的镜像是否已设置为 primary,并且站点 B 中的镜像是否已设置为 secondary。
13.2.4. 在 Ceph 仪表板上编辑镜像中的对等功能 复制链接链接已复制到粘贴板!
您可以编辑 rbd-daemon
镜像的存储集群对等点,以便在 Red Hat Ceph Storage Dashboard 中发现其对等存储集群。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 配置了镜像(mirror)。
- 添加了对等点。
流程
在仪表板导航中,进入 Block→Mirroring。
在 Pools 表中,从池菜单中点击 Edit Peer。
在 Edit pool mirror peer 对话框中,编辑参数,然后点 Submit。
通知显示对等已成功更新。
图 13.14. 编辑镜像中的 peer
13.2.5. 删除 Ceph 仪表板上的镜像中的对等点 复制链接链接已复制到粘贴板!
您可以编辑'rbd-daemon' mirror 的存储集群,以便在 Red Hat Ceph Storage Dashboard 中发现其对等存储集群。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 已安装仪表板。
- 创建启用了 rbd 应用的池。
- 已创建一个镜像。
- 配置了镜像(mirror)。
- 添加了对等点。
流程
- 在仪表板导航中,进入 Block→Mirroring。
- 在 Pools 表中,选择要编辑的池,并从操作下拉列表中点 Delete Peer。
在 Delete mirror peer 对话框中,选择 Yes, I am sure 并点 Delete mirror peer。
通知显示对等成功删除。
第 14 章 激活和停用遥测 复制链接链接已复制到粘贴板!
激活 telemetry 模块,以帮助 Ceph 开发人员了解 Ceph 的使用方式以及用户可能遇到的问题。这有助于改进仪表板体验。激活 telemetry 模块将有关集群的匿名数据发回到 Ceph 开发人员。
在公共遥测仪表板上,查看发送到 Ceph 开发人员的遥测数据。这可让社区轻松查看报告集群数量、其总容量和 OSD 计数以及版本分布趋势的摘要统计。
遥测报告分为多个频道,每种频道都有不同类型的信息。假设遥测已启用,您可以打开和关闭各个频道。如果遥测关闭,则每个通道设置无效。
- 基本的
- 提供有关集群的基本信息。
- crash
- 提供有关守护进程崩溃的信息。
- 设备
- 提供有关设备指标的信息。
- Ident
- 为用户提供有关集群的标识信息。
- perf
- 提供集群的各种性能指标。
数据报告包含有助于开发人员更好地了解 Ceph 的方式的信息。数据包括计数器和统计信息,以及集群的部署方式、Ceph 版本、主机的分发和其他参数。
数据报告不包含任何敏感数据,如池名称、对象名称、对象内容、主机名或设备序列号。
遥测也可以使用 API 管理。有关更多信息,请参阅 Red Hat Ceph Storage Developer Guide 中的 Telemetry 章节。
流程
使用以下方法之一激活 telemetry 模块:
Ceph 控制面板的横幅。
- 进入 Settings→Telemetry 配置。
选择应启用遥测的每个频道。
注意有关每种频道类型的详细信息,请点频道旁的 More Info。
- 为集群 填写联系信息。输入联系人、Ceph 集群描述和组织。
可选: 完成 Advanced Settings 字段选项。
- Interval(间隔)
- 以小时为单位设置间隔。模块每小时间隔编译并发送一个新的报告。默认间隔为 24 小时。
- Proxy
如果集群无法直接连接到配置的 telemetry 端点,则使用它来配置 HTTP 或 HTTPs 代理服务器。使用以下格式之一添加服务器:
https://10.0.0.1:8080
或https://ceph::8080
默认端点为
telemetry.ceph.com
。
- 点击 Next。这会在启用遥测前显示 Telemetry 报告预览。
查看 报告预览。
注意报告可以在本地下载并保存到剪贴板中。
- 选择 我同意在社区数据许可证协议下提交的遥测数据。
单击 Update 来启用 telemetry 模块。
此时会显示以下信息,确认遥测激活:
The Telemetry module has been configured and activated successfully
The Telemetry module has been configured and activated successfully
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
14.1. 停用遥测(telemetry) 复制链接链接已复制到粘贴板!
要取消激活 telemetry 模块,请转至 Settings→Telemetry 配置,然后点 Deactivate。