6.4. 列出 Ceph OSD 部署的设备
在使用 Ceph 编排器部署 OSD 之前,您可以检查可用设备列表。命令用于显示可由 Cephadm 发现的设备列表。如果满足以下条件,则存储设备被视为可用:
- 该设备不能有分区。
- 该设备不能有任何 LVM 状态。
- 不得挂载该设备。
- 该设备不得包含文件系统。
- 该设备不得包含 Ceph BlueStore OSD。
- 该设备必须大于 5 GB。
Ceph 不会在不可用的设备上调配 OSD。
先决条件
- 一个正在运行的 Red Hat Ceph Storage 集群。
- 主机添加到集群中。
- 所有管理器和监控守护进程都已部署。
流程
登录到 Cephadm shell:
示例
[root@host01 ~]# cephadm shell
列出可用的设备来部署 OSD:
语法
ceph orch device ls [--hostname=HOSTNAME_1 HOSTNAME_2] [--wide] [--refresh]
示例
[ceph: root@host01 /]# ceph orch device ls --wide --refresh
使用
--wide
选项提供与该设备相关的所有详细信息,包括设备可能有资格用作 OSD 的原因。这个选项不支持 NVMe 设备。可选: 要在
ceph orch device ls
输出中启用 Health、Ident 和 Failure 字段,请运行以下命令:注意libstoragemgmt
库支持这些字段,当前支持 SCSI、SAS 和 SATA 设备。在 Cephadm shell 外部以 root 用户身份,检查硬件与
libstoragemgmt
库的兼容性,以避免出现意外中断服务:示例
[root@host01 ~]# cephadm shell lsmcli ldl
在输出中,您会看到 Health Status 为 Good,对应于 SCSI VPD 0x83 ID。
注意如果没有获取这些信息,启用字段可能会导致设备错误行为。
重新登录 Cephadm shell 并启用
libstoragemgmt
支持:示例
[root@host01 ~]# cephadm shell [ceph: root@host01 /]# ceph config set mgr mgr/cephadm/device_enhanced_scan true
启用之后,
ceph orch device ls
会将 Health 字段的输出设置为 Good。
验证
列出设备:
示例
[ceph: root@host01 /]# ceph orch device ls