3.2. 创建 Red Hat Ceph Storage 池
在 Red Hat Ceph Storage 集群服务器上为每个使用集群的 RHOSO 服务创建池。
从 Ceph 节点运行此流程中的命令。
流程
输入
cephadm容器客户端:$ sudo cephadm shell为 Compute 服务(vms)、块存储服务(volumes)和镜像服务(images)创建池:
$ for P in vms volumes images; do ceph osd pool create $P; ceph osd pool application enable $P rbd; done注意在创建池时,设置适当的放置组(PG)号,如 Red Hat Ceph Storage 策略指南中的 放置组 中所述。
可选:如果在 control plane 中启用了共享文件系统服务(manila),则创建
cephfs卷。这会自动启用 CephFS 元数据服务(MDS),并在 Ceph 集群中创建必要的数据和元数据池:$ ceph fs volume create cephfs可选:在 Red Hat Ceph Storage 集群上部署 NFS 服务,以便将 CephFS 与 NFS 搭配使用:
$ ceph nfs cluster create cephfs \ --ingress --virtual-ip=<vip> \ --ingress-mode=haproxy-protocol将
<vip> 替换为分配给 NFS 服务的 IP 地址。NFS 服务应当隔离在一个可与所有 Red Hat OpenStack 用户共享的网络中。有关自定义 NFS 服务的更多信息,请参阅 NFS 集群和导出管理。重要当您为共享文件系统服务部署 NFS 服务时,请不要选择要公开 NFS 的自定义端口。仅支持 2049 的默认 NFS 端口。您必须启用 Red Hat Ceph Storage
ingress服务,并将ingress-mode设置为haproxy-protocol。否则,您不能将基于 IP 的访问规则与共享文件系统服务一起使用。对于生产环境中的安全性,请不要提供对共享的访问权限,将它们挂载到客户端计算机上。
为 RHOSO 创建 cephx 密钥以访问池:
$ ceph auth add client.openstack \ mgr 'allow *' \ mon 'profile rbd' \ osd 'profile rbd pool=vms, profile rbd pool=volumes, profile rbd pool=backups, profile rbd pool=images'重要如果 control plane 中启用了共享文件系统服务,请将
osdcaps 替换为以下内容:$ ceph auth add client.openstack \ mgr 'allow *' \ mon 'profile rbd' \ osd 'profile rbd pool=vms, profile rbd pool=volumes, profile rbd pool=backups, profile rbd pool=images, profile rbd pool=cephfs.cephfs.data'导出 cephx 密钥:
$ ceph auth get client.openstack > /etc/ceph/ceph.client.openstack.keyring导出配置文件:
$ ceph config generate-minimal-conf > /etc/ceph/ceph.conf