7.2. 配置原生 CephFS 后端
您可以使用原生 CephFS 作为存储后端配置共享文件系统服务(manila)。
限制:
您可以将原生 CephFS 后端公开给可信用户,但采取以下安全措施:
- 将存储网络配置为提供商网络。
- 应用基于角色的访问控制(RBAC)策略来保护存储供应商网络。
- 创建私有共享类型。
先决条件
- 隔离存储网络。
- 确保存储后端、Red Hat OpenShift 集群和 Compute 节点之间的网络连接。
- 您已创建了 Red Hat Ceph Storage secret。如需更多信息,请参阅 集成 Red Hat Ceph Storage
流程
打开
OpenStackControlPlane
CR 文件openstack_control_plane.yaml
,并在spec
部分添加extraMounts
参数,以显示 Ceph 配置文件:apiVersion: core.openstack.org/v1beta1 kind: OpenStackControlPlane spec: extraMounts: - name: v1 region: r1 extraVol: - propagation: - ManilaShare extraVolType: Ceph volumes: - name: ceph projected: sources: - secret: name: <ceph-conf-files> mounts: - name: ceph mountPath: "/etc/ceph" readOnly: true
将以下参数添加到
manila
模板,以配置原生 CephFS 后端:apiVersion: core.openstack.org/v1beta1 kind: OpenStackControlPlane spec: ... manila: enabled: true template: manilaAPI: replicas: 3 customServiceConfig: | [DEFAULT] debug = true enabled_share_protocols=cephfs manilaScheduler: replicas: 3 manilaShares: cephfsnative: replicas: 1 networkAttachments: - storage customServiceConfig: | [DEFAULT] enabled_share_backends=cephfs [cephfs] driver_handles_share_servers=False share_backend_name=cephfs share_driver=manila.share.drivers.cephfs.driver.CephFSDriver cephfs_conf_path=/etc/ceph/ceph.conf cephfs_auth_id=openstack cephfs_cluster_name=ceph cephfs_volume_mode=0755 cephfs_protocol_helper_type=CEPHFS ...
更新 control plane:
$ oc apply -f openstack_control_plane.yaml -n openstack
等待 RHOCP 创建与
OpenStackControlPlane
CR 相关的资源。运行以下命令来检查状态:$ oc get openstackcontrolplane -n openstack
当状态为 "Setup complete" 时,会创建
OpenStackControlPlane
资源。提示将
-w
选项附加到get
命令的末尾,以跟踪部署进度。