2.2. 配置现有的 Ceph Storage 集群
在与您的环境相关的 Ceph 集群中创建以下池:
-
卷:OpenStack Block Storage (cinder)的存储 -
镜像:OpenStack Image Storage (glance)的存储 -
虚拟机:实例的存储 -
备份:用于 OpenStack Block Storage Backup (cinder-backup)的存储 Metrics: OpenStack Telemetry Metrics (gnocchi)存储使用以下命令作为指南:
ceph osd pool create volumes PGNUM ceph osd pool create images PGNUM ceph osd pool create vms PGNUM ceph osd pool create backups PGNUM ceph osd pool create metrics PGNUM
[root@ceph ~]# ceph osd pool create volumes PGNUM [root@ceph ~]# ceph osd pool create images PGNUM [root@ceph ~]# ceph osd pool create vms PGNUM [root@ceph ~]# ceph osd pool create backups PGNUM [root@ceph ~]# ceph osd pool create metrics PGNUMCopy to Clipboard Copied! Toggle word wrap Toggle overflow 将 PGNUM 替换为 PG 的数量。我们建议每个 OSD 大约 100 个。例如,OSD 的总数乘以副本数乘以副本数(
osd 池默认大小)。您还可以使用 Ceph 放置组(PG)每个池计算器 来确定合适的值。
-
在 Ceph 集群中使用以下功能创建
client.openstack用户:- cap_mgr: "allow *"
- cap_mon: profile rbd
cap_osd: profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics
使用以下命令作为指南:
ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'
[root@ceph ~]# ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
注意为
client.openstack用户创建的 Ceph 客户端密钥:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 示例中的
键值AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw== 是您 Ceph 客户端密钥。记下 Ceph Storage 集群 的文件系统 ID。这个值通过集群的配置文件中的
fsid设置来指定(在[global]部分):[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...
[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意有关 Ceph Storage 集群配置文件的更多信息,请参阅 配置参考 (来自 Red Hat Ceph Storage 配置指南)。
Ceph 客户端密钥和文件系统 ID 稍后将在 第 3 章 与现有 Ceph 集群集成 中使用。