オーバークラウドの既存 Red Hat Ceph クラスターとの統合
オーバークラウドでスタンドアロンの Red Hat Ceph Storage を使用するための設定
概要
第1章 はじめに
Red Hat OpenStack Platform director は、オーバークラウド と呼ばれるクラウド環境を作成します。director は、Red Hat Ceph Storage (director で作成した Ceph Storage クラスターおよび既存の Ceph Storage クラスターの両方) との統合を含む、オーバークラウドの追加機能を設定することができます。
1.1. Ceph Storage の概要
Red Hat Ceph Storage は、優れたパフォーマンス、信頼性、スケーラビリティーを提供するように設計された、分散型のデータオブジェクトストアです。非構造化データに対応しており、クライアントが新しいタイプのオブジェクトインターフェースと従来のインターフェースを同時に使用できる分散型のオブジェクトストアは、今後のストレージのあるべき姿です。すべての Ceph デプロイメントの中核となる Ceph Storage クラスターは、複数の種類のデーモンで構成されますが、主要なデーモンは以下の 2 つになります。
- Ceph OSD (Object Storage Daemon)
- Ceph OSD は、Ceph クライアントの代わりにデータを格納します。また、Ceph OSD は Ceph ノードの CPU とメモリーを使用して、データの複製、リバランス、復旧、監視、レポート作成を実行します。
- Ceph Monitor
- Ceph monitor は、ストレージクラスターの現在の状態を含む Ceph Storage クラスターのマッピングのマスターコピーを管理します。
Red Hat Ceph Storage に関する詳しい情報は、『Red Hat Ceph Storage Architecture Guide』 を参照してください。
1.2. シナリオの定義
本ガイドでは、既存の Ceph Storage クラスターをオーバークラウドと統合する手順について説明します。この場合、director はストレージ用途に Ceph Storage クラスターを使用するようにオーバークラウドを設定します。クラスターそのものは、オーバークラウド設定とは独立して管理およびスケーリングします。
1.3. 外部の NFS バックエンドに CephFS を使用する Shared File Systems のデプロイ
Red Hat OpenStack Platform director が NFS バックエンドに CephFS を使用する Shared File Systems サービスをデプロイする場合、Pacemaker (PCS) が管理するコントローラーノードに NFS-Ganesha ゲートウェイをデプロイします。PCS は、アクティブ/パッシブ構成を使用してクラスターの可用性を管理します。
この機能により、director は外部の Ceph Storage クラスターを使用して Shared File System をデプロイすることができます。この種のデプロイメントでは、Ganesha は引き続き PCS によって管理されるコントローラーノードで実行されます。
Shared File System と外部の Ceph Storage クラスターを統合するには、ceph-ansible-external.yaml
のパラメーターを編集する必要があります。
ceph-ansible-external.yaml
ファイルを編集して、OpenStack Platform サービスが外部の Ceph Storage クラスターを使用するように設定する必要があります。
ceph-ansible-external.yaml
ファイルの設定方法についての詳細は、「 Integrating with the existing Ceph cluster 」を参照してください。
この機能は、Ceph Storage 4.1 以降でサポートされます。Ceph Storage 4.1 にアップグレードしたら、最新バージョンの ceph-ansible
パッケージをアンダークラウドにインストールする必要があります。お使いのシステムにインストールされている Ceph Storage がどのリリースかを判断する方法は、「What are the Red Hat Ceph Storage releases and corresponding Ceph package versions?」 を参照してください。
アンダークラウド上で ceph-ansible
パッケージを更新する方法は、「ceph-ansible パッケージのインストール」 を参照してください。
前提条件
外部の Ceph Storage クラスターを使用して manila を設定するには、以下の前提条件を満たす必要があります。
- 外部の Ceph Storage クラスターにはアクティブな MDS が必要です。
-
外部の Ceph Storage クラスターには、CephFS データ (
ManilaCephFSDataPoolName
) および CephFS メタデータプール (ManilaCephFSMetadataPoolName
) の値に基づいた CephFS ファイルシステムが必要です。詳細は、「カスタム環境ファイルの作成」 を参照してください。 -
外部の Ceph Storage クラスターには、Shared File Systems サービスおよび NFS-Ganesha 用の
cephx
クライアントキーが必要です。詳細は、「カスタム環境ファイルの作成」 を参照してください。 -
Shared File Systems サービスおよび NFS-Ganesha を設定するには、
cephx
ID およびクライアントキーが必要です。詳細は、「カスタム環境ファイルの作成」 を参照してください。
Red Hat Ceph Storage の詳細は、『Red Hat Ceph Storage ファイルシステムガイド 』を参照してください。
NFS バックエンドに CephFS を使用する構成についての詳細は、『 Deploying the Shared File Systems service with CephFS via NFS』を参照して ください。
第2章 オーバークラウドノードの準備
本章のシナリオでは、オーバークラウドは 6 台のノードで構成されます。
- 高可用性のコントローラーノード 3 台
- コンピュートノード 3 台
director は、独立した Ceph Storage クラスターを独自のノードでオーバークラウドに統合します。このクラスターは、オーバークラウドとは別々に管理されます。たとえば、Ceph Storage クラスターは、OpenStack Platform director ではなく Ceph 管理ツールを使用してスケーリングします。詳しい情報は、Red Hat Ceph Storage のドキュメントライブラリーを参照してください。
2.1. 既存の Ceph Storage クラスターの設定
お使いの環境に適した Ceph クラスターに以下のプールを作成します。
-
volumes
: OpenStack Block Storage (cinder) のストレージ -
images
: OpenStack Image Storage (glance) のストレージ -
vms
: インスタンスのストレージ -
backups
: OpenStack Block Storage Backup (cinder-backup) のストレージ metrics
: OpenStack Telemetry Metrics (gnocchi) のストレージ以下のコマンドは指針として使用してください。
[root@ceph ~]# ceph osd pool create volumes PGNUM [root@ceph ~]# ceph osd pool create images PGNUM [root@ceph ~]# ceph osd pool create vms PGNUM [root@ceph ~]# ceph osd pool create backups PGNUM [root@ceph ~]# ceph osd pool create metrics PGNUM
オーバークラウドが CephFS がサポートする Shared File System(manila)をデプロイする場合には、CephFS データおよびメタデータプールも作成します。
[root@ceph ~]# ceph osd pool create manila_data PGNUM [root@ceph ~]# ceph osd pool create manila_metadata PGNUM
PGNUM は配置グループの数に置き換えます。Red Hat は、OSD ごとに約 100 個の配置グループを推奨します。たとえば、OSD の合計数を 100 で乗算して、レプリカ数で除算します (
osd pool default size
)。適切な値を判断するには Ceph Placement Groups (PGs) per Pool Calculator を使用することを推奨します。
-
以下の機能を指定して
client.openstack
ユーザーを Ceph クラスターに作成します。- cap_mgr: “allow *”
- cap_mon: profile rbd
cap_osd: profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics
以下のコマンドは指針として使用してください。
[root@ceph ~]# ceph auth add client.openstack mgr 'allow *' mon 'profile rbd' osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics'
client.openstack
ユーザー向けに作成された Ceph クライアントキーをメモします。[root@ceph ~]# ceph auth list ... [client.openstack] key = AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw== caps mgr = "allow *" caps mon = "profile rbd" caps osd = "profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images, profile rbd pool=backups, profile rbd pool=metrics" ...
この例の
key
値 (AQC+vYNXgDAgAhAAc8UoYt+OTz5uhV7ItLdwUw==) は Ceph クライアントキーです。オーバークラウドが CephFS でサポートされる Shared File System をデプロイする場合は、以下の機能を備えた
client.manila
ユーザーを Ceph クラスターに作成します。-
cap_mds:
allow *
-
cap_mgr:
allow *
-
cap_mon:
allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"
cap_osd:
allow rw
以下のコマンドは指針として使用してください。
[root@ceph ~]# ceph auth add client.manila mon 'allow r, allow command "auth del", allow command "auth caps", allow command "auth get", allow command "auth get-or-create"' osd 'allow rw' mds 'allow *' mgr 'allow *'
-
cap_mds:
manila クライアント名およびオーバークラウドデプロイメントテンプレートで使用するキー値をメモします。
[root@ceph ~]# ceph auth get-key client.manila AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg==
Ceph Storage クラスターのファイルシステム ID をメモします。この値は、クラスターの設定ファイルにある
fsid
の設定で指定されています ([global]
のセクション下)。[global] fsid = 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 ...
注記Ceph Storage クラスターの設定ファイルに関する詳細は、『Red Hat Ceph Storage Configuration Guide』の「Ceph configuration」を参照してください。
Ceph クライアントキーおよびファイルシステム ID、および manila クライアント ID およびキーは、すべて 3章既存の Ceph Storage クラスターとの統合 で後ほど使用されます。
2.2. stack ユーザーの初期化
stack
ユーザーとして director ホストにログインし、以下のコマンドを実行して director の設定を初期化します。
$ source ~/stackrc
このコマンドでは、director の CLI ツールにアクセスする認証情報が含まれる環境変数を設定します。
2.3. ノードの登録
ノード定義のテンプレート (instackenv.json
) は JSON ファイル形式で、ノード登録用のハードウェアおよび電源管理の情報が含まれています。以下に例を示します。
{ "nodes":[ { "mac":[ "bb:bb:bb:bb:bb:bb" ], "cpu":"4", "memory":"6144", "disk":"40", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"p@55w0rd!", "pm_addr":"192.0.2.205" }, { "mac":[ "cc:cc:cc:cc:cc:cc" ], "cpu":"4", "memory":"6144", "disk":"40", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"p@55w0rd!", "pm_addr":"192.0.2.206" }, { "mac":[ "dd:dd:dd:dd:dd:dd" ], "cpu":"4", "memory":"6144", "disk":"40", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"p@55w0rd!", "pm_addr":"192.0.2.207" }, { "mac":[ "ee:ee:ee:ee:ee:ee" ], "cpu":"4", "memory":"6144", "disk":"40", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"p@55w0rd!", "pm_addr":"192.0.2.208" } { "mac":[ "ff:ff:ff:ff:ff:ff" ], "cpu":"4", "memory":"6144", "disk":"40", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"p@55w0rd!", "pm_addr":"192.0.2.209" } { "mac":[ "gg:gg:gg:gg:gg:gg" ], "cpu":"4", "memory":"6144", "disk":"40", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"p@55w0rd!", "pm_addr":"192.0.2.210" } ] }
手順
-
インベントリーファイルを作成したら、そのファイルを stack ユーザーのホームディレクトリーに保存します (
/home/stack/instackenv.json
)。 stack ユーザーを初期化し、続いて
instackenv.json
インベントリーファイルを director にインポートします。$ source ~/stackrc $ openstack overcloud node import ~/instackenv.json
openstack overcloud node import
コマンドは、インベントリーファイルをインポートし、各ノードを director に登録します。- カーネルと ramdisk イメージを各ノードに割り当てます。
$ openstack overcloud node configure <node>
director でのノードの登録、設定が完了しました。
2.4. ノードの手動でのタグ付け
各ノードの登録後、ハードウェアを検査して、ノードを特定のプロファイルにタグ付けする必要があります。プロファイルタグを使用してノードをフレーバーに照合してから、フレーバーをデプロイメントロールに割り当てます。
新規ノードを検査してタグ付けするには、以下の手順を実施します。
ハードウェアのイントロスペクションをトリガーして、各ノードのハードウェア属性を取得します。
$ openstack overcloud node introspect --all-manageable --provide
-
--all-manageable
オプションを使用して、管理状態にあるノードのみをイントロスペクションします。ここでは、すべてのノードが管理状態にあります。 --provide
オプションは、イントロスペクション後に全ノードをactive
の状態にリセットします。重要このプロセスが正常に完了したことを確認します。ベアメタルノードの場合には、通常 15 分ほどかかります。
-
ノード一覧を取得して UUID を把握します。
$ openstack baremetal node list
各ノードの
properties/capabilities
パラメーターに profile オプションを追加して、ノードを特定のプロファイルに手動でタグ付けします。profile
オプションを追加すると、適切なプロファイルにノードをタグ付けします。注記手動でのタグ付けの代わりに、Automated Health Check (AHC) ツールを使用し、ベンチマークデータに基づいて、多数のノードに自動でタグ付けします。
たとえば、3 つのノードが
control
プロファイルを使用し、別の 3 つのノードがcompute
プロファイルを使用するようにタグ付けするには、以下のコマンドを実行します。$ openstack baremetal node set 1a4e30da-b6dc-499d-ba87-0bd8a3819bc0 --property capabilities="profile:control,boot_option:local" $ openstack baremetal node set 6faba1a9-e2d8-4b7c-95a2-c7fbdc12129a --property capabilities="profile:control,boot_option:local" $ openstack baremetal node set 5e3b2f50-fcd9-4404-b0a2-59d79924b38e --property capabilities="profile:control,boot_option:local" $ openstack baremetal node set 484587b2-b3b3-40d5-925b-a26a2fa3036f --property capabilities="profile:compute,boot_option:local" $ openstack baremetal node set d010460b-38f2-4800-9cc4-d69f0d067efe --property capabilities="profile:compute,boot_option:local" $ openstack baremetal node set d930e613-3e14-44b9-8240-4f3559801ea6 --property capabilities="profile:compute,boot_option:local"
profile
オプションを追加すると、適切なプロファイルにノードをタグ付けします。
手動でのタグ付けの代わりに、Automated Health Check (AHC) ツールを使用し、ベンチマークデータに基づいて、多数のノードに自動でタグ付けします。
第3章 既存の Ceph Storage クラスターとの統合
Red Hat OpenStack Platform director は ceph-ansible
を使用して既存の Ceph Storage クラスターと統合しますが、デフォルトでは ceph-ansible
はアンダークラウドにインストールされていません。
3.1. ceph-ansible パッケージのインストール
手順
以下のコマンドを入力して、アンダークラウドに
ceph-ansible
パッケージをインストールしてください。sudo dnf install -y ceph-ansible
3.2. カスタム環境ファイルの作成
director は ceph-ansible
にパラメーターを提供し、環境ファイルを使用して外部の Ceph Storage クラスターと統合します。
-
/usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml
NFS バックエンドに CephFS を使用する Shared File System をデプロイする場合は、director は別の環境ファイルからパラメーターも提供します。
-
/usr/share/openstack-tripleo-heat-templates/environments/manila-cephfsganesha-config.yaml
これらの環境ファイルはデプロイメント時(「オーバークラウドのデプロイ」)で呼び出され、既存の Ceph Storage クラスターをデプロイ中のオーバークラウドに統合します。
統合を設定するには、Ceph Storage クラスターの詳細を director に提供する必要があります。そのためには、カスタム環境ファイルを使用して、これらの環境ファイルによって提供されるデフォルト設定を上書きします。
手順
カスタム環境ファイルを作成します。
/home/stack/templates/ceph-config.yaml
このファイルに
parameter_defaults:
ヘッダーを追加します。parameter_defaults:
このヘッダーの下に、
/usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml
で上書きするすべてのパラメーターを設定します。少なくとも、以下のパラメーターを設定する必要があります。-
CephClientKey
: Ceph Storage クラスターの Ceph クライアントキー。これは、先ほど 「既存の Ceph Storage クラスターの設定」 で取得したキー
の値です。たとえば、AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ==
です。 -
CephClusterFSID
: Ceph Storage クラスターのファイルシステム ID。これは、先ほど 「既存の Ceph Storage クラスターの設定」 で取得した Ceph Storage クラスターの設定ファイルのfsid
の値ですたとえば、4b5c8c0a-ff60-454b-a1b4-9747aa737d19
です。 CephExternalMonHost
: Ceph Storage クラスターの全 MON ホストの IP をコンマ区切りにしたリストです。例:172.16.1.7, 172.16.1.8
parameter_defaults: CephClientKey: AQDLOh1VgEp6FRAAFzT7Zw+Y9V6JJExQAsRnRQ== CephClusterFSID: 4b5c8c0a-ff60-454b-a1b4-9747aa737d19 CephExternalMonHost: 172.16.1.7, 172.16.1.8
-
必要な場合は、デフォルトのプール名または OpenStack Platform クライアントユーザー名を上書きし、Ceph Storage クラスターに一致させます。
-
CephClientUserName: openstack
-
NovaRbdPoolName: vms
-
CinderRbdPoolName: volumes
-
GlanceRbdPoolName: images
-
CinderBackupRbdPoolName: backups
-
GnocchiRbdPoolName: metrics
-
CephFS がサポートする Shared File Systems(manila)サービスをデプロイする場合は、データおよびメタデータプールの名前を設定します。
ManilaCephFSDataPoolName: manila_data ManilaCephFSMetadataPoolName: manila_metadata
注記これらの名前が、以前に作成したプールの名前と一致していることを確認します。
Shared File Systems サービス用に作成したクライアントキーとそのキーの Ceph ユーザーの名前を設定します。
ManilaCephFSCephFSAuthId: 'manila' CephManilaClientKey: 'AQDQ991cAAAAABAA0aXFrTnjH9aO39P0iVvYyg=='
注記デフォルトでは、このキーは
manila
と呼ばれるユーザーに属し、client.manila
キーとして保管されます。カスタム環境ファイルにオーバークラウドパラメーターを追加することもできます。たとえば、
neutron
のネットワーク種別をvxlan
に設定するには、parameter_defaults
に以下の設定を追加します。NeutronNetworkType: vxlan
カスタム環境ファイルを作成したら、オーバークラウドのデプロイ時にこのファイルを追加する必要があります。オーバークラウドのデプロイに関する詳細は、「オーバークラウドのデプロイ」 を参照してください。
3.3. ロールへのノードとフレーバーの割り当て
オーバークラウドのデプロイメントのプランニングでは、各ロールに割り当てるノード数とフレーバーを指定する必要があります。すべての Heat テンプレートのパラメーターと同様に、これらのロールの仕様はカスタム環境ファイル(ここでは「 3章既存の Ceph Storage クラスターとの統合」で作成した /home/stack/templates/ceph-config
)の parameter_defaults
セクションで宣言する必要があります。
この設定には、以下のパラメーターを使用します。
Heat テンプレートのパラメーター | 説明 |
---|---|
ControllerCount | スケールアウトするコントローラーノード数 |
OvercloudControlFlavor |
コントローラーノードに使用するフレーバー ( |
ComputeCount | スケールアウトするコンピュートノード数 |
OvercloudComputeFlavor |
コンピュートノードに使用するフレーバー ( |
たとえば、オーバークラウドが各ロール (Controller および Compute) に 3 つずつノードをデプロイするように設定するには、parameter_defaults
に以下の設定を追加します。
parameter_defaults: ControllerCount: 3 ComputeCount: 3 OvercloudControlFlavor: control OvercloudComputeFlavor: compute
Heat テンプレートのパラメーター のより詳細な一覧は、『 director のインストールと使用方法』 ガイドの 「CLI ツールを使用したオーバークラウドの作成 」 を参照してください。
3.4. Ceph Storage を使用する Red Hat OpenStack Platform 向けの Ceph コンテナー
外部の Ceph クラスターを使用する場合でも、Red Hat OpenStack Platform(RHOSP)が Ceph を使用するように設定するには、Ceph コンテナーが必要です。Red Hat Enterprise Linux 8 と互換性を持たせるには、RHOSP 16.0 には Red Hat Ceph Storage 4 が必要です。Ceph Storage 4 コンテナーは、registry.redhat.io (認証が必要なレジストリー) でホストされます。
「 Container image preparation parameters 」で説明されているように、heat 環境パラメーター ContainerImageRegistryCredentials
を使用して registry.redhat.io
で認証することができます。
3.5. オーバークラウドのデプロイ
アンダークラウドのインストール時に、undercloud.conf
ファイルに generate_service_certificate=false
を設定します。設定しない場合は、オーバークラウドのデプロイ時にトラストアンカーを挿入する必要があります。トラストアンカーの挿入方法についての詳細は、『 オーバークラウドの 高度なカスタマイズ』 ガイドの「オーバークラウドのパブリックエンドポイントでの SSL/TLS の有効化 」を参照してください。
オーバークラウドの作成には、openstack overcloud deploy
コマンドに追加の引数を指定する必要があります。以下に例を示します。
$ openstack overcloud deploy --templates \ -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml \ -e /home/stack/templates/ceph-config.yaml \ -e --ntp-server pool.ntp.org \
上記のコマンドは、以下のオプションを使用します。
-
--templates
: デフォルトの Heat テンプレートコレクション (/usr/share/openstack-tripleo-heat-templates/
) からオーバークラウドを作成します。 -
-e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml
: 既存の Ceph クラスターをオーバークラウドに統合するように director を設定します。 -
-e /home/stack/templates/ceph-config.yaml
:-e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml
の設定するデフォルトを上書きするためのカスタム環境ファイルを追加します。ここでは、「3章既存の Ceph Storage クラスターとの統合」で作成したカスタム環境ファイルです。 -
--ntp-server pool.ntp.org
: NTP サーバーを設定します。
前述のように、NFS バックエンドに CephFS を使用する Shared File Systems と共にオーバークラウドをデプロイするには、追加の manila-cephfsganesha-config.yaml
環境ファイルが必要です。
さらに、カスタムの Controller ロールをデプロイして、Ganesha CephFS を NFS ゲートウェイで実行し、分離された StorageNFS ネットワークを設定して、ファイル共有をクライアントに提供する必要があります。
この設定では、openstack overcloud deploy
コマンドの形式は以下のようになります。
$ openstack overcloud deploy --templates \ -n /usr/share/openstack-tripleo-heat-templates/network_data_ganesha.yaml \ -r /home/stack/custom_roles.yaml \ -e /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml \ -e /usr/share/openstack-tripleo-heat-templates/environments/manila-cephfsganesha-config.yaml \ -e /home/stack/templates/ceph-config.yaml \ -e --ntp-server pool.ntp.org
カスタムの ceph-config.yaml
環境ファイルは、ceph-ansible-external.yaml
ファイルおよび manila-cephfsganesha-config.yaml
ファイルのパラメーターを上書きします。したがって、ceph-ansible-external.yaml
および manila-cephfsganesha-config.yaml
の後に、デプロイメントコマンドにカスタムの ceph-config.yaml
環境ファイルを追加します。
StorageNFS ネットワークおよび NFS バックエンドに CephFS を使用する Shared File Systems のデプロイに必要なカスタム Controller ロールに関する情報は、「 Deploying the updated environment 」を参照してください。
アンサーファイルを使用して、すべてのテンプレートおよび環境ファイルを呼び出すこともできます。たとえば、以下のコマンドを使用して、同一のオーバークラウドをデプロイすることができます。
$ openstack overcloud deploy \ --answers-file /home/stack/templates/answers.yaml \ --ntp-server pool.ntp.org
この場合、アンサーファイル /home/stack/templates/answers.yaml
の内容は以下のようになります。
templates: /usr/share/openstack-tripleo-heat-templates/ environments: - /usr/share/openstack-tripleo-heat-templates/environments/ceph-ansible/ceph-ansible-external.yaml \ - /home/stack/templates/ceph-config.yaml \
詳細は、「 オーバークラウドデプロイメントへの環境ファイルの追加」を 参照してください。
オプションの完全な一覧を表示するには、以下を実行します。
$ openstack help overcloud deploy
詳しくは、『 director のインストールと 使用方法』の「CLI ツールを使用した基本的なオーバークラウド の設定」を参照してください。
オーバークラウドの作成プロセスが開始され、director によりノードがプロビジョニングされます。このプロセスは完了するまで多少時間がかかります。オーバークラウドの作成のステータスを確認するには、stack
ユーザーとして別のターミナルを開き、以下を実行します。
$ source ~/stackrc $ openstack stack list --nested
この設定では、オーバークラウドが外部の Ceph Storage クラスターを使用するように設定します。このクラスターは、オーバークラウドから独立して、管理される点に注意してください。たとえば、Ceph Storage クラスターは、OpenStack Platform director ではなく Ceph 管理ツールを使用してスケーリングします。
第4章 オーバークラウドへのアクセス
director は、アンダークラウドからオーバークラウドと対話するための設定を行い、認証をサポートするスクリプトを作成します。director は、このファイル (overcloudrc
) を stack
ユーザーのホームディレクトリーに保存します。このファイルを使用するには、以下のコマンドを実行します。
$ source ~/overcloudrc
これにより、アンダークラウド CLI からオーバークラウドと対話するために必要な環境変数が読み込まれます。アンダークラウドとの対話に戻るには、以下のコマンドを実行します。
$ source ~/stackrc