OpenShift Container Storage is now OpenShift Data Foundation starting with version 4.9.
3.5. Cephadm を使用したクラスターのブートストラップとサービスのデプロイメント
cephadm ユーティリティーは、cephadm ブートストラップコマンドが実行されているローカルノード上に、新しい Red Hat Ceph Storage クラスターの単一の Ceph Monitor デーモンと Ceph Manager デーモンをインストールし、開始します。
ブートストラッププロセスの詳細については、Bootstrapping a new storage cluster を参照してください。
手順
次のように、json ファイルを使用してコンテナーレジストリーに対して認証を行うための json ファイルを作成します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow RHCS クラスターにノードを追加し、表 3.1 に従ってサービスを実行する場所に特定のラベルを設定する
cluster-spec.yamlを作成します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow ブートストラップノードから RHCS パブリックネットワークが設定されている NIC の IP を取得します。
10.0.40.0を ceph パブリックネットワークで定義したサブネットに置き換えた後、次のコマンドを実行します。ip a | grep 10.0.40
$ ip a | grep 10.0.40Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
10.0.40.78
10.0.40.78Copy to Clipboard Copied! Toggle word wrap Toggle overflow クラスター内の最初の Monitor ノードとなるノードで、root ユーザーとして
Cephadmbootstrap コマンドを実行します。IP_ADDRESSオプションは、cephadm bootstrapコマンドの実行に使用しているノードの IP アドレスです。注記パスワードなしの SSH アクセス用に
rootではなく別のユーザーを設定した場合は、cepadm bootstrapコマンドで--ssh-user=フラグを使用します。cephadm bootstrap --ssh-user=deployment-user --mon-ip 10.0.40.78 --apply-spec /root/cluster-spec.yaml --registry-json /root/registry.json
$ cephadm bootstrap --ssh-user=deployment-user --mon-ip 10.0.40.78 --apply-spec /root/cluster-spec.yaml --registry-json /root/registry.jsonCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要ローカルノードが完全修飾ドメイン名 (FQDN) を使用する場合は、コマンドラインで
--allow-fqdn-hostnameオプションをcephadm bootstrapに追加します。ブートストラップが終了すると、前の cephadm bootstrap コマンドから次の出力が表示されます。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph1 の Ceph CLI クライアントを使用して、Red Hat Ceph Storage クラスターデプロイメントのステータスを確認します。
ceph -s
$ ceph -sCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記すべてのサービスが開始されるまでに数分かかる場合があります。
osds が設定されていないときに、グローバルリカバリーイベントが発生するのは正常です。
ceph orch psおよびceph orch lsを使用して、サービスのステータスをさらに確認できます。すべてのノードが
cephadmクラスターの一部であるかどうかを確認します。ceph orch host ls
$ ceph orch host lsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記ceph1は [admin] グループの一部としてcephadm-ansibleインベントリーで設定されているため、ホストから Ceph コマンドを直接実行できます。Ceph 管理キーは、cephadm bootstrapプロセス中にホストにコピーされました。データセンターでの Ceph モニターサービスの現在の配置を確認します。
ceph orch ps | grep mon | awk '{print $1 " " $2}'$ ceph orch ps | grep mon | awk '{print $1 " " $2}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
mon.ceph1 ceph1 mon.ceph2 ceph2 mon.ceph4 ceph4 mon.ceph5 ceph5 mon.ceph7 ceph7
mon.ceph1 ceph1 mon.ceph2 ceph2 mon.ceph4 ceph4 mon.ceph5 ceph5 mon.ceph7 ceph7Copy to Clipboard Copied! Toggle word wrap Toggle overflow データセンターでの Ceph 管理サービスの現在の配置を確認します。
ceph orch ps | grep mgr | awk '{print $1 " " $2}'$ ceph orch ps | grep mgr | awk '{print $1 " " $2}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
mgr.ceph2.ycgwyz ceph2 mgr.ceph5.kremtt ceph5
mgr.ceph2.ycgwyz ceph2 mgr.ceph5.kremtt ceph5Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph osd クラッシュマップレイアウトをチェックして、各ホストに 1 つの OSD が設定され、そのステータスが
UPであることを確認します。また、表 3.1 で指定されているように、各ノードが適切なデータセンターバケットの下にあることを再確認してください。ceph osd tree
$ ceph osd treeCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 新しい RDB ブロックプールを作成して有効にします。
ceph osd pool create rbdpool 32 32 ceph osd pool application enable rbdpool rbd
$ ceph osd pool create rbdpool 32 32 $ ceph osd pool application enable rbdpool rbdCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記コマンドの最後にある 32 という数字は、このプールに割り当てられている PG の数です。PG の数は、クラスター内の OSD の数、プールの予想使用率など、いくつかの要因によって異なります。次の計算機を使用して、必要な PG の数を決定できます。プール計算機ごとの Ceph 配置グループ (PG)。
RBD プールが作成されたことを確認します。
ceph osd lspools | grep rbdpool
$ ceph osd lspools | grep rbdpoolCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
3 rbdpool
3 rbdpoolCopy to Clipboard Copied! Toggle word wrap Toggle overflow MDS サービスがアクティブであり、各データセンターに 1 つのサービスが配置されていることを確認します。
ceph orch ps | grep mds
$ ceph orch ps | grep mdsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
mds.cephfs.ceph3.cjpbqo ceph3 running (17m) 117s ago 17m 16.1M - 16.2.9 mds.cephfs.ceph6.lqmgqt ceph6 running (17m) 117s ago 17m 16.1M - 16.2.9
mds.cephfs.ceph3.cjpbqo ceph3 running (17m) 117s ago 17m 16.1M - 16.2.9 mds.cephfs.ceph6.lqmgqt ceph6 running (17m) 117s ago 17m 16.1M - 16.2.9Copy to Clipboard Copied! Toggle word wrap Toggle overflow CephFS ボリュームを作成します。
ceph fs volume create cephfs
$ ceph fs volume create cephfsCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記ceph fs volume createコマンドは、必要なデータとメタ CephFS プールも作成します。詳細については、Configuring and Mounting Ceph File Systems を参照してください。Cephのステータスを確認して、MDS デーモンがどのようにデプロイされたかを確認します。状態がアクティブで、ceph6がこのファイルシステムのプライマリー MDS で、ceph3がセカンダリー MDS であることを確認します。ceph fs status
$ ceph fs statusCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow RGW サービスがアクティブであることを確認します。
ceph orch ps | grep rgw
$ ceph orch ps | grep rgwCopy to Clipboard Copied! Toggle word wrap Toggle overflow 出力例:
rgw.objectgw.ceph3.kkmxgb ceph3 *:8080 running (7m) 3m ago 7m 52.7M - 16.2.9 rgw.objectgw.ceph6.xmnpah ceph6 *:8080 running (7m) 3m ago 7m 53.3M - 16.2.9
rgw.objectgw.ceph3.kkmxgb ceph3 *:8080 running (7m) 3m ago 7m 52.7M - 16.2.9 rgw.objectgw.ceph6.xmnpah ceph6 *:8080 running (7m) 3m ago 7m 53.3M - 16.2.9Copy to Clipboard Copied! Toggle word wrap Toggle overflow