ハイパーコンバージドインフラストラクチャーガイド
Red Hat OpenStack Platform オーバークラウドにおけるハイパーコンバージドインフラストラクチャー設定の理解
概要
第1章 Red Hat OpenStack Platform ハイパーコンバージドインフラストラクチャーの設定およびデプロイ リンクのコピーリンクがクリップボードにコピーされました!
1.1. ハイパーコンバージドインフラストラクチャーの概要 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) ハイパーコンバージドインフラストラクチャー (HCI) は、ハイパーコンバージドノードで構成されます。RHOSP HCI では、リソースの使用を最適化するために、コンピューティングサービスとストレージサービスがこれらのハイパーコンバージドノードに配置されます。ハイパーコンバージドノードのみのオーバークラウド、またはハイパーコンバージドノードを通常のコンピュートノードおよび Red Hat Ceph Storage ノードと混在させたオーバークラウドをデプロイすることが可能です。
Red Hat Ceph Storage をストレージプロバイダーとして使用する必要があります。
BlueStore のメモリー処理機能を利用するには、BlueStore を HCI デプロイメントのバックエンドとして使用します。
ハイパーコンバージドインフラストラクチャーは、director を使用した Red Hat Ceph および OpenStack のデプロイ で説明されているデプロイプロセスのバリエーションを使用して構築されます。このデプロイメントシナリオでは、RHOSP director は、director がオーバークラウドと呼ぶクラウド環境と Red Hat Ceph Storage をデプロイします。Ceph クラスターは、オーバークラウド設定とは別に管理およびスケーリングします。
Red Hat OpenStack Platform (RHOSP) HCI 環境をデプロイする際には、インスタンス HA を有効にしないでください。Red Hat Ceph Storage を使用したハイパーコンバージド RHOSP デプロイメントでインスタンス HA を使用する場合は、Red Hat の担当者にお問い合わせください。
HCI 設定のガイダンスは、設定ガイダンス を参照してください。
第2章 HCI ハードウェアの導入 リンクのコピーリンクがクリップボードにコピーされました!
このセクションには、ハイパーコンバージドノードの準備と設定に関する手順と情報が含まれています。
前提条件
- director を使用した Red Hat Ceph および OpenStack のデプロイ の オーバークラウドおよび Red Hat Ceph Storageのデプロイ を読んでいる。
2.1. Ceph Storage ノードのディスクのクリーニング リンクのコピーリンクがクリップボードにコピーされました!
Ceph Storage OSD とジャーナルパーティションには、ファクトリークリーンディスクが必要です。Ceph OSD サービスをインストールする前に、Bare Metal Provisioning サービス (ironic) によって、これらのディスクからすべてのデータとメタデータを消去する必要があります。
Bare Metal Provisioning サービスを使用して、デフォルトですべてのディスクデータとメタデータを削除するように、director を設定できます。director がこのタスクを実行するように設定されている場合、Bare Metal Provisioning サービスは、ノードが available に設定されるたびに、ノードを起動する追加の手順を実行します。
Bare Metal Provisioning サービスは、wipefs --force --all コマンドを使用します。このコマンドは、ディスク上のすべてのデータとメタデータを削除しますが、セキュアな消去は実行しません。Secure Erase には非常に長い時間がかかります。
手順
/home/stack/undercloud.confを開き、次のパラメーターを追加します。clean_nodes=true
clean_nodes=trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
/home/stack/undercloud.confを保存します。 アンダークラウド設定を更新します。
openstack undercloud install
openstack undercloud installCopy to Clipboard Copied! Toggle word wrap Toggle overflow
2.2. ノードの登録 リンクのコピーリンクがクリップボードにコピーされました!
director と通信できるように、ノードを登録します。
手順
-
/home/stackにノードインベントリー JSON ファイルを作成します。 ノードごとのハードウェアおよび電源管理の詳細を入力します。
以下に例を示します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 新しいファイルを保存します。
スタックユーザーを初期化します。
source ~/stackrc
$ source ~/stackrcCopy to Clipboard Copied! Toggle word wrap Toggle overflow JSON インベントリーファイルを director にインポートし、ノードを登録する
openstack overcloud node import <inventory_file>
$ openstack overcloud node import <inventory_file>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <inventory_file>を最初の手順で作成したファイルの名前に置き換えます。カーネルと ramdisk イメージを各ノードに割り当てます。
openstack overcloud node configure <node>
$ openstack overcloud node configure <node>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.3. 利用可能な Red Hat Ceph Storage パッケージの確認 リンクのコピーリンクがクリップボードにコピーされました!
オーバークラウドのデプロイの失敗を回避するために、必要なすべてのパッケージが利用可能であることを確認します。
2.3.1. cephadm パッケージのインストールの確認 リンクのコピーリンクがクリップボードにコピーされました!
cephadm パッケージが 1 つ以上のオーバークラウドノードにインストールされていることを確認します。cephadm パッケージは、Ceph Storage クラスターの最初のノードをブートストラップするために使用されます。
cephadm パッケージは overcloud-hardened-uefi-full.qcow2 イメージに含まれています。tripleo_cephadm ロールは、Ansible パッケージモジュールを使用して、イメージ内に存在することを確認します。
2.4. HCI 環境用のソフトウェアイメージのデプロイ リンクのコピーリンクがクリップボードにコピーされました!
HCI 環境用に設定されたノードは、overcloud-hardened-uefi-full.qcow2 ソフトウェアイメージを使用する必要があります。このソフトウェアイメージを使用するには、Red Hat OpenStack Platform (RHOSP) サブスクリプションが必要です。
手順
-
/home/stack/templates/overcloud-baremetal-deploy.yamlファイルを開きます。 overcloud-hardened-uefi-fullイメージを必要とするノードのimageプロパティーを追加または更新します。特定のノードで使用するイメージ、または特定のロールを使用するすべてのノードで使用するイメージを設定できます。特定のノード
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 特定のロール用に設定されたすべてのノード
Copy to Clipboard Copied! Toggle word wrap Toggle overflow roles_data.yamlロール定義ファイルで、rhsm_enforceパラメーターをFalseに設定します。rhsm_enforce: False
rhsm_enforce: FalseCopy to Clipboard Copied! Toggle word wrap Toggle overflow プロビジョニングコマンドを実行します。
openstack overcloud node provision \ --stack overcloud \ --output /home/stack/templates/overcloud-baremetal-deployed.yaml \ /home/stack/templates/overcloud-baremetal-deploy.yaml
(undercloud)$ openstack overcloud node provision \ --stack overcloud \ --output /home/stack/templates/overcloud-baremetal-deployed.yaml \ /home/stack/templates/overcloud-baremetal-deploy.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow -
overcloud-baremetal-deployed.yaml環境ファイルをopenstack overcloud deployコマンドに渡します。
2.5. HCI のノードの指定 リンクのコピーリンクがクリップボードにコピーされました!
HCI のノードを指定するには、新しいロールファイルを作成して ComputeHCI ロールを設定し、ComputeHCI のリソースクラスでベアメタルノードを設定する必要があります。
手順
-
アンダークラウドに
stackユーザーとしてログインします。 source コマンドで
stackrc認証情報ファイルを読み込みます。source ~/stackrc
[stack@director ~]$ source ~/stackrcCopy to Clipboard Copied! Toggle word wrap Toggle overflow ControllerロールとComputeHCIロールを含む、roles_data.yamlという名前の新しいロールデータファイルを生成します。openstack overcloud roles generate Controller ComputeHCI -o ~/roles_data.yaml
(undercloud)$ openstack overcloud roles generate Controller ComputeHCI -o ~/roles_data.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow roles_data.yamlを開き、次のパラメーターとセクションがあることを確認します。Expand セクション/パラメーター 値 ロールのコメント
Role: ComputeHCIロール名
name: ComputeHCIdescriptionHCI roleHostnameFormatDefault%stackname%-novaceph-%index%deprecated_nic_config_nameceph.yaml-
オーバークラウド用の ComputeHCI ノードをノード定義のテンプレート
node.jsonまたはnode.yamlに追加して、そのノードを登録します。 ノードのハードウェアを検査します。
openstack overcloud node introspect --all-manageable --provide
(undercloud)$ openstack overcloud node introspect --all-manageable --provideCopy to Clipboard Copied! Toggle word wrap Toggle overflow カスタム HCI リソースクラスを使用して、HCI 用に指定する各ベアメタルノードにタグを付けます。
openstack baremetal node set \ --resource-class baremetal.HCI <node>
(undercloud)$ openstack baremetal node set \ --resource-class baremetal.HCI <node>Copy to Clipboard Copied! Toggle word wrap Toggle overflow <node>をベアメタルノードの ID に置き換えてください。ComputeHCIロールを/home/stack/templates/overcloud-baremetal-deploy.yamlファイルに追加し、予測ノード配置、リソースクラス、またはノードに割り当てるその他の属性を定義します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow baremetal.yamlファイルを開き、HCI に必要なネットワーク設定が含まれていることを確認します。以下に設定例を示します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記ComputeHCIロールのネットワーク設定には、storage_mgmtネットワークが含まれています。CephOSD ノードは、このネットワークを使用してデータの冗長コピーを作成します。Computeロールのネットワーク設定には、このネットワークが含まれていません。詳細は、ベアメタルプロビジョニング を参照してください。
プロビジョニングコマンドを実行します。
openstack overcloud node provision \ --stack overcloud \ --output /home/stack/templates/overcloud-baremetal-deployed.yaml \ /home/stack/templates/overcloud-baremetal-deploy.yaml
(undercloud)$ openstack overcloud node provision \ --stack overcloud \ --output /home/stack/templates/overcloud-baremetal-deployed.yaml \ /home/stack/templates/overcloud-baremetal-deploy.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 別のターミナルでプロビジョニングの進捗をモニタリングします。
watch openstack baremetal node list
(undercloud)$ watch openstack baremetal node listCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記デフォルトでは、
watchコマンドは 2 秒ごとに更新されます。-nオプションは、更新タイマーを別の値に設定します。-
watchプロセスを停止するには、Ctrl-cを入力します。 -
検証: プロビジョニングが成功すると、ノードの状態が
availableからactiveに変わります。
2.6. マルチディスク Ceph クラスターのルートディスクの定義 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Storage ノードは通常、複数のディスクを使用します。Director は、複数のディスク設定でルートディスクを識別する必要があります。オーバークラウドイメージは、プロビジョニングプロセス中にルートディスクに書き込まれます。
ハードウェアプロパティーは、ルートディスクを識別するために使用されます。ルートディスクの識別に使用できるプロパティーの詳細は、「ルートディスクを識別するプロパティー」 を参照してください。
手順
各ノードのハードウェアイントロスペクションからのディスク情報を確認します。
openstack baremetal introspection data save <node_uuid> | --file <output_file_name>
(undercloud)$ openstack baremetal introspection data save <node_uuid> | --file <output_file_name>Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
<node_uuid>をノードの UUID に置き換えます。 <output_file_name>を、ノードイントロスペクションの出力を含むファイルの名前に置き換えます。たとえば、1 つのノードのデータで 3 つのディスクが表示される場合があります。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
-
一意のハードウェアプロパティーを使用して、ノードのルートディスクを設定します。
(undercloud)$ openstack baremetal node set --property root_device='{<property_value>}' <node-uuid>-
<property_value>を、ルートディスクの設定に使用するイントロスペクションデータからの一意のハードウェアプロパティー値に置き換えます。 <node_uuid>をノードの UUID に置き換えます。注記一意のハードウェアプロパティーは、ディスクを一意に識別するハードウェアイントロスペクションステップからの任意のプロパティーです。たとえば、次のコマンドは、ディスクのシリアル番号を使用してルートディスクを設定します。
(undercloud)$ openstack baremetal node set --property root_device='{"serial": "61866da04f380d001ea4e13c12e36ad6"}' 1a4e30da-b6dc-499d-ba87-0bd8a3819bc0
-
- 最初にネットワークから起動し、次にルートディスクから起動するように、各ノードの BIOS を設定します。
director は、ルートディスクとして使用する特定のディスクを把握します。openstack overcloud node provision コマンドを実行すると、director はオーバークラウドをプロビジョニングし、ルートディスクにオーバークラウドのイメージを書き込みます。
2.6.1. ルートディスクを識別するプロパティー リンクのコピーリンクがクリップボードにコピーされました!
以下の属性を定義すると、director がルートディスクを特定するのに役立ちます。
-
model(文字列): デバイスの ID -
vendor(文字列): デバイスのベンダー -
serial(文字列): ディスクのシリアル番号 -
hctl(文字列): SCSI のホスト、チャンネル、ターゲット、Lun -
size(整数): デバイスのサイズ (GB 単位) -
wwn(文字列): 一意のストレージ ID -
wwn_with_extension(文字列): ベンダー拡張子を追加した一意のストレージ ID -
wwn_vendor_extension(文字列): 一意のベンダーストレージ ID -
rotational(ブール値): 回転式デバイス (HDD) には true、そうでない場合 (SSD) には false -
name(文字列): デバイス名 (例: /dev/sdb1)
永続的な名前を持つデバイスには name プロパティーを使用します。ノードの起動時に値が変更される可能性があるため、name プロパティーを使用して永続的な名前を持たないデバイスのルートディスクを設定しないでください。
第3章 HCI 向けの Red Hat Ceph Storage クラスター名の設定 リンクのコピーリンクがクリップボードにコピーされました!
この章では、HCI 環境用に Red Hat Ceph Storage クラスターを設定およびデプロイする方法について説明します。
3.1. デプロイメントの前提条件 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage クラスターの設定とデプロイを試みる前に、以下が実行されていることを確認してください。
- Bare Metal Provisioning サービス (ironic) を使用したベアメタルインスタンスとそのネットワークのプロビジョニング。ベアメタルインスタンスのプロビジョニングについて、詳しくは ベアメタルのプロビジョニング を参照してください。
3.2. openstack overcloud ceph deploy コマンド リンクのコピーリンクがクリップボードにコピーされました!
director を使用して Ceph クラスターをデプロイする場合は、openstack overcloud ceph deploy コマンドを使用する必要があります。コマンドオプションおよびパラメーターの完全な一覧は、コマンドラインインターフェイスリファレンス の openstack overcloud ceph deploy を参照してください。
コマンド openstack overcloud ceph deploy --help は、環境で使用可能な現在のオプションとパラメーターを提供します。
3.3. HCI の Ceph 設定のオーバーライド リンクのコピーリンクがクリップボードにコピーされました!
標準形式の初期化ファイルは、Ceph クラスター設定のオプションです。この初期化ファイルは、cephadm bootstap --config <file_name> または openstack overcloud ceph deploy --config <file_name> コマンドで Ceph クラスターを設定するために使用されます。
ハイパーコンバージドノードに Ceph OSD と Compute サービスを配置すると、Red Hat Ceph Storage と Compute サービスの間でリソースの競合が発生するリスクがあります。これは、サービスがコロケーションを認識していないために発生します。リソースの競合によってサービスが低下し、ハイパーコンバージェンスの利点が相殺される可能性があります。
リソースの割り当ては、初期化ファイルを使用して調整し、リソースの競合を管理できます。以下では、initial-ceph.conf という初期化ファイルを作成し、openstack overcloud ceph deploy コマンドを使用して HCI デプロイメントを設定します。
osd_memory_target_autotune オプションが true に設定されているため、OSD デーモンは osd_memory_target オプションに基づいてメモリー消費を調整します。autotune_memory_target_ratio のデフォルトは 0.7 です。これは、システム内の合計 RAM の 70% が、自動調整されていない Ceph デーモンによって消費されるメモリーが差し引かれる開始点であることを示しています。次に、すべての OSD で osd_memory_target_autotune が true に設定されていると仮定して、残りのメモリーを OSD で分割します。HCI デプロイメントの場合、mgr/cephadm/autotune_memory_target_ratio を 0.2 に設定して、Compute サービスでより多くのメモリーを使用できるようにします。0.2 という値は慎重な開始点です。デプロイ後、必要に応じて ceph コマンドを使用してこの値を変更します。
2 つの NUMA ノードシステムは、レイテンシーの影響を受けやすい Nova ワークロードを 1 つの NUMA ノードでホストし、Ceph OSD ワークロードを別の NUMA ノードでホストできます。Compute ワークロードで使用されていない特定の NUMA ノードを使用するように Ceph OSD を設定するには、次の Ceph OSD 設定のいずれかを使用します。
-
osd_numa_nodeが numa ノードへのアフィニティーを設定する -
osd_numa_auto_affinityがストレージとネットワークが一致する NUMA ノードにアフィニティーを自動的に設定する
両方の NUMA ノードにネットワークインターフェイスがあり、ディスクコントローラーが NUMA ノード 0 である場合、ストレージネットワーク用に NUMA ノード 0 のネットワークインターフェイスを使用し、NUMA ノード 0 で Ceph OSD ワークロードをホストします。NUMA ノード 1 で Nova ワークロードをホストし、NUMA ノード 1 のネットワークインターフェイスを使用します。この設定を実現するには、osd_numa_auto_affinity を true に設定します。または、osd_numa_node を直接 0 に設定し、osd_numa_auto_affinity に値を設定せず、デフォルトで false に設定することもできます。
OSD がオフラインになった結果、ハイパーコンバージドクラスターがバックフィルされると、バックフィルプロセスが遅くなる可能性があります。回復が遅くなる代わりに、バックフィルアクティビティーは、コロケーションされたコンピューティングワークロードに与える影響が少なくなります。Red Hat Ceph Storage 5 には、バックフィルアクティビティーのレートを制御するための以下のデフォルトがあります。
-
osd_recovery_op_priority = 3 -
osd_max_backfills = 1 -
osd_recovery_max_active_hdd = 3 osd_recovery_max_active_ssd = 10注記これらのデフォルトはデフォルト値であるため、初期化ファイルで渡す必要はありません。初期設定にデフォルト以外の値が必要な場合は、デプロイメント前に必要な値を使用して初期化ファイルに追加します。デプロイ後、コマンド ceph config set osd を使用します。
3.4. Red Hat Ceph Storage クラスター名の設定 リンクのコピーリンクがクリップボードにコピーされました!
設定した名前で Red Hat Ceph Storage クラスターをデプロイできます。デフォルト名は ceph です。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 次のコマンドを使用して、Ceph Storage クラスターの名前を設定します。
openstack overcloud ceph deploy \ --cluster <cluster_name>$ openstack overcloud ceph deploy \ --cluster central \
キーリングファイルは、現時点では作成されません。キーリングファイルは、オーバークラウドのデプロイメント中に作成されます。キーリングファイルは、この手順で設定されたクラスター名を継承します。オーバークラウドのデプロイメントの詳細は、「HCI のオーバークラウドデプロイメントの開始」 を参照してください。
上記の例では、Ceph クラスターの名前は central です。central の Ceph クラスターの設定ファイルとキーリングファイルは、デプロイプロセス中に /etc/ceph に作成されます。
トラブルシューティング
Ceph Storage クラスターのカスタム名を設定すると、次のエラーが表示される場合があります。
monclient: get_monmap_and_config cannot identify monitors to contact because
このエラーが表示された場合は、Ceph のデプロイ後に次のコマンドを使用します。
cephadm shell --config <configuration_file> --keyring <keyring_file>
たとえば、クラスター名を central に設定したときにこのエラーが表示された場合は、次のコマンドを使用します。
cephadm shell --config /etc/ceph/central.conf \
--keyring /etc/ceph/central.client.admin.keyring
cephadm shell --config /etc/ceph/central.conf \
--keyring /etc/ceph/central.client.admin.keyring
代わりに次のコマンドを使用することもできます。
cephadm shell --mount /etc/ceph:/etc/ceph export CEPH_ARGS='--cluster central'
cephadm shell --mount /etc/ceph:/etc/ceph
export CEPH_ARGS='--cluster central'
3.5. ネットワークデータファイルを使用したネットワークオプションの設定 リンクのコピーリンクがクリップボードにコピーされました!
ネットワークデータファイルには、Red Hat Ceph Storage クラスターが使用するネットワークが記述されています。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 network_data.yamlというカスタムネットワーク属性を定義する YAML 形式のファイルを作成します。重要ネットワーク分離を使用すると、標準のネットワークデプロイメントは、2 つの Ceph ネットワークにマッピングされる 2 つのストレージネットワークで構成されます。
-
ストレージネットワーク
storageは、Ceph ネットワークpublic_networkにマップされます。このネットワークは、コンピュートノードから Ceph クラスターへの RBD トラフィックなどのストレージトラフィックを処理します。 -
ストレージネットワーク
storage_mgmtは、Ceph ネットワークcluster_networkにマップされます。このネットワークは、Ceph OSD 間のデータレプリケーションなどのストレージ管理トラフィックを処理します。
-
ストレージネットワーク
openstack overcloud ceph deployコマンドと--configオプションを使用して、設定をデプロイします。openstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --network-data network_data.yamlopenstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --network-data network_data.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 重要openstack overcloud ceph deployコマンドは、--network-dataオプションで指定されたネットワークデータファイルを使用して、public_networkおよびcluster_networkとして使用するネットワークを決定します。コマンドは、--public-network-nameおよび--cluster-network-nameオプションで別の名前が指定されていない限り、これらのネットワークがネットワークデータファイルでstorageおよびstorage_mgmtという名前であると想定します。ネットワーク分離を使用してデプロイする場合は、
--network-dataオプションを使用する必要があります。このオプションを使用しない場合、デフォルトのアンダークラウド (192.168.24.0/24) がpublic_networkとcluster_networkの両方に使用されます。
3.6. 設定ファイルを使用したネットワークオプションの設定 リンクのコピーリンクがクリップボードにコピーされました!
ネットワークオプションは、ネットワークデータファイルの代わりに設定ファイルで指定できます。
この方法を使用してネットワークオプションを設定すると、network_data.yaml で自動的に生成された値が上書きされます。このネットワーク設定方法を使用する場合は、必ず 4 つの値をすべて設定してください。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 - Ceph クラスターを設定する標準形式の初期化ファイルを作成します。他の設定オプションを含むファイルをすでに作成している場合は、それにネットワーク設定を追加できます。
ファイルの
[global]セクションに次のパラメーターを追加します。-
public_network -
cluster_network ms_bind_ipv4重要public_networkおよびcluster_networkがstorageおよびstorage_mgmtと同じネットワークにマップされていることを確認します。以下は、複数のサブネットとカスタムネットワーク名を持つネットワーク設定の設定ファイルエントリーの例です。
[global] public_network = 172.16.14.0/24,172.16.15.0/24 cluster_network = 172.16.12.0/24,172.16.13.0/24 ms_bind_ipv4 = True ms_bind_ipv6 = False
[global] public_network = 172.16.14.0/24,172.16.15.0/24 cluster_network = 172.16.12.0/24,172.16.13.0/24 ms_bind_ipv4 = True ms_bind_ipv6 = FalseCopy to Clipboard Copied! Toggle word wrap Toggle overflow
-
コマンド
openstack overcloud ceph deployを--configオプションとともに使用して、設定ファイルをデプロイします。openstack overcloud ceph deploy \ --config initial-ceph.conf --network-data network_data.yaml
$ openstack overcloud ceph deploy \ --config initial-ceph.conf --network-data network_data.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.7. OSD の CRUSH 階層の設定 リンクのコピーリンクがクリップボードにコピーされました!
OSD デプロイメント中にカスタム Controlled Replication Under Scalable Hashing (CRUSH) 階層を設定して、OSD location 属性を Ceph Storage クラスター hosts 仕様に追加できます。location 属性は、OSD が CRUSH 階層内のどこに配置されるかを設定します。
location 属性は、最初の CRUSH ロケーションのみを設定します。その後の属性変更は無視されます。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 stackrcアンダークラウド認証情報ファイルを入手します。$ source ~/stackrc-
カスタム CRUSH 階層を定義する設定ファイルを作成します (例:
crush_hierarchy.yaml)。 そのファイルに以下の設定を追加します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
<osd_host>を、OSD がデプロイされているノードのホスト名 (ceph-0など) に置き換えます。 -
<rack_num>を、OSD がデプロイメントされているラックの番号 (r0など) に置き換えます。
-
カスタム OSD レイアウトを使用して Ceph クラスターをデプロイします。
openstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --osd-spec osd_spec.yaml \ --crush-hierarchy crush_hierarchy.yamlopenstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --osd-spec osd_spec.yaml \ --crush-hierarchy crush_hierarchy.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
Ceph クラスターは、カスタム OSD レイアウトで作成されます。
上記のサンプルファイルは、次の OSD レイアウトになります。
デバイスクラスは Ceph によって自動的に検出されますが、CRUSH ルールはプールに関連付けられています。プールは、引き続きオーバークラウドのデプロイメント中に CephCrushRules パラメーターを使用して定義および作成されます。
関連情報
詳細は、Red Hat Ceph Storage インストールガイド の Red Hat Ceph Storage ワークロードの考慮事項 を参照してください。
3.8. Ceph サービス配置オプションの設定 リンクのコピーリンクがクリップボードにコピーされました!
カスタムロールファイルを使用して、どのノードがどの Ceph サービスを実行するかを定義できます。カスタムロールファイルは、環境が理由でデフォルトのロール割り当てが使用されない場合にのみ必要です。たとえば、ハイパーコンバージドノードをデプロイする場合、事前にデプロイされたコンピュートノードは、サービスタイプが osd の osd としてラベル付けされ、コンピュートインスタンスのリストを含む配置リストを持つ必要があります。
roles_data.yaml ファイルのサービス定義は、どのベアメタルインスタンスがどのサービスを実行するかを決定します。デフォルトでは、Controller ロールには CephMon および CephMgr サービスがあり、CephStorage ロールには CephOSD サービスがあります。ほとんどのコンポーザブルサービスとは異なり、Ceph サービスでは、サービスの設定方法を決定するために heat 出力は必要ありません。デプロイされた Ceph プロセスが Heat の実行前に発生する場合でも、roles_data.yaml ファイルが常に Ceph サービスの配置を決定します。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 - カスタムロールを定義する YAML 形式のファイルを作成します。
設定ファイルをデプロイします。
openstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --roles-data custom_roles.yaml$ openstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --roles-data custom_roles.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
3.9. Ceph ノードの SSH ユーザーオプションの設定 リンクのコピーリンクがクリップボードにコピーされました!
openstack overcloud ceph deploy コマンドはユーザーとキーを作成し、それらをホストに配布するため、このセクションの手順を実行する必要はありません。ただし、これはサポート対象のオプションです。
Cephadm は、SSH を使用してすべての管理対象のリモート Ceph ノードに接続します。Red Hat Ceph Storage クラスターのデプロイメントプロセスにより、すべてのオーバークラウド Ceph ノードでアカウントと SSH キーのペアが作成されます。その後、鍵ペアが Cephadm に渡され、ノードと通信できるようになります。
3.9.1. Red Hat Ceph Storage クラスター作成前の SSH ユーザーの作成 リンクのコピーリンクがクリップボードにコピーされました!
openstack overcloud ceph user enable コマンドを使用して、Ceph クラスターを作成する前に SSH ユーザーを作成できます。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 SSH ユーザーを作成します。
$ openstack overcloud ceph user enable注記デフォルトのユーザー名は
ceph-adminです。別のユーザー名を指定するには、--cephadm-ssh-userオプションを使用して別のユーザー名を指定します。openstack overcloud ceph user enable --cephadm-ssh-user <custom_user_name>--cephadm-ssh-userパラメーターを使用せずに、デフォルト名を使用することが推奨されます。ユーザーが事前に作成されている場合は、
openstack overcloud ceph deployを実行するときにパラメーター--skip-user-createを使用します。
3.9.2. SSH ユーザーの無効化 リンクのコピーリンクがクリップボードにコピーされました!
SSH ユーザーを無効にすると、Cephadm が無効になります。Cephadm を無効にすると、Ceph クラスターを管理するサービスの機能が削除され、関連するコマンドが機能しなくなります。また、Ceph ノードのオーバークラウドのスケーリング操作も防ぎます。また、すべての公開および秘密 SSH キーも削除されます。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 コマンド
openstack overcloud ceph user disable --fsid <FSID> ceph_spec.yamlを使用して、SSH ユーザーを無効にします。注記FSID は、
deployed_ceph.yaml環境ファイルにあります。重要Cephadm を無効にする必要がない限り、
openstack overcloud ceph user disableコマンドは推奨しません。重要無効にした SSH ユーザーと Cephadm サービスを有効にするには、
openstack overcloud ceph user enable --fsid <FSID> ceph_spec.yamlコマンドを使用します。注記このコマンドでは、以下を判別するために Ceph 仕様ファイルへのパスが必要です。
- SSH ユーザーを必要とするホスト。
- _admin ラベルがあり、プライベート SSH キーを必要とするホスト。
- 公開 SSH キーを必要とするホスト。
仕様ファイルとその生成方法の詳細は、サービス仕様の生成を参照してください。
3.10. Ceph Storage コンテナーへのアクセス リンクのコピーリンクがクリップボードにコピーされました!
コンテナー化サービスへの移行 ガイドの コンテナーイメージの取得と変更 には、コンテナーイメージを使用するためにレジストリーとアンダークラウドおよびオーバークラウド設定を準備する方法に関する手順と情報が含まれています。このセクションの情報を使用して、これらの手順を Ceph Storage コンテナーにアクセスするように調整します。
オーバークラウドから Ceph Storage コンテナーにアクセスするには 2 つのオプションがあります。
3.10.1. アンダークラウド上のコンテナーのキャッシュ リンクのコピーリンクがクリップボードにコピーされました!
準備中のイメージの変更 手順では、次のコマンドの使用について説明しています。
sudo openstack tripleo container image prepare \ -e ~/containers-prepare-parameter.yaml \
sudo openstack tripleo container image prepare \
-e ~/containers-prepare-parameter.yaml \
リモートレジストリーからのコンテナーの直接ダウンロードで説明されているように、--container-image-prepare オプションを使用しないで openstack overcloud ceph deploy コマンドに認証認証情報を提供し、リモートレジストリーから Ceph コンテナーを直接ダウンロードする場合は、Ceph をデプロイする前に sudo openstack tripleo container image prepare コマンドを実行する必要があります。
3.10.2. リモートレジストリーからコンテナーを直接ダウンロードする リンクのコピーリンクがクリップボードにコピーされました!
リモートレジストリーからコンテナーを直接ダウンロードするように Ceph を設定できます。
手順
-
コンテナーイメージの準備 の手順を使用して、
containers-prepare-parameter.yamlファイルを作成します。 -
プライベートレジストリーからコンテナーイメージを取得する の説明に従って、
ContainerImageRegistryCredentialsパラメーターを使用して、リモートレジストリーの認証情報をcontainers-prepare-parameter.yamlファイルに追加します。 Ceph をデプロイするときは、
openstack overcloud ceph deployコマンドを使用して、containers-prepare-parameter.yamlファイルを渡します。openstack overcloud ceph deploy \ --container-image-prepare containers-prepare-parameter.yamlopenstack overcloud ceph deploy \ --container-image-prepare containers-prepare-parameter.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 注記アンダークラウドでのコンテナーのキャッシュ で説明されているように、アンダークラウドでコンテナーをキャッシュしない場合は、Ceph をデプロイするときに同じ
containers-prepare-parameter.yamlファイルをopenstack overcloud ceph deployコマンドに渡す必要があります。これにより、コンテナーがアンダークラウドにキャッシュされます。
結果
Containers-prepare-parameter.yaml 内の認証情報は、cephadm コマンドによってリモートレジストリーに対する認証と Ceph Storage コンテナーのダウンロードに使用されます。
第4章 HCI 用の Red Hat Ceph Storage クラスターのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) director はデフォルト設定を使用して、コンテナー化された Red Hat Ceph Storage をデプロイします。Ceph Storage をカスタマイズするには、デフォルト設定を上書きします。
前提条件
- サーバーが展開され、そのストレージネットワークが設定されます。
-
openstack overcloud node provision -o ~/deployed_metal.yaml …による出力としてデプロイされたベアメタルファイル。
4.1. 設定オプション リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage クラスターを設定するには、複数のオプションがあります。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 オプション: 標準形式の初期化 (ini) ファイルを使用して Ceph クラスターを設定します。
設定オプションを含むファイルを作成します。
以下は、単純な設定ファイルの例です。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 設定ファイルを作成します。
openstack overcloud ceph deploy --config <configuration_file_name>コマンドを使用して設定をデプロイします。<configuration_file_name>を作成したファイルの名前に置き換えます。openstack overcloud ceph deploy --config initial-ceph.conf
$ openstack overcloud ceph deploy --config initial-ceph.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow
オプション: 設定値を
cephadm bootstrapコマンドに送信します。openstack overcloud ceph deploy --force \ --cephadm-extra-args '<optional_arguments>' \<optional_arguments>を設定値に置き換えて、基になるコマンドに提供します。注記引数
--log-to-fileおよび--skip-prepare-hostを使用する場合は、コマンドopenstack overcloud ceph deploy --force \ --cephadm-extra-args '--log-to-file --skip-prepare-host' \が使用されます。
4.2. サービス仕様の生成 (オプション) リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage クラスターサービス仕様は、Ceph Storage サービスのデプロイメントを記述する YAML ファイルです。Ceph Storage クラスターがデプロイされる前に、tripleo によって自動的に生成されます。通常は、個別に生成する必要はありません。
カスタムサービス仕様を作成して、Red Hat Ceph Storage クラスターをカスタマイズできます。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 仕様ファイルを生成します。
openstack overcloud ceph spec -o '<specification_file>'<specification_file>を現在のサービス仕様で生成するファイルの名前に置き換えます。openstack overcloud ceph spec -o '~/ceph_spec.yaml'- 生成されたファイルを編集して必要な設定を追加します。
カスタムサービス仕様をデプロイします。
openstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --ceph-spec <specification_file><specification_file>をカスタムサービス仕様ファイルの名前に置き換えます。openstack overcloud ceph deploy \ deployed_metal.yaml \ -o deployed_ceph.yaml \ --ceph-spec ~/ceph_spec.yaml
4.3. Red Hat OpenStack Platform と Red Hat Ceph Storage の Ceph コンテナー リンクのコピーリンクがクリップボードにコピーされました!
NFS Ganesha で Red Hat Ceph Storage を使用するように、Red Hat Openstack Platform (RHOSP) を設定するには、Ceph Storage コンテナーが必要です。外部 Ceph Storage クラスターがブロック (RBD 経由)、オブジェクト (RGW 経由)、またはファイル (ネイティブ CephFS 経由) ストレージのみを提供する場合、Ceph Storage コンテナーは不要です。
RHOSP 17.0 では、Red Hat Enterprise Linux 9 と互換性を保つために、Red Hat Ceph Storage 5.x (Ceph パッケージ 16.x) 以降が必要です。Ceph Storage 5.x コンテナーは、認証が必要なレジストリーである registry.redhat.io でホスティングされます。詳細は コンテナーイメージを準備するためのパラメーター を参照してください。
4.4. 高度な OSD 仕様の設定 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトの仕様では、Ceph Storage クラスターに必要な機能が提供されない場合、高度な OSD 仕様を設定します。
手順
-
アンダークラウドノードに
stackユーザーとしてログインします。 高度な OSD 仕様を定義する YAML 形式のファイルを作成します。
以下は、カスタム OSD 仕様の例です。
data_devices: rotational: 1 db_devices: rotational: 0
data_devices: rotational: 1 db_devices: rotational: 0Copy to Clipboard Copied! Toggle word wrap Toggle overflow この例では、すべてのローテーションデバイスがデータデバイスになり、すべての非ローテーションデバイスが共有デバイスとして使用される OSD 仕様を作成します。動的 Ceph サービス仕様が構築されると、
service_typeがosdの場合、仕様ファイルにあるものは、すべて仕様のセクションに追加されます。- 仕様ファイルを保存します。
仕様をデプロイします。
openstack overcloud ceph deploy \ --osd-spec <osd_specification_file><osd_specification_file>を作成した仕様ファイルの名前に置き換えます。$ openstack overcloud ceph deploy \ --osd-spec osd_spec.yaml \
関連情報
サービス仕様で OSD を設定するために使用される OSD 関連の属性のリストは、Red Hat Ceph Storage 操作ガイド の OSD をデプロイするための高度なサービス仕様およびフィルター を参照してください。
4.5. ノード固有のオーバーライドからの移行 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform 17.0 より前は、ノード固有のオーバーライドを使用して、同種ではないサーバーハードウェアを管理していました。これは、カスタム OSD 仕様ファイルで実行されるようになりました。カスタム OSD 仕様ファイルの作成方法は、高度な OSD 仕様の設定 を参照してください。
4.6. Ceph 伝送時暗号化の有効化 リンクのコピーリンクがクリップボードにコピーされました!
メッセンジャーバージョン 2 プロトコルの secure mode を使用して、すべての Ceph Storage トラフィックの暗号化を有効にします。Red Hat Ceph Storage データセキュリティーおよび強化 ガイドの 暗号化と鍵管理 の説明に従って、Ceph Storage を設定し、Ceph オンワイヤー暗号化を有効にします。
関連情報
Ceph 伝送時暗号化に関する詳しい情報は、Red Hat Ceph Storage アーキテクチャーガイド の Ceph on-wire encryption を参照してください。
第5章 HCI のストレージサービスのカスタマイズ リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) director は、基本的な Ceph Storage 設定を有効にするために必要な heat テンプレートと環境ファイルを提供します。
Director は /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm.yaml 環境ファイルを使用して、openstack overcloud ceph deploy によってデプロイされた Ceph クラスターに追加設定を追加します。
RHOSP のコンテナー化されたサービスに関する詳細は、director のインストールと使用方法 の CLI ツールを使用した基本的なオーバークラウドの設定 を参照してください。
5.1. HCI のコンピューティングサービスリソースの設定 リンクのコピーリンクがクリップボードにコピーされました!
ハイパーコンバージドノードに Ceph OSD と Compute サービスを配置すると、Red Hat Ceph Storage と Compute サービスの間でリソースの競合が発生するリスクがあります。これは、サービスがコロケーションを認識していないために発生します。リソースの競合によってサービスが低下し、ハイパーコンバージェンスの利点が相殺される可能性があります。
Compute サービスが使用するリソースを設定すると、リソースの競合が軽減され、HCI のパフォーマンスが向上します。
手順
- アンダークラウドホストに stack ユーザーとしてログインします。
stackrc アンダークラウド認証情報ファイルを入手します。
source ~/stackrc
$ source ~/stackrcCopy to Clipboard Copied! Toggle word wrap Toggle overflow NovaReservedHostMemoryパラメーターを ceph-overrides.yamlファイルに追加します。以下は使用例です。parameter_defaults: ComputeHCIParameters: NovaReservedHostMemory: 75000parameter_defaults: ComputeHCIParameters: NovaReservedHostMemory: 75000Copy to Clipboard Copied! Toggle word wrap Toggle overflow
NovaReservedHostMemory パラメーターは、/etc/nova/nova.conf の reserved_host_memory_mb のデフォルト値をオーバーライドします。このパラメーターは、Ceph OSD が必要とするメモリーを仮想マシンに与える Nova スケジューラーを停止するように設定されます。
上記の例では、ハイパーバイザー用にデフォルトで予約されているメモリーに加えて、ホストごとに 10 OSD 用に OSD ごとに 5 GB を予約しています。IOPS 最適化クラスターでは、OSD ごとにより多くのメモリーを予約することで、パフォーマンスを向上させることができます。5 GB の数値は、必要に応じてさらに絞り込むことができる開始点として提供されます。
openstack overcloud deploy コマンドを使用するときに、このファイルを含めます。
5.2. カスタム環境ファイルの設定 リンクのコピーリンクがクリップボードにコピーされました!
Director は、デプロイされた Red Hat Ceph Storage クラスターに基本的なデフォルト設定を適用します。カスタム環境ファイルで追加の設定を定義する必要があります。
手順
-
アンダークラウドに
stackユーザーとしてログインします。 カスタム設定を定義するファイルを作成します。
vi /home/stack/templates/storage-config.yaml-
ファイルに
parameter_defaultsセクションを追加します。 カスタム設定パラメーターを追加します。パラメーター定義の詳細は、オーバークラウドのパラメーター を参照してください。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注記カスタム設定ファイルで定義されたパラメーターは、
/usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm.yamlの対応するデフォルト設定をオーバーライドします。- ファイルを保存します。
関連情報
カスタム設定は、オーバークラウドのデプロイ中に、適用されます。
5.3. Ceph Metadata Server の有効化 リンクのコピーリンクがクリップボードにコピーされました!
Ceph Metadata Server (MDS) は ceph-mds デーモンを実行します。このデーモンは、CephFS に保存されているファイルに関連するメタデータを管理します。CephFS は、ネイティブまたは NFS プロトコルで使用できます。
Red Hat は、Shared File Systems サービス (manila) のネイティブ CephFS および CephFS NFS バックエンドを使用した Ceph MDS のデプロイをサポートしています。
手順
Ceph MDS を有効にするには、オーバークラウドのデプロイ時、以下の環境ファイルを使用します。
/usr/share/openstack-tripleo-heat-templates/environments/cephadm/ceph-mds.yaml
/usr/share/openstack-tripleo-heat-templates/environments/cephadm/ceph-mds.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow
デフォルトでは、Ceph MDS はコントローラーノードにデプロイされます。Ceph MDS を独自の専用ノードにデプロイできます。
関連情報
5.4. Ceph Object Gateway オブジェクトストレージ リンクのコピーリンクがクリップボードにコピーされました!
Ceph Object Gateway (RGW) は、Red Hat Ceph Storage クラスター内のオブジェクトストレージ機能にアクセスするためのインターフェイスを提供します。
director を使用して、Ceph をデプロイすると、director は RGW を自動的に有効にします。これは、Object Storage サービス (swift) を直接置き換えるものです。通常、Object Storage サービスを使用するサービスは、追加の設定なしで、代わりに RGW を使用できます。Object Storage サービスは、アップグレードされた Ceph クラスターのオブジェクトストレージオプションとして引き続き利用できます。
個別の RGW 環境ファイルを有効にする必要はありません。その他のオブジェクトストレージオプションの環境ファイルの詳細は、「Red Hat OpenStack Platform オブジェクトストレージのデプロイメントオプション」 を参照してください。
デフォルトでは、Ceph Storage は Object Storage Daemon (OSD) ごとに 250 の配置グループを許可します。RGW を有効にすると、Ceph Storage は RGW に必要な次の 6 つの追加プールを作成します。
-
.rgw.root -
<zone_name>.rgw.control -
<zone_name>.rgw.meta -
<zone_name>.rgw.log -
<zone_name>.rgw.buckets.index -
<zone_name>.rgw.buckets.data
デプロイメントでは、<zone_name> は、プールが属するゾーンの名前に置き換えられます。
関連情報
- RGW の詳細は、Red Hat Ceph Storage Object Gateway ガイド を参照してください。
- Swift の代わりに RGW を使用する方法の詳細は、Block Storage バックアップガイド を参照してください。
5.5. Red Hat OpenStack Platform オブジェクトストレージのデプロイメントオプション リンクのコピーリンクがクリップボードにコピーされました!
オーバークラウドのオブジェクトストレージをデプロイするには、3 つのオプションがあります。
Ceph オブジェクトゲートウェイ (RGW)
「Ceph Object Gateway オブジェクトストレージ」 の説明に従って、RGW をデプロイするには、オーバークラウドのデプロイ時、以下の環境ファイルを含めます。
-e environments/cephadm/cephadm.yaml
-e environments/cephadm/cephadm.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow この環境ファイルは、Ceph ブロックストレージ (RBD) と RGW の両方を設定します。
Object Storage サービス (swift)
RGW ではなく、Object Storage サービス (swift) をデプロイするには、オーバークラウドのデプロイ時、以下の環境ファイルを含めます。
-e environments/cephadm/cephadm-rbd-only.yaml
-e environments/cephadm/cephadm-rbd-only.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm-rbd-only.yamlファイルは Ceph RBD を設定しますが、RGW は設定しません。注記Red Hat Ceph Storage クラスターをアップグレードする前に、Object Storage サービス (swift) を使用した場合は、アップグレード中に、
environments/ceph-ansible/ceph-ansible.yamlファイルをenvironment/cephadm/cephadm-rbd-only.yamlに置き換えると、RGW ではなく、Object Storage サービス (swift) を引き続き使用できます。詳細は、Keeping Red Hat OpenStack Platform Updated を参照してください。Red Hat OpenStack Platform は、Object Storage サービス (swift) から Ceph Object Gateway (RGW) への移行をサポートしていません。
オブジェクトストレージなし
RGW または Object Storage サービス (swift) ではなく、RBD で Ceph をデプロイするには、オーバークラウドのデプロイ時、以下の環境ファイルを含めます。
-e environments/cephadm/cephadm-rbd-only.yaml -e environments/disable-swift.yaml
-e environments/cephadm/cephadm-rbd-only.yaml -e environments/disable-swift.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow cephadm-rbd-only.yamlファイルは RBD を設定しますが、RGW は設定しません。disable-swift.yamlファイルは、Object Storage サービス (swift) がデプロイされないようにします。
5.6. Ceph を使用するための Block Storage Backup Service の設定 リンクのコピーリンクがクリップボードにコピーされました!
Block Storage Backup サービス (cinder-backup) はデフォルトで無効になっています。Ceph で使用するには、有効にする必要があります。
手順
Block Storage Backup サービス (cinder-backup) を有効にするには、オーバークラウドのデプロイ時、以下の環境ファイルを使用します。
`/usr/share/openstack-tripleo-heat-templates/environments/cinder-backup.yaml`.
`/usr/share/openstack-tripleo-heat-templates/environments/cinder-backup.yaml`.
5.7. Ceph ノード向けの複数のボンディングされたインターフェイスの設定 リンクのコピーリンクがクリップボードにコピーされました!
ボンディングされたインターフェイスを使用して、複数の NIC を組み合わせ、ネットワーク接続に冗長性を追加します。Ceph ノードに十分な NIC がある場合には、各ノードに複数のボンディングされたインターフェイスを作成して冗長化機能を拡張することができます。
ノードが必要とするネットワーク接続ごとに結合インターフェイスを使用します。これにより、冗長性と各ネットワーク専用の接続の両方が提供されます。
詳細および手順は、director のインストールおよび使用方法 ガイドの オーバークラウドネットワークのプロビジョニング を参照してください。
5.8. HCI のオーバークラウドデプロイメントの開始 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenStack Platform (RHOSP) 環境に加えた変更を実装するには、オーバークラウドをデプロイする必要があります。
前提条件
-
アンダークラウドのインストール前に、
undercloud.confファイルにgenerate_service_certificate=falseを設定します。それ以外の場合は、セキュリティーおよび強化ガイド の オーバークラウドのパブリックエンドポイントでの SSL/TLS の有効化 の説明に従って、オーバークラウドで SSL/TLS を設定する必要があります。
オーバークラウドのデプロイメント中に Ceph ダッシュボードを追加する場合は、director を使用した Red Hat Ceph Storage および Red Hat OpenStack Platform のデプロイ の オーバークラウドデプロイメントへの Red Hat Ceph Storage ダッシュボードの追加 を参照してください。
手順
オーバークラウドをデプロイする。デプロイメントコマンドには、次のような追加の引数が必要です。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 上記のコマンド例は、以下のオプションを使用します。
-
--templates: デフォルトの heat テンプレートコレクション (/usr/share/openstack-tripleo-heat-templates/) からオーバークラウドを作成します。 -
-r/home/stack/templates/roles_data_custom.yaml: カスタマイズされたロール定義ファイルを指定します。 -
-e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/cephadm.yaml: 以前にデプロイされた Ceph Storage クラスターを確定するようにディレクターを設定します。この環境ファイルは、デフォルトで RGW をデプロイします。また、プール、キー、およびデーモンも作成します。 -
-e /usr/share/openstack-tripleo-heat-templates/environments/cephadm/ceph-mds.yaml: Ceph Metadata Server を有効にします。 -
-e/usr/share/openstack-tripleo-heat-templates/environments/cinder-backup.yaml- Block Storage Backup サービスを有効にします。 -
-e /home/stack/templates/storage-config.yaml: Ceph Storage のカスタム設定が含まれる環境ファイルを追加します。 -
-e /home/stack/templates/deployed-ceph.yaml: 以前に実行したopenstack overcloud ceph deployコマンドの出力として、Ceph クラスター設定を含む環境ファイルを追加します。 --ntp-server pool.ntp.org- NTP サーバーを設定します。注記オプションの完全なリストを取得するには、
openstack help overcloud deployコマンドを実行してください。
-
第6章 HCI 設定の確認 リンクのコピーリンクがクリップボードにコピーされました!
展開が完了したら、HCI 環境が適切に設定されていることを確認します。
6.1. HCI 設定の確認 リンクのコピーリンクがクリップボードにコピーされました!
HCI 環境の展開後、指定された設定で展開が成功したことを確認します。
手順
- ceph シェルを開始します。
NUMA とメモリーターゲットの設定を確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 特定の OSD 設定を確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 特定の OSD バックフィル設定を確認します。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow コンピュートノードで
reserved_host_memory_mbの設定を確認します。sudo podman exec -ti nova_compute /bin/bash bash-5.1$ grep reserved_host_memory_mb /etc/nova/nova.conf
$ sudo podman exec -ti nova_compute /bin/bash bash-5.1$ grep reserved_host_memory_mb /etc/nova/nova.confCopy to Clipboard Copied! Toggle word wrap Toggle overflow
第7章 ハイパーコンバージドノードのスケーリング リンクのコピーリンクがクリップボードにコピーされました!
HCI ノードをスケールアップまたはスケールダウンする場合、コンピュートノードまたは Red Hat Ceph Storage ノードのスケーリングと同じ原則および手法が適用されます。
7.1. HCI 環境におけるハイパーコンバージドノードのスケールアップ リンクのコピーリンクがクリップボードにコピーされました!
HCI 環境のハイパーコンバージドノードをスケールアップするには、ハイパーコンバージドノードではないノードをスケールアップするのと同じ手順に従います。詳しくは、オーバークラウドへのノード追加 を参照してください。
新規ノードをタグ付けする場合には、必ず適切なフレーバーを使用するようにしてください。
7.2. HCI 環境におけるハイパーコンバージドノードのスケールダウン リンクのコピーリンクがクリップボードにコピーされました!
HCI 環境のハイパーコンバージドノードをスケールダウンするには、HCI ノード上の Ceph OSD サービスをリバランスし、HCI ノードからインスタンスを移行し、オーバークラウドからコンピュートノードを削除する必要があります。
手順
- HCI ノード上の Ceph OSD サービスを無効にして、リバランスします。HCI ノードまたは Red Hat Ceph Storage ノードを削除する際に、director は Red Hat Ceph Storage クラスターを自的にリバランスしないので、このステップが必要となります。詳細は、Red Hat Ceph Storage および Red Hat OpenStack Platform を director と共にデプロイする の Ceph Storage クラスターのスケーリング を参照してください。
- HCI ノードからインスタンスを移行します。詳細は、インスタンス作成のための Compute サービスの設定 の コンピュートノード間の仮想マシンインスタンスの移行 を参照してください。
- オーバークラウドからコンピュートノードを削除します。詳細は、コンピュートノードの削除 を参照してください。
付録A 関連情報 リンクのコピーリンクがクリップボードにコピーされました!
A.1. 設定ガイダンス リンクのコピーリンクがクリップボードにコピーされました!
次の設定ガイダンスは、ハイパーコンバージドインフラストラクチャー環境を作成するためのフレームワークを提供することを目的としています。このガイダンスは、すべての Red Hat OpenStack Platform インストールに最終的な設定パラメーターを提供することを目的としたものではありません。特定の環境に適した具体的なガイダンスや提案は、Red Hat カスタマーエクスペリエンスおよびエンゲージメントチーム にお問い合わせください。
A.1.1. クラスターのサイジングとスケールアウト リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage ハードウェアガイド では、IOPS が最適化され、スループットが最適化され、コストと容量が最適化された Ceph 導入シナリオに関する推奨事項が提供されます。デプロイメントシナリオを最もよく表す推奨事項に従い、コンピュートワークロードをサポートするために必要な NIC、CPU、RAM を追加します。
最適で設置面積が小さい設定は、7 つのノードで構成されます。環境内で IOPS 最適化されたパフォーマンスの要件があり、オールフラッシュストレージを使用している場合を除き、スループット最適化導入シナリオを使用する必要があります。
3 ノード Ceph Storage クラスター設定が可能です。この設定では、次のことを行う必要があります。
- オールフラッシュストレージを使用します。
-
ceph.confファイルで、replica_countパラメーターを 3 に設定します。 -
ceph.confファイルでmin_sizeパラメーターを 2 に設定します。
この設定でノードがサービスを終了しても、IOPS は継続します。データの 3 つのコピーを保持するために、3 番目のノードへのレプリケーションは、サービスに戻るまでキューに入れられます。その後、データは 3 番目のノードにバックフィルされます。
最大 64 ノードの HCI 設定がテストされています。一部の HCI 環境の例は、最大 128 ノードまで文書化されています。このような大規模なクラスターについては、サポート例外およびコンサルティングサービスの契約を検討できます。ガイダンスについては、Red Hat Customer Experience and Engagement チーム にお問い合わせください。
2 つの NUMA ノードを含むデプロイメントでは、1 つの NUMA ノードでレイテンシーの影響を受けやすいコンピューティングワークロードをホストし、もう 1 つの NUMA ノードで Ceph OSD サービスをホストできます。両方のノードにネットワークインターフェイスがあり、ディスクコントローラーがノード 0 にある場合は、ストレージネットワークにノード 0 のネットワークインターフェイスを使用し、ノード 0 で Ceph OSD ワークロードをホストします。ノード 1 でコンピューティングワークロードをホストし、ノード 1 のネットワークインターフェイスを使用するように設定します。導入用のハードウェアを購入するときは、どの NIC がどのノードを使用するかに注意し、ストレージとワークロードに分割するようにしてください。
A.1.2. 容量のプランニングとサイジング リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ceph Storage ハードウェアガイド で定義されているスループット最適化 Ceph ソリューションは、IOPS の最適化を必要としないほとんどのデプロイメントにバランスの取れたソリューションを提供します。環境を作成するときは、ソリューションで提供される設定ガイドラインに加えて、次の点に注意してください。
- OSD ごとに 5 GB の RAM が割り当てられるため、OSD には十分な動作メモリーが確保されます。ハードウェアがこの要件をサポートできることを確認してください。
- CPU の速度は、使用している記憶媒体と一致する必要があります。SSD などの高速ストレージメディアの利点は、CPU が遅すぎてサポートできない場合に無効になる可能性があります。同様に、高速な CPU は、より高速な記憶媒体によってより効率的に使用できます。CPU とストレージの媒体速度のバランスをとり、どちらか一方が他方のボトルネックにならないようにします。
A.2. ハイパーコンバージドインフラストラクチャー環境の設定に関するガイドとリソース リンクのコピーリンクがクリップボードにコピーされました!
次のガイドには、ハイパーコンバージドインフラストラクチャー環境の設定に役立つ追加情報と手順が含まれています。
director を使用した Red Hat Ceph および OpenStack のデプロイ
- このガイドでは、Red Hat OpenStack Platform director を使用して、Red Hat Ceph Storage クラスターを持つオーバークラウドを作成する方法について説明します。これには、director を使用して Ceph クラスターをカスタマイズする手順が含まれます。
- このガイドは、Red Hat OpenStack Platform 環境のエンドツーエンドのデプロイメントに関するガイダンスを提供します。これには、director のインストール、環境のプランニング、director を使用した OpenStack 環境の構築などが含まれます。
- このガイドでは、Red Hat OpenStack Platform のネットワークタスクについて詳しく説明します。
- このガイドでは、Red Hat OpenStack Platform 環境における永続ストレージの使用/管理手順について詳しく説明します。また、各永続ストレージの種別に対応する OpenStack サービスの設定および管理の手順も記載しています。
- このガイドでは、Red Hat OpenStack Platform 環境のオーバークラウドに Bare Metal Provisioning サービスをインストールして設定し、クラウドユーザーの物理マシンをプロビジョニングおよび管理する方法について詳しく説明します。
- このガイドでは、Red Hat OpenStack Platform 環境のセキュリティーを強化するためのグッドプラクティスのアドバイスと概念的な情報を提供します。
- このドキュメントは、Red Hat OpenStack Platform の本リリースにおける主要機能、機能拡張、既知の問題について記載します。