デプロイメントのプランニング


Red Hat OpenStack Services on OpenShift 18.0

Red Hat OpenShift Container Platform クラスター上の Red Hat OpenStack Services on OpenShift 環境の計画

OpenStack Documentation Team

概要

Red Hat OpenStack Services on OpenShift のコントロールプレーンとデータプレーンを計画します。

Red Hat ドキュメントへのフィードバック (英語のみ)

Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があればお知らせください。

Jira でドキュメントのフィードバックを提供する

問題の作成 フォームを使用して、Red Hat OpenStack Services on OpenShift (RHOSO) または Red Hat OpenStack Platform (RHOSP) の以前のリリースのドキュメントに関するフィードバックを提供します。RHOSO または RHOSP ドキュメントの問題を作成すると、その問題は RHOSO Jira プロジェクトに記録され、フィードバックの進行状況を追跡できるようになります。

問題の作成 フォームを完了するには、Jira にログインしていることを確認してください。Red Hat Jira アカウントをお持ちでない場合は、https://issues.redhat.com でアカウントを作成できます。

  1. 次のリンクをクリックして、問題の作成 ページを開きます (問題の作成)。
  2. Summary フィールドと Description フィールドに入力します。Description フィールドに、ドキュメントの URL、章またはセクション番号、および問題の詳しい説明を入力します。フォーム内の他のフィールドは変更しないでください。
  3. Create をクリックします。

第1章 Red Hat OpenStack Services on OpenShift の概要

Red Hat OpenStack Services on OpenShift (RHOSO) は、Red Hat Enterprise Linux 上にプライベートまたはパブリックの Infrastructure-as-a-Service (IaaS) クラウドを構築するための基盤を提供します。RHOSP は、クラウド対応のワークロード開発向けのスケーラビリティーおよび耐障害性に優れたプラットフォームです。

RHOSO コントロールプレーンは、Red Hat OpenShift Container Platform (RHOCP) クラスター上のワークロードとしてホストおよび管理されます。RHOSO データプレーンは、Red Hat Ansible Automation Platform で管理され、RHOSO ワークロードをホストする外部 Red Hat Enterprise Linux (RHEL) ノードで構成されます。データプレーンノードは、Compute ノード、Storage ノード、Networker ノード、またはその他のタイプのノードのいずれかです。

RHOSO IaaS クラウドは、クラウドのコンピューティング、ストレージ、およびネットワークリソースを制御する、相互に連携するサービス群によって実装されます。Web ベースのインターフェイスを使用してクラウドを管理し、RHOSO リソースを制御、プロビジョニング、自動化できます。また、RHOSO のインフラストラクチャーは豊富な API で制御されます。この API はクラウドのエンドユーザーも利用できます。

注記

RHOSO は、64 ビット x86 ハードウェアアーキテクチャーに基づくプロセッサーを搭載した RHOCP マスターノードとワーカーノードのみをサポートします。

1.1. RHOSO サービスと Operator

Red Hat OpenStack Services on OpenShift (RHOSO) IaaS サービスは、Red Hat OpenShift Container Platform (RHOCP) クラスター上で実行される一連の Operator として実装されます。これらの Operator は、RHOSO クラウドのコンピュート、ストレージ、ネットワーク、およびその他のサービスを管理します。

重要

Red Hat では、Red Hat OpenShift Container Platform (RHOCP) OperatorHub を使用してすべての Operator を取得することを推奨しています。

OpenStack Operator (openstack-operator) は、Services テーブルに詳細が記載されているすべてのサービス Operator をインストールします。また、それらの Operator を管理するために使用するインターフェイスです。OpenStack Operator は、次の Operator もインストールして管理します。

openstack-baremetal-operator
ベアメタルノードのプロビジョニングプロセス中に OpenStack Operator によって使用されます。

各サービスの機能の詳細は、Red Hat OpenStack Services on OpenShift 18.0 ドキュメントポータルのサービス別のドキュメントを参照してください。

表1.1 サービス
サービスOperatorデフォルト説明

Bare Metal Provisioning (ironic)

ironic-operator

無効

ハードウェア固有のドライバーを使用して、さまざまなハードウェアベンダーの物理マシンをサポートします。Bare Metal Provisioning は Compute サービスと統合して、仮想マシンのプロビジョニングと同じ方法で、物理マシンのプロビジョニングを行い、bare-metal-to-trusted-project のユースケースの解決策を提供します。

Block Storage (cinder)

cinder-operator

有効

仮想マシンインスタンスの永続的なブロックストレージボリュームを提供および管理します。

Compute (nova)

nova-operator

有効

libvirt ドライバーを介して仮想マシンなどのコンピュートリソースのプロビジョニングを管理します。または、ironic ドライバーを介して物理サーバーのプロビジョニングを管理します。

Dashboard (horizon)

horizon-operator

無効

クラウドリソースとユーザーアクセスを作成および管理するためのブラウザーベースの GUI ダッシュボードを提供します。Dashboard サービスは、デフォルトで Project、Admin、および Settings ダッシュボードを提供します。ダッシュボードは、課金、監視、追加の管理ツールなど、他の製品と連携するように設定できます。

DNS (designate)

designate-operator

有効

クラウド内の DNS レコードとゾーンを管理する DNS-as-a-Service (DNSaaS) を提供します。BIND インスタンスをデプロイして DNS レコードを含めることも、DNS サービスを既存の BIND インフラストラクチャーに統合することもできます。RHOSO Networking サービス (neutron) と統合して、仮想マシンインスタンス、ネットワークポート、Floating IP のレコードを自動的に作成することもできます。

Identity (keystone)

keystone-operator

有効

すべての RHOSO サービスへのユーザー認証と認可を提供し、ユーザー、プロジェクト、およびロールを管理します。ユーザー名およびパスワード認証情報、トークンベースのシステム、AWS 式のログインなど、複数の認証メカニズムをサポートしています。

Image (glance)

glance-operator

有効

仮想マシンイメージやボリュームスナップショットなどのリソースを保存するためのレジストリーサービス。クラウドユーザーは、新しいイメージを追加することも、既存のインスタンスのスナップショットを取得してすぐに保存することもできます。スナップショットは、バックアップ用、または新しいインスタンスのテンプレートとして使用できます。

Key Management (barbican)

barbican-operator

有効

パスワード、暗号鍵、X.509 証明書などのシークレットをセキュアに保管、プロビジョニング、管理します。これには、対称キー、非対称キー、証明書、RAW バイナリーデータなどの鍵マテリアルが含まれます。

Load-balancing (octavia)

octavia-operator

無効

複数のプロバイダードライバーをサポートするクラウドに Load Balancing-as-a-Service (LBaaS) を提供します。参照プロバイダードライバー (Amphora プロバイダードライバー) は、オープンソースのスケーラビリティーに優れた高可用性負荷分散プロバイダーです。オンデマンドで作成した仮想マシン群 (amphora と総称される) を管理することで、負荷分散サービスを提供します。

MariaDB

mariadb-operator

有効

MariaDB Galera クラスターをデプロイおよび管理する方法を提供します。

Memcached

infra-operator

有効

インフラストラクチャーを管理する方法を提供します。

Networking (neutron)

neutron-operator

有効

仮想コンピュート環境でソフトウェア定義ネットワーク (SDN) を通じて Networking-as-a-Service (NaaS) を提供します。ネットワーク、サブネット、ルーターを含むクラウド内の仮想ネットワークインフラストラクチャーの作成と管理を処理します。

Object Storage (swift)

swift-operator

有効

ビデオ、イメージ、メールメッセージ、ファイル、インスタンスイメージなどの静的エンティティーを含む大量のデータを効率的かつ永続的に保存します。オブジェクトは、各ファイルの拡張属性に保管されているメタデータとともに、下層のファイルシステムにバイナリーとして保管されます。

OVN

ovn-operator

有効

OVN をデプロイおよび管理する方法を提供します。

Orchestration (heat)

heat-operator

無効

リソーススタックの自動作成をサポートする、テンプレートベースのオーケストレーションエンジンストレージ、ネットワーク、インスタンス、アプリケーションなどのクラウドリソースを作成および管理するためのテンプレートを提供します。テンプレートを使用して、リソースの集まりであるスタックを作成できます。

Placement (placement)

placement-operator

有効

OpenStack Placement をインストールおよび管理する方法を提供します。

Telemetry (ceilometer、prometheus)

telemetry-operator

有効

RHOSO クラウドのユーザーレベルの使用状況データを提供します。このデータを、顧客への請求、システムのモニタリング、またはアラートに使用することができます。Telemetry は、既存の RHOSO コンポーネント (Compute の使用イベントなど) や RHOSO インフラストラクチャーリソース (libvirt など) のポーリングにより送信される通知からデータを収集できます。

RabbitMQ

rabbitmq-cluster-operator

有効

RabbitMQ クラスターをデプロイおよび管理する方法を提供します。

Shared File Systems (manila)

manila-operator

無効

複数の仮想マシンインスタンス、ベアメタルノード、またはコンテナーで使用できる共有ファイルシステムをプロビジョニングします。

1.2. RHOSO 環境の機能

Red Hat OpenStack Services on OpenShift (RHOSO) 環境の基本アーキテクチャーは、次の機能を備えています。

コンテナーネイティブアプリケーションの提供
RHOSO は、Red Hat OpenShift Container Platform (RHOCP) と RHEL プラットフォームにまたがるコンテナーネイティブアプローチを使用して提供され、コンテナーネイティブの RHOSO デプロイメントを実現します。
RHOCP ホスト型サービス
RHOCP は、ライフサイクル管理を提供するために RHOCP Operator を使用してインフラストラクチャーサービスと RHOSO コントローラーサービスをホストします。
Ansible 管理の RHEL ホスト型サービス
RHOSO ワークロードは、OpenStack Operator によって管理される RHEL ノード上で実行されます。OpenStack Operator は Ansible ジョブを実行して、Compute ノードなどの RHEL データプレーンノードを設定します。RHOCP はプロビジョニング、DNS、および設定管理を管理します。
installer-provisioned infrastructure
RHOSO インストーラーを使用すると、RHOSO ベアメタルマシン管理を使用した installer-provisioned infrastructure 方式により、RHOSO クラウドの Compute ノードをプロビジョニングできます。
user-provisioned infrastructure
独自のマシン取り込みおよびプロビジョニングワークフローがある場合は、RHOSO 事前プロビジョニングモデルを使用して、コンテナーネイティブワークフローの利点を享受しながら、事前プロビジョニングされたハードウェアを RHOSO 環境に追加できます。
ホストされた RHOSO クライアント
RHOSO は、デプロイされる RHOSO 環境への管理者アクセスが事前設定されたホスト openstackclient Pod を提供します。

1.3. RHOSO 18.0 の既知の制限

次のリストは、Red Hat OpenStack Services on OpenShift (RHOSO) の制限事項の詳細を示しています。既知の制限は、RHOSO でサポートされていない機能です。

Compute サービス (nova):

  • オフパスネットワークバックエンドは RHOSO 18.0 ではサポートされていません。詳細は、オフパスネットワークバックエンドとの統合 を参照してください。
  • ポリシーのカスタマイズはサポートされていません。カスタムポリシーが必要な場合は、サポート例外について Red Hat にお問い合わせください。
  • 以下のパッケージは RHOSO ではサポートされていません。

    • nova-serialproxy
    • nova-spicehtml5proxy
  • 仮想マシンインスタンスにユーザーデータを挿入するためのパーソナリティファイルのファイルインジェクション。回避策として、ユーザーは、インスタンスの起動時に --user-data オプションを使用してスクリプトを実行し、インスタンスにデータを渡すか、インスタンスの起動時に --property オプションを使用してインスタンスのメタデータを設定できます。詳細は、カスタムインスタンスの作成 を参照してください。
  • インスタンス用の永続メモリー (vPMEM)。永続メモリー名前空間は、NVDIMM ハードウェアを備えた Compute ノードでのみ作成できます。Red Hat は、Intel Corporation が 2022 年 7 月 28 日に Intel® Optane™ 事業への投資を中止すると発表したことを受け、RHOSP 17.0 以降の永続メモリーのサポートを削除しました。詳細は、Intel® Optane™ Business Update: What Does This Mean for Warranty and Support を参照してください。
  • 非ネイティブアーキテクチャーの QEMU エミュレーション。
  • LVM はイメージバックエンドとしてサポートされていません。
  • ploop イメージ形式はサポートされていません。
  • NFS バージョン 4 より前。

Image サービス (glance):

  • RHOSO は x86_64 という 1 つのアーキテクチャーのみをサポートします。RHOSO クラウドにこれを設定する必要のある有効なユースケースはないため、すべてのホストは x86_64 になります。
  • NFS バージョン 4 より前。

Block Storage サービス (cinder):

  • Cinder レプリケーション。
  • LVM ドライバー。
  • NFS バージョン 4 より前。

これらの機能のサポートが必要な場合は、Red Hat Customer Experience and Engagement チーム に問い合わせて、サポートの例外やその他の選択肢 (該当する場合) についてご相談ください。

1.4. RHOSO 環境でサポートされるトポロジー

Red Hat OpenStack Services on OpenShift (RHOSO) は、コンパクトコントロールプレーントポロジーと専用ノードコントロールプレーントポロジーをサポートしています。

コンパクトトポロジーでは、RHOSO コントロールプレーンと Red Hat OpenShift Container Platform (RHOCP) コントロールプレーンが、同じ物理ノードを共有します。

専用ノードトポロジーでは、RHOCP コントロールプレーンが 1 セットの物理ノード上で実行され、RHOSO コントロールプレーンが別のセットの物理ノード上で実行されます。

1.4.1. コンパクトトポロジー

コンパクト RHOSO トポロジーは、デフォルトのトポロジーであり、次のコンポーネントで構成されます。

OpenShift コンパクトクラスター

RHOSO と RHOCP の両方のコントロールプレーンをホストする Red Hat OpenShift クラスター。

RHOSO コントロールプレーンは、Compute サービス (nova)、Networking サービス (neutron) などのサービスで構成される OpenStack コントローラーサービス Pod で構成されます。

OpenShift コントロールプレーンは、RHOCP に必要なサービス (OpenShift サービス、Kubernetes サービス、ネットワークコンポーネント、Cluster Version Operator、および etcd) を実行する Pod をホストします。

詳細は、RHOCP アーキテクチャー ガイドの OpenShift Container Platform の紹介 を参照してください。

RHOSO データプレーン
RHOSO データプレーンは、OpenStack Compute ノードで構成されます。ストレージ専用のノードはオプションです。

図1.1 コンパクト RHOSO トポロジー

コンパクト RHOSO トポロジー

1.4.2. 専用ノードトポロジー

専用ノード RHOSO トポロジーは、RHOSO コントロールプレーン用のノードクラスターと OpenShift コントロールプレーン用のノードクラスターが分かれている点で、コンパクトトポロジーと異なります。

図1.2 専用ノード RHOSO トポロジー

専用ノード RHOSO トポロジー

第2章 デプロイメントのプランニング

Red Hat OpenStack Services on OpenShift (RHOSO) 環境をデプロイして運用するには、Red Hat OpenShift Container Platform (RHOCP) によって提供されるツールとコンテナーインフラストラクチャーを使用します。

RHOCP は、Operator のモジュラーシステムを使用して、RHOCP クラスターの機能を拡張します。RHOSO OpenStack Operator (openstack-operator) は、RHOCP 内に RHOSO コントロールプレーンをインストールして実行し、RHOSO データプレーンのデプロイを自動化します。データプレーンは、RHOSO ワークロードをホストするノードの集まりです。OpenStack Operator は、RHOSO のサービスとワークロードをホストするのに必要なオペレーティングシステム設定を使用してノードを準備します。

OpenStack Operator は、RHOSO のコントロールプレーンノードとデータプレーンノードのインフラストラクチャーと設定をデプロイおよび管理する方法を定義する一連のカスタムリソース定義 (CRD) を管理します。RHOCP でホストされるコントロールプレーンを備えた RHOSO クラウドを作成するには、OpenStack Operator の CRD を使用して、コントロールプレーンとデータプレーンを設定する一連のカスタムリソース (CR) を作成します。

2.1. クラウドインフラストラクチャーをデプロイする方法

RHOCP でホストされるコントロールプレーンを備えた RHOSO クラウドを作成するには、次のタスクを完了する必要があります。

  1. 稼働中の RHOCP クラスターに OpenStack Operator (openstack-operator) をインストールします。
  2. RHOSO サービスへのセキュアなアクセスを提供します。
  3. コントロールプレーンネットワークを作成して設定します。
  4. データプレーンネットワークを作成して設定します。
  5. 環境に合わせてコントロールプレーンを作成します。
  6. 環境に合わせてコントロールプレーンをカスタマイズします。
  7. データプレーンノードを作成して設定します。
  8. オプション: RHOSO デプロイメント用のストレージソリューションを設定します。

コントロールプレーンのインストールタスクとすべてのデータプレーンの作成タスクは、RHOCP クラスターにアクセスできるワークステーションで実行します。

稼働中の RHOCP クラスターに OpenStack Operator (openstack-operator) をインストールする
RHOSO 管理者が、RHOCP クラスターに OpenStack Operator をインストールします。OpenStack Operator のインストール方法については、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの Operator のインストールと準備 を参照してください。
RHOSO サービスへのセキュアなアクセスを提供する
RHOSO サービス Pod へのセキュアなアクセスを提供するには、Secret カスタムリソース (CR) を作成する必要があります。詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの Red Hat OpenStack Platform サービスへのセキュアなアクセスの提供 を参照してください。
コントロールプレーンネットワークを作成して設定する
RHOCP Operator を使用して、RHOSO コントロールプレーンネットワーク用の RHOCP クラスターを準備します。詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの RHOSP ネットワーク用の RHOCP の準備 を参照してください。
データプレーンネットワークを作成して設定する
RHOCP Operator を使用して、RHOSO データプレーンネットワーク用の RHOCP クラスターを準備します。詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの データプレーンネットワークの設定 を参照してください。
環境に合わせてコントロールプレーンを作成する
各サービスの推奨設定を使用して、初期コントロールプレーンを設定して作成します。詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの コントロールプレーンの作成 を参照してください。
環境に合わせてコントロールプレーンをカスタマイズする
環境に必要なサービスを使用して、デプロイしたコントロールプレーンをカスタマイズできます。詳細は、Red Hat OpenStack Services on OpenShift デプロイメントのカスタマイズ ガイドの コントロールプレーンのカスタマイズ を参照してください。
データプレーンノードを作成して設定する
最小限の機能を備えたシンプルなデータプレーンを設定して作成します。詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの データプレーンの作成 を参照してください。
環境に合わせてデータプレーンをカスタマイズする
環境に必要な機能と設定を使用して、デプロイしたデータプレーンをカスタマイズできます。詳細は、Red Hat OpenStack Services on OpenShift デプロイメントのカスタマイズ ガイドの データプレーンのカスタマイズ を参照してください。
RHOSO デプロイメント用のストレージソリューションを設定する
必要に応じて、RHOSO デプロイメント用のストレージソリューションを設定できます。詳細は、永続ストレージの設定 ガイドを参照してください。

2.2. カスタムリソース定義 (CRD)

OpenStack Operator には、RHOSP リソースの作成と管理に使用できるカスタムリソース定義 (CRD) のセットが含まれています。

  • RHOSP CRD の完全なリストを表示するには、次のコマンドを使用します。

    $ oc get crd | grep "^openstack"

  • 特定の CRD の定義を表示するには、次のコマンドを使用します。

    $ oc describe crd openstackcontrolplane
    Name:         openstackcontrolplane.openstack.org
    Namespace:
    Labels:       operators.coreos.com/operator.openstack=
    Annotations:  cert-manager.io/inject-ca-from: $(CERTIFICATE_NAMESPACE)/$(CERTIFICATE_NAME)
                  controller-gen.kubebuilder.io/version: v0.3.0
    API Version:  apiextensions.k8s.io/v1
    Kind:         CustomResourceDefinition
    ...
  • 特定の CRD の設定に使用できるフィールドの説明を表示するには、次のコマンドを使用します。

    $ oc explain openstackcontrolplane.spec
    KIND:     OpenStackControlPlane
    VERSION:  core.openstack.org/v1beta1
    
    RESOURCE: spec <Object>
    
    DESCRIPTION:
         <empty>
    
    FIELDS:
       ceilometer   <Object>
       cinder       <Object>
       dns  <Object>
       extraMounts  <[]Object>
    ...

2.2.1. CRD の命名規則

各 CRD には spec.names セクションに複数の名前が含まれます。アクションのコンテキストに応じて、これらの名前を使用します。

  • リソースのマニフェストを作成して操作する場合は kind を使用します。

    apiVersion: core.openstack.org/v1beta1
    kind: OpenStackControlPlane
    ...

    リソースマニフェストの kind 名は、それぞれの CRD の kind 名に相関します。

  • 単一リソースを操作する場合は、singular を使用します。

    $ oc describe openstackcontrolplane/compute

第3章 システム要件

環境のシステム要件を決定するには、Red Hat OpenStack Services on OpenShift (RHOSO) のデプロイメントを計画する必要があります。

3.1. Red Hat OpenShift Container Platform クラスターの要件

Red Hat OpenStack Services on OpenShift (RHOSO) コントロールプレーンをホストする Red Hat OpenShift Container Platform (RHOCP) クラスターの最小要件は次のとおりです。

ハードウェア

  • 事前プロビジョニング済みで稼働中の 3 ノード RHOCP コンパクトクラスター、バージョン 4.16。
  • コンパクトクラスター内の各ノードに、次のリソースが必要です。

    • 64 GB RAM
    • 16 CPU コア
    • ルートディスク用の 120 GB NVMe または SSD と、250 GB のストレージ (NVMe または SSD を強く推奨)

      注記

      デプロイされた環境で実行される仮想マシンインスタンスのイメージ、ボリューム、およびルートディスクは、専用の外部ストレージノードでホストされます。ただし、サービスログ、データベース、メタデータは、RHOCP の永続ボリューム要求 (PVC) に保存されます。テストには最低 150 GB が必要です。

    • 2 つの物理 NIC

      注記

      3 つのコントローラーと 3 つのワーカーを持つ 6 ノードクラスターでは、ワーカーノードにのみ 2 つの物理 NIC が必要です。

  • クラスターの永続ボリューム要求 (PVC) ストレージ:

    • サービスログ、データベース、ファイルインポート変換、メタデータ用の 150 GB の永続ボリューム (PV) プール。

      注記
      • RHOSO Pod に必要な PV プールのサイズは、RHOSO ワークロードに基づいて計画する必要があります。たとえば、Image サービスのイメージ変換 PVC は、最大のイメージと変換後のイメージ、およびその他の同時変換をホストするのに十分な大きさである必要があります。RHOSO デプロイメントで Object Storage サービス (swift) を使用する場合は、ストレージ要件についても同様の検討を行う必要があります。
      • Image サービスには PV プールが必要ですが、実際のイメージは Red Hat Ceph Storage や SAN などのイメージサービスバックエンドに保存されます。
    • 5 GB の使用可能な PV を、Galera、OVN、RabbitMQ データベースなどのコントロールプレーンサービス用のローカル SSD によって確保する必要があります。

ソフトウェア

  • RHOCP 環境が Multus CNI をサポートしている。
  • RHOCP クラスターに次の Operator がインストールされている。

    • Kubernetes NMState Operator。この Operator は、nmstate インスタンスを作成して起動する必要があります。詳細は、RHOCP ネットワーク ガイドの Kubernetes NMState Operator のインストール を参照してください。
    • MetalLB Operator。この Operator は、metallb インスタンスを作成して起動する必要があります。詳細は、RHOCP ネットワーク ガイドの MetalLB Operator のインストール を参照してください。

      注記

      MetalLB Operator を使用して MetalLB を起動すると、Operator がクラスター内の各ノードで speaker Pod のインスタンスを起動します。3 つの OCP コントローラー/マスターと 3 つの OCP コンピュート/ワーカーなどの拡張アーキテクチャーを使用する場合、OCP コントローラーが ctlplane および internalapi ネットワークにアクセスできない場合は、speaker Pod を OCP コンピュート/ワーカーノードに制限する必要があります。speaker Pod の詳細は、speaker Pod の特定のノードへの限定 を参照してください。

    • cert-manager Operator。詳細は、RHOCP セキュリティーおよびコンプライアンス ガイドの cert-manager Operator for Red Hat OpenShift を参照してください。
    • Cluster Observability Operator。詳細は、Cluster Observability Operator のインストール を参照してください。
    • Cluster Baremetal Operator (CBO)。CBO は、データプレーンデプロイメントプロセスの一部としてベアメタルノードをプロビジョニングするために必要な Bare Metal Operator (BMO) コンポーネントをデプロイします。ベアメタルプロビジョニングの計画の詳細は、ベアメタルデータプレーンノードのプロビジョニングの計画 を参照してください。
  • クラスターワークステーションに次のツールがインストールされている。

    • oc コマンドラインツール。
    • podman コマンドラインツール。
  • RHOCP ストレージバックエンドが設定されている。
  • RHOCP ストレージクラスが定義されており、ReadWriteOnce タイプの永続ボリュームにアクセスできる。
  • installer-provisioned infrastructure の場合、ベアメタルプロビジョニングで使用するオペレーティングシステムイメージを準備する必要があります。次のイメージをベアメタルイメージとして使用できます。https://catalog.redhat.com/software/containers/rhel9/rhel-guest-image/6197bdceb4dcabca7fe351d5?container-tabs=overview

3.2. データプレーンノードの要件

データプレーンは、事前にプロビジョニングされたノード、またはプロビジョニングされていないベアメタルノードを使用して作成できます。データプレーンノードの最小要件は次のとおりです。

  • 事前にプロビジョニングされたノード:

    • RHEL9.4。
    • データプレーンの作成中に生成された SSH 鍵を使用して SSH アクセス用に設定されている。SSH ユーザーは root であるか、制限がなくパスワードなしの sudo が有効なユーザーである必要があります。詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの データプレーンシークレットの作成 を参照してください。
    • SSH 経由の Ansible アクセスを可能にするための、コントロールプレーンネットワーク上のルーティング可能な IP アドレス。
重要

ネットワークアーキテクチャーによっては、次のネットワーク機能が必要になる場合があります。

  • RHOSP 分離ネットワーク用の RHOCP ワーカーノード上の専用 NIC。
  • 必要な分離ネットワーク用の VLAN を備えたポートスイッチ。

これらがデプロイメントに必要かどうかについては、RHOCP およびネットワーク管理者に問い合わせてください。

必要な分離ネットワークの詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの デフォルトの Red Hat OpenStack Platform ネットワーク を参照してください。

3.3. Compute ノードの要件

Compute ノードは、仮想マシンインスタンスの起動後にそれを実行する役割を担います。Compute ノードには、ハードウェアの仮想化をサポートするベアメタルシステムが必要です。また、ホストする仮想マシンインスタンスの要件をサポートするのに十分なメモリーとディスク容量も必要です。

注記

Red Hat OpenStack Services on OpenShift (RHOSO) 18.0 は、QEMU アーキテクチャーエミュレーションの使用をサポートしていません。

プロセッサー
Intel 64 または AMD64 CPU 拡張機能をサポートする 64 ビット x86 プロセッサーで、Intel VT または AMD-V のハードウェア仮想化拡張機能が有効化されている。このプロセッサーには最小でも 4 つのコアが搭載されていることを推奨しています。
メモリー

ホストオペレーティングシステム用に最低 6GB の RAM と、次の考慮事項に対応するための追加メモリー。

  • 仮想マシンインスタンスで使用できるようにするメモリーを追加します。
  • メモリーを追加して、追加のカーネルモジュール、仮想スイッチ、モニターソリューション、その他の追加のバックグラウンドタスクなど、ホスト上で特別な機能や追加のリソースを実行します。
  • Non-Uniform Memory Access (NUMA) を使用する場合、CPU ソケットノードあたり 8 GB、または 256 GB を超える物理 RAM がある場合はソケットノードあたり 16 GB を推奨します。
  • 少なくとも 4 GB のスワップスペースを設定します。

Compute ノードメモリー設定の計画の詳細は、インスタンス作成のための Compute サービスの設定 を参照してください。

ディスク領域
最小 50 GB の空きディスク領域
ネットワークインターフェイスカード
最小 1 枚の 1 Gbps ネットワークインターフェイスカード (実稼働環境では最低でも NIC を 2 枚使用することを推奨)。タグ付けされた VLAN トラフィックを委譲する場合や、ボンディングインターフェイス向けの場合には、追加のネットワークインターフェイスを使用します。
プラットフォーム管理
インストーラーでプロビジョニングされる Compute ノードには、サーバーのマザーボードに搭載されたサポート対象の電源管理インターフェイス (Intelligent Platform Management Interface (IPMI) 機能など) が必要です。このインターフェイスは、事前にプロビジョニングされたノードには必要ありません。

第4章 ベアメタルデータプレーンノードのプロビジョニングの計画

Red Hat OpenStack Services on OpenShift (RHOSO) データプレーンでは、事前にプロビジョニングされたノードまたはプロビジョニングされていないベアメタルノードを使用できます。

  • 事前プロビジョニングされたノード: ノードをデータプレーンに追加する前に、独自のツールを使用してノードにオペレーティングシステムをインストールした場合。
  • プロビジョニングされていないノード: ノードをデータプレーンに追加する前に、ノードにオペレーティングシステムをインストールしていない場合。ノードは、データプレーンの作成およびデプロイメントプロセスの一環として、Red Hat OpenShift Container Platform (RHOCP) Cluster Baremetal Operator (CBO) を使用してプロビジョニングされます。

RHOSO 環境は、Metal 3 がサポートするすべてのリモートハードウェア管理プロトコルテクノロジーとブートメソッドをサポートできます。サポートされているハードウェアの詳細は、Metal 3 ユーザーガイドサポートされているハードウェア を参照してください。ただし、RHOCP クラスターのインストールに使用したインストール方法によって、RHOSO 環境で使用できるテクノロジーとブート方法が制限されます。

RHOCP のインストール方法によって、CBO の可用性とプロビジョニングネットワークを作成する機能が決まり、これにより、ベアメタルデータプレーンノードをプロビジョニングするために RHOSO デプロイメントで使用できるテクノロジーとブート方法が決まります。したがって、ベアメタルデータプレーンノードのプロビジョニングに必要なテクノロジーとブート方法がサポートされていることを確認するために、RHOSO デプロイメントを計画する必要があります。

注記

Red Hat では、RHOCP クラスターで iPXE ブートが利用できない可能性があるため、iPXE ブートではなく仮想メディアを使用してプロビジョニングすることを推奨しています。

4.1. Red Hat OpenShift Container Platform のインストールに関する考慮事項

RHOCP クラスターのインストールに使用する方法によって、Cluster Baremetal Operator (CBO) の可用性とプロビジョニングネットワークを作成する機能が決まります。ネットワークブートにはプロビジョニングネットワークが必要です。

Assisted Installer
Assisted Installer を使用してインストールされたクラスターで CBO を有効にし、インストール後にネットワークブートデプロイメント用のプロビジョニングネットワークを Assisted Installer クラスターに手動で追加できます。
ベアメタル上の installer-provisioned infrastructure

ベアメタル installer-provisioned infrastructure を使用してインストールされた RHOCP クラスターでは、CBO がデフォルトで有効になります。インストーラーでプロビジョニングされるクラスターをプロビジョニングネットワークを使用して設定すると、仮想メディアとネットワークブートの両方のインストールを有効にできます。

注記
  • プロビジョニングネットワークなしでインストーラーによってプロビジョニングされたクラスターを設定する場合、仮想メディアのプロビジョニングのみが使用可能になります。
  • ベアメタルではないプラットフォームに IPI を使用して RHOCP をインストールした場合、クラスターで CBO を有効にできない可能性があります。ベアメタル以外のプラットフォームに RHOCP をインストールする方法については、RHOCP インストールガイドを参照してください。

ベアメタル上のインストーラーでプロビジョニングされるクラスターの詳細は、RHOCP インストーラーでプロビジョニングされるクラスターをベアメタルにデプロイする を参照してください。

user-provisioned infrastructure

Provisioning CR を作成することにより、user-provisioned infrastructure でインストールされた RHOCP クラスターで CBO を有効化できます。

注記

ユーザーがプロビジョニングするクラスターにプロビジョニングネットワークを追加することはできません。つまり、user-provisioned infrastructure がインストールされた RHOCP クラスターでは PXE ネットワークブートを有効化できません。user-provisioned infrastructure がインストールされた RHOCP クラスターでは、仮想メディアを使用してベアメタルデータプレーンノードのみをプロビジョニングできます。

Provisioning CR を作成する方法の詳細は、RHOCP ベアメタルへのインストール ガイドの Bare Metal Operator を使用してユーザーがプロビジョニングしたクラスターをスケーリングする を参照してください。

4.2. Bare Metal Operator (BMO)

Red Hat OpenShift Container Platform (RHOCP) Cluster Baremetal Operator (CBO) では、データプレーン上のベアメタルノードのプロビジョニングがサポートされています。CBO は、Bare Metal Operator (BMO) や Ironic コンテナーを含め、RHOCP クラスター内でベアメタルノードをプロビジョニングするために必要なコンポーネントをデプロイします。

BMO はクラスターの利用可能なホストを管理し、次の操作を実行します。

  • ノードのハードウェアの詳細を検査し、それを対応する BareMetalHost CR に報告します。これには、CPU、RAM、ディスク、および NIC に関する情報が含まれます。
  • 特定のイメージを使用してノードをプロビジョニングします。
  • プロビジョニングの前後にノードディスクの内容をクリーンアップします。

Bare Metal Operator の詳細と BareMetalHost CR の設定方法については、RHOCP インストール後設定 ガイドの ベアメタルの設定 を参照してください。

第5章 ネットワークの計画

RHOSO をデプロイする前に、ネットワーク要件と全体的な環境を把握し、その情報をもとにネットワーク設計を決定してください。

5.1. デフォルトの物理ネットワーク

通常、Red Hat OpenStack Services on OpenShift (RHOSO) デプロイメントでは、次の物理データセンターネットワークが実装されます。

  • コントロールプレーンネットワーク
  • 外部ネットワーク (オプション)
  • 内部 API ネットワーク
  • ストレージネットワーク
  • テナント (プロジェクト) ネットワーク
  • ストレージ管理ネットワーク (オプション)

詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの デフォルトの Red Hat OpenStack Services on OpenShift ネットワーク を参照してください。

5.2. RHOSO のネットワーク分離

デプロイメントで特定の種類のネットワークトラフィックを分離してホストする方法を計画する必要があります。これには、IP 範囲、サブネット、仮想 IP の計画、および NIC レイアウトの設定が含まれます。

Red Hat OpenStack Services on OpenShift (RHOSO) コントロールプレーンサービスは、Red Hat OpenShift Container Platform (RHOCP) のワークロードとして実行されます。コントロールプレーンで NMState Operator を使用して、必要な分離ネットワークにワーカーノードを接続します。必要に応じて、各分離ネットワークに NetworkAttachmentDefinition (nad) カスタムリソース (CR) を作成し、分離ネットワークにサービス Pod を接続します。MetalLB Operator を使用して、分離ネットワーク上の内部サービスエンドポイントを公開します。デフォルトでは、パブリックサービスエンドポイントは RHOCP ルートとして公開されます。

また、仮想 IP の通知方法を定義する L2Advertisement リソースと、VIP として使用できる IP を設定する IpAddressPool リソースも作成する必要があります。レイヤー 2 モードでは、1 つのノードがローカルネットワークにサービスをアドバタイズする役割を担います。

詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの RHOSO のネットワーク分離に向けた RHOCP の準備 を参照してください。

データプレーンネットワークを作成するには、NetConfig カスタムリソース (CR) を定義し、データプレーンネットワークのすべてのサブネットを指定します。データプレーン用に少なくとも 1 つのコントロールプレーンネットワークを定義する必要があります。また、VLAN ネットワークを定義して、InternalAPI、Storage、External などのコンポーザブルネットワークのネットワーク分離を作成することもできます。各ネットワーク定義には IP アドレスの割り当てを含める必要があります。

詳細は、Red Hat OpenStack Services on OpenShift のデプロイ ガイドの データプレーンネットワークの作成 を参照してください。

5.3. NIC の数

コンパクトな RHOSO デプロイメントでは、各 RHOSO コントロールプレーンワーカーノードに、少なくとも 2 つの NIC が必要です。

各ワーカーノード上の一方の NIC が、OpenShift にサービスを提供します。また、OpenShift クラスターネットワーク内の OpenShift コンポーネント間の接続を提供します。

もう一方の NIC は、OpenStack に使用されます。ワーカーノード上で実行されている OpenStack サービスを、RHOSO データプレーン上の分離ネットワークに接続します。

5.3.1. NIC とスケーリングの考慮事項

ネットワーク要件は、環境とビジネスの要件によって異なります。たとえば、次のネットワーク機能が必要になる場合があります。

  • 特定の RHOSP 分離ネットワーク用の RHOCP ワーカーノード上の専用 NIC。
  • 必要な分離ネットワーク用の VLAN を備えたポートスイッチ。

これらがデプロイメントに必要かどうかについては、RHOCP およびネットワーク管理者に問い合わせてください。各 Compute ノードに、少なくとも 1 つの NIC が必要です。分離ネットワークへの接続を提供するためにスケールアップすることができます。

5.4. ストレージネットワークの計画に関する考慮事項

詳細は、このガイドの ストレージネットワーク を参照してください。

5.5. ネットワーク機能仮想化 (NFV)

ネットワーク機能仮想化 (NFV) は、通信事業者 (CSP) が従来のプロプライエタリーハードウェアの範囲を超えて効率性と俊敏性を高め、運用コストを削減するのに役立つソフトウェアベースのソリューションです。

Red Hat OpenStack Services on OpenShift (RHOSO) 環境で NFV を使用すると、スイッチ、ルーター、ストレージなどのハードウェアデバイス上で実行されるネットワーク機能 (VNF) を標準の仮想化テクノロジーを使用して仮想化する仮想化インフラストラクチャーを実現して、IT とネットワークを融合することができます。NFV 環境では、Data Plane Development Kit (DPDK) と Single Root I/O Virtualization (SR-IOV) テクノロジーを活用して、パケット処理速度を向上させます。

NFV のデプロイを選択した場合は、デプロイガイドとして Red Hat OpenStack Services on OpenShift のデプロイ ではなく ネットワーク機能仮想化環境のデプロイ を使用する必要があります。

5.6. RHOSO のネットワーク計画の関連情報

第6章 Red Hat OpenStack Services on OpenShift における Federal Information Processing Standard

Federal Information Processing Standards (FIPS) は、National Institute of Standards and Technology (NIST) によって開発された一連のセキュリティー要件です。Red Hat Enterprise Linux 9 でサポートされている標準は、FIPS 140-3: 暗号モジュールのセキュリティー要件 です。サポートされている標準の詳細は、Federal Information Processing Standards Publication 140-3 を参照してください。

FIPS 140-3 検証済み暗号化モジュールは、NIST の CMVP プロセスを完了し、NIST から証明書を取得した暗号化ライブラリーです。Red Hat の FIPS 140 検証済みモジュールの最新情報については、Compliance Activities and Government Standards を参照してください。

FIPS 対応の Red Hat OpenShift Container Platform (RHOCP) クラスターに RHOSO をインストールすると、Red Hat OpenStack Services on OpenShift (RHOSO) で FIPS がデフォルトで有効になります。FIPS は RHOCP の初期インストール時に有効にする必要があります。FIPS モードでの RHOCP クラスターのインストールの詳細は、FIPS モードでのクラスターのインストール を参照してください。

システム全体の暗号化ポリシーである FIPS 140 mode を使用すると、RHEL および CoreOS によって、使用されるコア暗号化モジュールとライブラリーが FIPS 検証済みのものに制限されます。ただし、paramiko は暗号化機能をコード内に実装しており、FIPS 検証済みではありません。RHOSO コアコンポーネントは、paramiko を呼び出さない限り、FIPS 検証のために NIST に提出された RHEL 暗号化ライブラリーを使用します。

6.1. FIPS 対応の Red Hat OpenStack Services on OpenShift コントロールプレーンをインストールする準備

Red Hat OpenStack Services on OpenShift (RHOSO) コントロールプレーンをインストールする前に、iscsi.conf を変更して MD5 と SHA1 を削除する必要があります。コントロールプレーンの iSCSId 設定は、RHOSO Operator によって処理されません。そのため、この手順は Red Hat OpenShift Container Platform (RHOCP) クラスターで完了する必要があります。

前提条件

  • FIPS が有効な既存の RHOCP クラスターがある。RHOCP における FIPS の詳細は、FIPS 暗号化のサポート を参照してください。

手順

  • 各ノードで、/etc/iscsi/iscsi.conf ファイルの node.session.auth.chap_algs の値が SHA3-256,SHA256 に設定されていることを確認します。

6.2. FIPS ステータスの検証

RHOCP またはデプロイされたワーカーノードの FIPS ステータスを確認できます。

手順

  1. cluster-admin 権限を持つアカウントを使用して、Red Hat OpenShift Container Platform (RHOCP) クラスターにログインします。
  2. クラスター内のノードのリストを取得します。

    $ oc get nodes

    出力例:

    NAME  	STATUS   ROLES              	AGE	VERSION
    master1   Ready	control-plane,master   7d1h   v1.28.6+6216ea1
    master2   Ready	control-plane,master   7d1h   v1.28.6+6216ea1
    master3   Ready	control-plane,master   7d1h   v1.28.6+6216ea1
    worker1   Ready	worker             	7d1h   v1.28.6+6216ea1
    worker2   Ready	worker             	7d1h   v1.28.6+6216ea1
    worker3   Ready	worker
  3. 前のステップの出力に表示されたいずれかのノードで、デバッグ Pod を開きます。

    $ oc debug node/worker2

    出力例:

    Temporary namespace openshift-debug-rq2m8 is created for debugging node...
    Starting pod/worker2-debug-5shqt ...
    To use host binaries, run `chroot /host`
    Pod IP: 192.168.50.112
    If you don't see a command prompt, try pressing enter.
    sh-5.1#
  4. /procfips_enabled を確認します。

    sh-5.1# cat /proc/sys/crypto/fips_enabled

    出力例:有効な場合は 1、無効な場合は 0 が表示されます。

    1

FIPS モードでの Red Hat OpenShift Cluster Platform のインストールの詳細は、RHOCP インストール ガイドの FIPS 暗号化のサポート を参照してください。

第7章 ストレージと共有ファイルシステムの計画

Red Hat OpenStack Services on OpenShift (RHOSO) は、一時ストレージと永続ストレージを使用して、デプロイメントのストレージニーズに対応します。

一時ストレージは、特定の Compute インスタンスに関連付けられます。このインスタンスが終了すると、関連付けられている一時ストレージも終了します。一時ストレージは、インスタンスのオペレーティングシステムの保存など、ランタイム要件に役立ちます。

永続ストレージは実行中のインスタンスから独立しています。永続ストレージは、データボリューム、ディスクイメージ、共有可能なファイルシステムなどの再利用可能なデータを保存するのに便利です。

デプロイを開始する前に、デプロイメントのストレージ要件を考慮して慎重に計画する必要があります。考慮すべき点としては、次のものが挙げられます。

  • サポートされている機能とトポロジー
  • ストレージテクノロジー
  • ネットワーク
  • スケーラビリティー
  • アクセシビリティー
  • パフォーマンス
  • コスト
  • セキュリティー
  • 冗長性と障害復旧
  • ストレージ管理

7.1. サポートされているストレージ機能とトポロジー

RHOSO は次のストレージおよびネットワーク機能をサポートしています。

  • Red Hat Ceph Storage 統合:

    • 永続ストレージ用の Block Storage サービス (cinder)、Image サービス (glance)、および一時ストレージ用の Compute サービス (nova) を使用した Ceph Block Device (RBD)
    • Shared File Systems サービス (manila) を使用した Ceph File System (ネイティブの CephFS または NFS 経由の CephFS)
    • Ceph Object Gateway (RGW) と Object Storage サービスの統合
    • ハイパーコンバージドインフラストラクチャー (HCI): ハイパーコンバージドインフラストラクチャーは、ハイパーコンバージドノードで構成されます。ハイパーコンバージドノードは、Compute サービスと Red Hat Ceph Storage サービスが同じノード上に共存する外部データプレーンノードであり、ハードウェアのフットプリントを最適化します。
  • 適切な設定とドライバーを使用した Block Storage サービスのトランスポートプロトコル:

    • NVMe over TCP
    • RBD
    • NFS
    • FC

      注記

      Block Storage サービスとファイバーチャネル (FC) バックエンドを使用するデプロイメントでは、すべての Compute および OCP ワーカーノードにホストバスアダプター (HBA) をインストールする必要があります。

    • iSCSI
  • 適切な RHOCP MachineConfig を使用すると、iSCSI、FC、NVMe over TCP によるマルチパスをコントロールプレーンで利用できます。
  • 適切な設定とドライバーを使用した Shared File Systems サービスのトランスポートプロトコル:

    • CephFS
    • NFS
    • CIFS
  • ネイティブの Swift または Amazon S3 互換 API を介した Object Storage

RHOSO は次のストレージサービスをサポートしています。

サービスバックエンド

Image サービス (glance)

  • Red Hat Ceph Storage RBD
  • Block Storage (cinder)
  • Object Storage (swift)
  • NFS

Compute サービス (nova)

  • ローカルファイルストレージ
  • Red Hat Ceph Storage RBD

Block Storage サービス (cinder)

  • Red Hat Ceph Storage RBD
  • ファイバーチャネル
  • iSCSI
  • NFS
  • NVMe over TCP
注記

サポートはサードパーティーのドライバーを通じて提供されます。

Shared File Systems サービス (manila)

  • Red Hat Ceph Storage CephFS
  • Red Hat Ceph Storage CephFS-NFS
  • サードパーティーベンダーのストレージシステム経由の NFS または CIFS

Object Storage サービス (swift)

  • 外部データプレーンノード上のディスク
  • OpenShift ノード上の PersistentVolumes (PV) (デフォルト)
  • Ceph RGW との統合

プロジェクトによるシステムリソースの消費を管理するには、Block Storage サービス (cinder) と Shared File Systems サービス (manila) のクォータを設定できます。デフォルトのクォータをオーバーライドして、個々のプロジェクトに異なる消費制限を設定できます。

7.2. ストレージテクノロジー

RHOSO は、デプロイメントにストレージソリューションを提供するために、個別にまたは連携して動作する多数のストレージテクノロジーをサポートしています。

7.2.1. Red Hat Ceph Storage

Red Hat Ceph Storage は、パフォーマンス、信頼性、およびスケーラビリティのために設計された分散データオブジェクトストアです。分散オブジェクトストアは、非構造化データを使用して、最新のオブジェクトインターフェイスと従来のオブジェクトインターフェイスを同時に処理します。ブロック、ファイル、オブジェクトストレージへのアクセスを提供します。

Red Hat Ceph Storage はクラスターとしてデプロイされます。クラスターは、次の 2 つの主要なタイプのデーモンで構成されます。

  • Ceph Object Storage Daemon (CephOSD) - CephOSD は、データストレージ、データレプリケーション、リバランス、リカバリー、モニタリング、およびレポートのタスクを実行します。
  • Ceph Monitor (CephMon) - CephMon は、クラスターの現在の状態でクラスターマップのプライマリーコピーを維持します。

RHOSO では、次のようなデプロイメントの場合に Red Hat Ceph Storage 7 がサポートされます。

  • 外部にデプロイされた Red Hat Ceph Storage 7 クラスターとの統合
  • リソースの使用を最適化するために、Compute サービスと Red Hat Ceph Storage サービスが同じノード上に共存する外部データプレーンノードで構成されるハイパーコンバージドインフラストラクチャー (HCI) 環境
注記

Red Hat OpenStack Services on OpenShift (RHOSO) 18.0 は、Red Hat Ceph Storage Object Gateway (RGW) によるイレイジャーコーディングをサポートしています。Red Hat Ceph Storage Block Device (RDB) によるイレイジャーコーディングは、現在サポートされていません。

Red Hat Ceph Storage アーキテクチャーの詳細は、Red Hat Ceph Storage 7 アーキテクチャーガイド を参照してください。

7.2.2. Block Storage (cinder)

Block Storage サービス (cinder) を使用すると、ユーザーはバックエンドでブロックストレージボリュームをプロビジョニングできます。ユーザーはインスタンスにボリュームを接続して、一時ストレージを汎用の永続ストレージで拡張できます。ボリュームをインスタンスから接続解除して再接続することはできますが、このボリュームには接続されたインスタンスからしかアクセスできません。

一時ストレージを使用しないようにインスタンスを設定することもできます。一時ストレージを使用する代わりに、Block Storage サービスがイメージをボリュームに書き込むように設定できます。その後、インスタンスのブート可能なルートボリュームとしてボリュームを使用することができます。ボリュームには、バックアップやスナップショットを使用することで冗長性と災害復旧機能も備わっています。ただし、バックアップを使用できるのは、オプションの Block Storage バックアップサービスをデプロイした場合だけです。さらに、セキュリティーを強化するためにボリュームを暗号化することもできます。

7.2.3. Image (glance)

Image サービス (glance) は、インスタンスイメージの検出、登録、配信サービスを提供します。また、クローン作成や復元の目的でインスタンスの一時ディスクのスナップショットを保存する機能も提供します。保管したイメージをテンプレートとして使用し、新規サーバーを迅速に稼働させることができます。これはサーバーのオペレーティングシステムをインストールしてサービスを個別に設定するよりも一貫性の高い方法です。

7.2.4. Object Storage (swift)

Object Storage サービス (swift) は、完全分散型のストレージソリューションを提供します。このソリューションを使用すると、メディアファイル、大規模なデータセット、ディスクイメージなど、あらゆる種類の静的データやバイナリーオブジェクトを保存できます。Object Storage サービスは、ファイルシステムのディレクトリーに似ているオブジェクトコンテナーを使用してオブジェクトを整理します。ただし、このオブジェクトコンテナーをネストすることはできません。Object Storage サービスは、クラウド内のほぼすべてのサービスのリポジトリーとして使用できます。

Red Hat Ceph Storage RGW は、Object Storage サービスの代替サービスとして使用できます。

7.2.5. Shared File Systems (manila)

Shared File Systems サービス (manila) は、リモートの共有可能なファイルシステムをプロビジョニングする手段を提供します。これは共有と呼ばれます。共有を使用すると、クラウド内のプロジェクトが POSIX 準拠のストレージを共有できるようになります。共有は複数のインスタンスで同時に使用できます。

共有はインスタンスの消費に使用され、読み取り/書き込みアクセスモードで複数のインスタンスによって同時に消費できます。

7.3. ストレージネットワーク

RHOSO のインストール中に、ストレージネットワークとストレージ管理ネットワークという 2 つのデフォルトのストレージ関連ネットワークが設定されます。これらの分離されたネットワークは、ストレージコンポーネントとデプロイメント間のネットワーク接続に関するベストプラクティスに準拠しています。

ストレージネットワークは、データストレージへのアクセスと取得に使用されます。

ストレージ管理ネットワークは、管理コンソールへのアクセスを許可するストレージソリューション内の特定のインターフェイスにアクセスするために、RHOSO サービスによって使用されます。たとえば、Red Hat Ceph Storage はハイパーコンバージドインフラストラクチャー (HCI) 環境のストレージ管理ネットワークを cluster_network として使用し、データを複製します。

次の表に、デフォルトのストレージ関連ネットワークのプロパティーを示します。

ネットワーク名VLANCIDRNetConfig allocationRangeMetalLB IPAddressPool 範囲nad ipam 範囲OCP ワーカー nncp 範囲

storage

21

172.18.0.0/24

172.18.0.100 - 172.18.0.250

該当なし

172.18.0.30 - 172.18.0.70

172.18.0.10 - 172.18.0.20

storageMgmt

23

172.20.0.0/24

172.20.0.100 - 172.20.0.250

該当なし

172.20.0.30 - 172.20.0.70

172.20.0.10 - 172.20.0.20

ストレージソリューションによっては、追加のネットワーク設定が必要になる場合があります。これらのデフォルト値は、完全なデプロイメントを構築する基盤となるものです。

バックエンド (cinder-volume および cinder-backup) を持つすべての Block Storage サービスは、すべてのストレージネットワークへのアクセスを必要とします。バックエンドによっては、これにストレージ管理ネットワークが含まれない場合があります。バックエンドを持つ Block Storage サービスは、それぞれのストレージ管理ネットワークへのアクセスだけを必要とします。ほとんどのデプロイメントで管理ネットワークは 1 つだけです。ストレージ管理ネットワークが複数ある場合も、サービスとバックエンドの各ペアに必要なのは、それぞれの管理ネットワークへのアクセスだけです。

Block Storage サービスとファイバーチャネル (FC) バックエンドを使用するデプロイメントでは、すべての OCP ワーカーノードにホストバスアダプター (HBA) をインストールする必要があります。

7.3.1. Block Storage サービスのネットワークの計画

ストレージのベストプラクティスでは、次の 2 つの異なるネットワークを使用することが推奨されています。

  • データ I/O 用の 1 つのネットワーク
  • ストレージ管理用の 1 つのネットワーク

これらのネットワークは、storage および storageMgmt と呼ばれます。デプロイメントが 2 つのネットワークを備えたアーキテクチャーと異なる場合は、必要に応じて、記載されている例を調整してください。たとえば、ストレージシステムの管理インターフェイスがストレージネットワーク上で使用できる場合、ネットワークが 1 つしかない場合は storageMgmtstorage に置き換え、ストレージネットワークがすでに存在する場合は storageMgmt を削除します。

Red Hat OpenStack Services on OpenShift (RHOSO) のストレージサービスでは、Object Storage サービス (swift) を除き、storage および storageMgmt ネットワークへのアクセスが必要です。storage および storageMgmt ネットワークは、OpenStackControlPlane CR の networkAttachments フィールドで設定できます。networkAttachments フィールドは、コンポーネントがアクセスする必要があるすべてのネットワークを含む文字列のリストを受け入れます。コンポーネントによってネットワーク要件が異なる場合があります。たとえば、Block Storage サービス (cinder) API コンポーネントは、どのストレージネットワークにもアクセスする必要はありません。

次の例は、Block Storage ボリュームの networkAttachments を示しています。

apiVersion: core.openstack.org/v1beta1
kind: OpenStackControlPlane
metadata:
  name: openstack
spec:
  cinder:
    template:
      cinderVolumes:
        iscsi:
          networkAttachments:
          - storage
          - storageMgmt

7.3.2. Shared File Systems サービスのネットワークの計画

クラウドユーザーが Red Hat OpenStack Services on OpenShift (RHOSO) 仮想マシン、ベアメタルサーバー、およびコンテナー上で実行されるワークロードに共有を接続できるように、クラウド上のネットワークを計画してください。

クラウドユーザーに必要なセキュリティーと分離のレベルに応じて、driver_handles_share_servers パラメーター (DHSS) を true または false に設定できます。

7.3.2.1. DHSS を true に設定する

DHSS パラメーターを true に設定すると、Shared File Systems サービスを使用して、分離された共有サーバーを持つエンドユーザー定義の共有ネットワークに共有をエクスポートできます。ユーザーは、セルフサービス共有ネットワーク上でワークロードをプロビジョニングし、専用ネットワークセグメント上の分離された NAS ファイルサーバーが、確実に共有をエクスポート可能にすることができます。

プロジェクト管理者は、分離ネットワークのマッピング先の物理ネットワークが、ストレージインフラストラクチャーまで拡張されていることを確認する必要があります。また、使用しているストレージシステムが、ネットワークセグメントをサポートしていることを確認する必要もあります。NetApp ONTAP および Dell EMC PowerMax、Unity、ならびに VNX 等のストレージシステムは、GENEVE または VXLAN 等の仮想オーバーレイセグメント化スタイルをサポートしません。

オーバーレイネットワークの代わりに、次のいずれかを実行できます。

  • プロジェクトネットワークには VLAN ネットワークを使用します。
  • 共有プロバイダーネットワーク上で VLAN セグメントを許可します。
  • ストレージシステムにすでに接続されている既存のセグメント化されたネットワークへのアクセスを提供します。
7.3.2.2. DHSS を false に設定する

DHSS パラメーターを false に設定すると、クラウドユーザーが自身の共有ネットワーク上に共有を作成できなくなります。管理者は専用の共有ストレージネットワークを作成できます。その場合、クラウドユーザーは共有にアクセスするために、設定されたネットワークにクライアントを接続する必要があります。

すべての共有ファイルシステムストレージドライバーが DHSS=trueDHSS=false の両方をサポートしているわけではありません。DHSS=trueDHSS=false の両方により、データパスのマルチテナンシー分離が確保されます。ただし、セルフサービスモデルの一部としてテナントワークロードのネットワークパスマルチテナンシー分離が必要な場合は、DHSS=true をサポートするバックエンドを使用して Shared File Systems サービス (manila) をデプロイする必要があります。

7.3.2.3. ファイル共有へのネットワーク接続の確保

ファイル共有に接続するには、クライアントがその共有の 1 つ以上のエクスポート場所にネットワーク接続できる必要があります。

管理者が共有タイプの driver_handles_share_servers パラメーター (DHSS) を true に設定すると、クラウドユーザーが Compute インスタンスの接続先のネットワークの詳細を使用して共有ネットワークを作成できるようになります。これにより、クラウドユーザーは、共有を作成するときに共有ネットワークを参照できるようになります。

管理者が共有タイプの DHSS パラメーターを false に設定した場合、クラウドユーザーは、Red Hat OpenStack Services on OpenShift (RHOSO) デプロイメント用に設定された共有ストレージネットワークに Compute インスタンスを接続する必要があります。共有ネットワークへのネットワーク接続を設定および検証する方法の詳細は、ストレージ操作の実行共有にアクセスするために共有ネットワークに接続する を参照してください。

7.4. スケーラビリティーおよびバックエンドストレージ

一般に、クラスター化されたストレージソリューションでは、バックエンドのスケーラビリティーと回復力が向上します。たとえば、Red Hat Ceph Storage を Block Storage (cinder) バックエンドとして使用する場合、Ceph Object Storage Daemon (OSD) ノードを追加することで、ストレージの容量と冗長性を拡張できます。Block Storage、Object Storage (swift)、および Shared File Systems Storage (manila) サービスは、バックエンドとして Red Hat Ceph Storage をサポートしています。

Block Storage サービスは、個別のバックエンドとして複数のストレージソリューションを使用できます。バックエンドを追加することで、サービスレベルで容量を拡張できます。

デフォルトでは、Object Storage サービスは、OpenShift の基盤となるインフラストラクチャーに永続ボリュームを割り当てることによって領域を消費します。専用ストレージノード上のファイルシステムを使用するようにサービスを設定すると、そのサービスで領域を最大限に使用できます。Object Storage サービスは、XFS および ext4 ファイルシステムをサポートしています。両方のファイルシステムを拡張することで、基盤となるブロックストレージを最大限に消費できます。ストレージノードにストレージデバイスを追加することで、容量を拡張することもできます。

Shared File Systems サービスは、Red Hat Ceph Storage やその他のバックエンドストレージシステムによって管理される指定のストレージプールからファイル共有をプロビジョニングします。この共有ストレージは、サービスで使用可能なストレージプールのサイズまたは数を増やすか、バックエンドストレージシステムをデプロイメントに追加することで拡張できます。各バックエンドストレージシステムは、ストレージシステムと対話して管理する専用サービスと統合されています。

7.5. ストレージへのアクセシビリティーと管理

ボリュームはインスタンスを通じてのみ消費されます。ユーザーは、ボリュームの拡張、スナップショットの作成、スナップショットを使用したボリュームの複製、以前の状態へのボリューム復元を実行できます。

Block Storage サービス (cinder) を使用すると、ボリューム設定をまとめたボリュームタイプを作成できます。ボリュームタイプを QoS (Quality of Service) 仕様に関連付けることで、クラウドユーザーにさまざまなレベルのパフォーマンスを提供できます。クラウドユーザーは、新しいボリュームを作成するときに必要なボリュームタイプを指定できます。たとえば、より高いパフォーマンスの QoS 仕様を使用するボリュームは、より多くの IOPS をユーザーに提供できます。また、ユーザーは、リソースを節約するために、より低いパフォーマンスの QoS 仕様を使用するボリュームに軽いワークロードを割り当てることができます。共有は、1 つ以上のインスタンス、ベアメタルノード、またはコンテナーによって同時に消費される場合があります。Shared File Systems サービス (manila) は、共有のサイズ変更、スナップショット、クローン作成もサポートしています。管理者は設定をまとめた共有タイプを作成できます。

ユーザーは、Object Storage サービス (swift) の API を使用してコンテナー内のオブジェクトにアクセスできます。管理者は、クラウド内のインスタンスとサービスからオブジェクトにアクセス可能にできます。そのため、オブジェクトはサービスのリポジトリーとして最適です。たとえば、Image サービス (glance) のイメージを、Object Storage サービスによって管理されるコンテナーに保存できます。

7.6. ストレージのセキュリティー

Block Storage サービスは、Key Manager サービス (barbican) を通じてデータセキュリティーを提供します。Block Storage サービスは、Key Manager サービスによって管理される鍵を使用して、鍵とボリュームの 1 対 1 のマッピングを使用します。ボリュームタイプを設定するときに暗号化のタイプを定義します。

制御トラフィックやデータトラフィックを暗号化することで、バックエンドレベルでセキュリティーを向上させることもできます。たとえば、Red Hat Ceph Storage では、messengerv2 セキュアモードを有効にすることでこれを実現できます。このモードを有効にすると、Ceph サービス間および OpenStack Compute ノードからのネットワークトラフィックが暗号化されます。

オブジェクトとコンテナーのセキュリティーは、サービスおよびノードレベルで設定します。Object Storage サービス (swift) は、コンテナーおよびオブジェクトに対するネイティブの暗号化を提供しません。ただし、Key Manager サービスが有効になっていれば、Object Storage サービスが、保存されている (保存中の) オブジェクトを透過的に暗号化および復号化できます。保存時の暗号化は、オブジェクトがディスクに保存されている間に暗号化されるという点で、転送中の暗号化とは異なります。

Shared File Systems サービス (manila) では、インスタンスの IP アドレス、ユーザーもしくはグループ、または TLS 証明書別にアクセス制限することでファイル共有のセキュリティーを確保することができます。Shared File Systems サービスのデプロイメントによっては、個別の共有サーバーを用意して、共有ネットワークとファイル共有の関係を管理できます。共有サーバーによっては、追加のネットワークセキュリティーがサポートまたは要求されます。たとえば、CIFS ファイル共有サーバーでは LDAP、Active Directory または Kerberos 認証サービスのデプロイメントが必要です。

バックエンドによっては、データの保存時の暗号化もサポートされています。これにより、バックエンドディスク自体を暗号化してセキュリティーを強化し、消去されていないディスクの再利用や盗難など、物理的なセキュリティー上の脅威を防ぐことができます。

Block Storage サービス、Object Storage サービス、Shared File Systems サービスのセキュリティーオプションの設定について、詳細は セキュリティーサービスの設定 を参照してください。

7.7. ストレージの冗長性と障害復旧

オプションの Block Storage バックアップサービスをデプロイすると、Block Storage サービス (cinder) によって、ユーザーストレージの基本的な障害復旧に対応したボリュームのバックアップおよび復元機能が提供されます。バックアップを使用すると、ボリュームの内容を保護できます。Block Storage サービスはスナップショットもサポートしています。クローン作成に加えて、スナップショットを使用してボリュームを以前の状態に復元することもできます。

環境に複数のバックエンドが含まれている場合は、これらのバックエンド間でボリュームを移行することもできます。この機能は、メンテナンスでバックエンドをオフラインにする必要がある場合に役立ちます。バックアップは通常、データが保護できるように、ソースのボリュームとは別のストレージバックエンドに保存されます。スナップショットはソースのボリュームに依存するため、この方法を用いることはできません。

Block Storage サービスは、ボリュームをグループ化して同時にスナップショットを作成するために、整合性グループの作成もサポートしています。これにより、複数のボリューム間のデータの整合性レベルが向上します。

注記

Red Hat は、現在 Block Storage サービスのレプリケーションをサポートしていません。

Object Storage (swift) サービスには、ビルトインのバックアップ機能はありません。すべてのバックアップを、ファイルシステムまたはノードレベルで実行する必要があります。一方で、Object Storage サービスは、堅牢な冗長性とフォールトトレランスを備えています。Object Storage サービスの最も基本的なデプロイメントでも、オブジェクトが複数回レプリケートされます。デバイスマッパーマルチパス (DM マルチパス) などのフェイルオーバー機能を使用して、冗長性を強化できます。

Shared File Systems サービス (manila) は、共有用の組み込みバックアップ機能を備えていませんが、クローン作成と復元用のスナップショットを作成できます。

7.8. ストレージソリューションの管理

RHOSO の設定は、RHOSO Dashboard (horizon) または RHOSO コマンドラインインターフェイス (CLI) を使用して管理できます。どちらの方法でもほとんどの手順を実行できます。ただし、一部の高度な手順を実行するには、CLI を使用する必要があります。

ストレージソリューションの設定は、ストレージベンダーが提供する専用の管理インターフェイスを使用して管理できます。

7.9. Red Hat OpenShift ストレージのサイズ設定

Image および Object Storage サービスは、Red Hat OpenShift の基盤ストレージに領域を確保するように設定できます。その場合、これらのサービスの予想使用量に基づいて Red Hat OpenShift ストレージのサイズを見積もる必要があります。

7.9.1. Image サービスに関する考慮事項

Image サービス (glance) には、インポート操作中にデータを操作するためのステージングエリアが必要です。イメージデータは複数のストアにコピーすることが可能であるため、Image サービスにはある程度の永続性が必要です。PVC が Image サービスの主なストレージモデルですが、外部モデルを選択することもできます。

外部モデル

外部モデルを選択した場合、PVC は作成されず、Image サービスは永続性のないステートレスインスタンスのように動作します。この場合、extraMounts を使用して永続性を提供する必要があります。多くの場合、NFS が永続性を提供するために使用されます。NFS は /var/lib/glance にマッピングできます。

...
default:
  storage:
    external: true
...
...
extraMounts:
- extraVol:
  - extraVolType: NFS
    mounts:
    - mountPath: /var/lib/glance/os_glance_staging_store
      name: nfs
    volumes:
    - name: nfs
      nfs:
        path: <nfs_export_path>
        server: <nfs_ip_address>
  • <nfs_export_path> は、NFS 共有のエクスポートパスに置き換えます。
  • <nfs_ip_address> は、NFS 共有の IP アドレスに置き換えます。この IP アドレスは、Image サービスが到達可能なオーバーレイネットワークの一部である必要があります。

この設定サンプルは、分散イメージインポート機能と競合することに注意してください。分散イメージインポート機能には、特定のインスタンスに接続された RWO ストレージが必要です。このストレージはデータを所有し、ステージングされたデータがアップロード操作に必要な場合に、要求を受信します。外部モデルを採用する場合、Red Hat Ceph Storage をバックエンドとして使用し、イメージ変換操作を既存のレプリカの 1 つで実行すると、glance-operator がステージングエリアに関連付けられている基礎となるストレージについて想定する必要がなくなります。また、(Pod 内の) os_glance_staging_store directory を使用する変換操作が、extraMounts 経由で提供される RWX NFS バックエンドとやり取りします。このような場合、extraMounts を使用して永続性の確保を図るのは管理者の役割であるため、イメージキャッシュ PVC を要求して subPath にマウントすることはできません。

PVC モデル

PVC モデルがデフォルトです。GlanceAPI のインスタンスがデプロイされると、入力として渡された storageClassstorageRequest に基づいて PVC が作成され、/var/lib/glance にバインドされます。

...
default:
  replicas: 3
  storage:
    storageRequest: 10G
...

このモデルでは、Red Hat Ceph Storage がバックエンドとして設定されている場合、専用のイメージ変換 PVC が作成されません。管理者は PVC のサイズ設定を事前に考慮する必要があります。PVC のサイズは、少なくとも変換後の最大イメージサイズに設定する必要があります。同じ Pod 内での同時変換により、PVC のサイズに関する問題が発生する可能性があります。PVC がいっぱいで十分な領域がない場合、変換が失敗するか、実行できません。前回の変換が終了し、ステージングエリアの領域が解放された後に、アップロードを再試行する必要があります。ただし、別々の Pod で同時変換操作が行われる場合があります。特定の glanceAPI について、少なくとも 3 つのレプリカをデプロイする必要があります。これは、イメージ変換などの負荷の高い操作を処理するのに役立ちます。

PVC ベースのレイアウトの場合、レプリカに関する glanceAPI のスケールアウトは、storageClass によって提供される使用可能なストレージによって制限され、storageRequest に依存します。storageRequest は、重要なパラメーターであり、すべての glanceAPI に対してグローバルに定義することも、各 API に対して異なる値で定義することもできます。このパラメーターは、各 API のスケールアウト操作に影響します。ステージングエリアに必要なローカル PVC 以外に、イメージキャッシュを有効にすることができます。これは、追加の PVC に変換されて各 glanceAPI インスタンスにバインドされます。glance-cache PVC は /var/lib/glance/image-cache にバインドされます。glance-operator は、image_cache_max_sizeimage_cache_dir の両方のパラメーターを設定して、glanceAPI インスタンスを適切に設定します。イメージキャッシュ PVC の数は、ローカル PVC を説明したのと同じルールに従います。要求される PVC の数は、レプリカの数に比例します。

7.9.2. Object Storage サービスに関する考慮事項

Object Storage サービスには、データ用のストレージデバイスが必要です。このデバイスには、その存続期間中、同じホスト名または IP アドレスを使用してアクセスできる必要があります。これを実現するには、Headless Service を使用した StatefulSet の設定を使用します。

ストレージボリュームを使用してワークロードの永続性を提供する場合は、ソリューションの一部として StatefulSet を使用できます。StatefulSet 内の個々の Pod は障害の影響を受けやすいものの、永続的な Pod 識別子を使用すると、障害が発生した Pod に代わる新しい Pod と既存のボリュームを照合することが容易になります。

Object Storage サービスは、このような PV にアクセスするために、かなりの数のサービスを必要とします。これらのサービスはすべて 1 つの Pod で実行されます。

さらに、StatefulSet が削除されてもボリュームは削除されません。StatefulSet (またはデプロイメント全体) が予期せず削除されても、直ちに壊滅的なデータ損失が発生することはありません。管理者の介入によりデータを回復できます。

Headless Service を使用すると、DNS 名を使用してストレージ Pod に直接アクセスできます。たとえば、Pod 名が swift-storage-0 で、SwiftStorage インスタンスの名前が swift-storage の場合、swift-storage-0.swift-storage を使用してアクセスできます。これにより、Object Storage サービスリング内で Pod を簡単に使用できるようになり、IP の変更が透過的になり、リングの更新が不要になります。

Pod 並行管理では、すべての Pod を並行して起動または終了し、別の Pod を起動または終了する前に、Pod が Running および Ready になるか完全に終了するまで待機しないように、StatefulSet コントローラーに指示します。このオプションは、スケーリング操作の動作にのみ影響します。更新には影響しません。

これは、レプリカが 1 以上の新しいデプロイメントなど、1 以上のスケーリングで必要になります。Pod はすべて同時に作成する必要があります。そうしないと、バインドされていない PVC が発生し、Object Storage サービスリングを作成できず、最終的にこれらの Pod の起動がブロックされます。

ストレージ Pod は、単一障害点を回避するために、別々のノードに分散する必要があります。可能な場合は、preferredDuringSchedulingIgnoredDuringExecution を指定した podAntiAffinity ルールを使用して、Pod を別々のノードに分散します。別々のノードに配置した個別の storageClass と PersistentVolumes を使用すると、さらに分散を適用できます。

Object Storage サービスのバックエンドサービスには、他のバックエンドサービスと Object Storage サービスのプロキシーからのみアクセス可能である必要があります。アクセスを制限するには、これらの Pod 間のトラフィックのみを許可する NetworkPolicy を追加します。NetworkPolicy はラベルに依存しており、トラフィックを許可するにはラベルが一致している必要があります。したがって、ラベルを一意のものにすることはできません。代わりに、アクセスを許可するために、すべての Pod が同じラベルを使用する必要があります。swift-operatorlib-common からのラベルを使用していないのもそのためです。

Object Storage サービスリングには、使用するディスクに関する情報が必要です。この情報には、サイズとホスト名または IP が含まれます。PVC を使用して StatefulSet を起動する場合、サイズは不明です。サイズ要件は下限ですが、実際の PV はそれよりはるかに大きくなる可能性があります。

ただし、StatefulSet は ConfigMaps が利用可能になる前に PVC を作成し、ConfigMap が利用可能になるまで Pod の起動を待機します。SwiftRing リコンサイラーは、SwiftStorage インスタンスを監視し、PVC をイテレートして、使用されているディスクに関する実際の情報を取得します。PVC がバインドされると、サイズが判明し、swift-ring-rebalance ジョブによって Swift リングが作成され、最終的に ConfigMap が作成されます。ConfigMap が利用可能になると、StatefulSets がサービス Pod を起動します。

リングは、Projected ボリュームを使用して SwiftProxy および SwiftStorage インスタンスによってマウントされた ConfigMap に保存されます。これにより、他の場所からファイルをマージすることなく、必要なすべてのファイルを同じ場所にマウントできるようになります。ConfigMaps が更新されると、これらのファイルも更新されます。この変更が Swift サービスによって検出されると、最終的にこれらのファイルが再ロードされます。

一部の Operator は、customServiceConfig オプションを使用して設定をカスタマイズします。ただし、SwiftRing のインスタンスは、複数のバックエンドサービスをデプロイします。バックエンドサービスは、それぞれ特定のカスタムファイルを必要とします。したがって、swift-operator を使用する場合は、ファイル名として特定のキーを使用する defaultConfigOverwrite のみがサポートされます。

第8章 統合

Red Hat OpenStack Services on OpenShift (RHOSO) と統合可能なサードパーティー製ソフトウェアは、Tested and Approved Software を参照してください。

RHOSO は、信頼できるクラウドプロバイダーにデプロイできます。認定済みの製品一覧は、Hardware - Tested and Approved を参照してください。

第9章 サブスクリプション

Red Hat OpenStack Services on OpenShift (RHOSO) をインストールするには、RHOSO 環境内のすべてのシステムを Red Hat Subscription Manager に登録し、必要なチャネルをサブスクライブする必要があります。

Red Hat OpenStack Services on OpenShift サブスクリプションの詳細は、Red Hat OpenStack Services on OpenShift の FAQ を参照してください。

法律上の通知

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.