2.7. テクノロジープレビュー


本項では、Red Hat OpenStack Platform 15 のテクノロジープレビュー機能について説明します。

注記

テクノロジープレビューと記した機能のサポート範囲についての詳しい情報は、テクノロジプレビュー機能のサポート範囲 を参照してください。

2.7.1. 新規テクノロジープレビュー

単一アンダークラウドからの複数オーバークラウドのデプロイおよび管理

本リリースでは、1 つのアンダークラウドから複数のオーバークラウドをデプロイする機能が追加されました。

  • 1 つのアンダークラウドに対して操作を行い、独立した複数のオーバークラウドを管理します。
  • アンダークラウドでコンテキストを切り替えて、さまざまなオーバークラウドに対する操作を行います。
  • 冗長な管理ノードを削減します。
Block Storage サービスにアクティブ/アクティブ設定を作成する新たな director 機能

Red Hat OpenStack Platform director を使用して、Ceph RADOS Block Device(RBD)バックエンド上でのみ、アクティブ/アクティブ設定の Block Storage サービス(cinder)をデプロイできるようになりました。

新たな cinder-volume-active-active.yaml ファイルの CinderVolumeCluster パラメーターに値を割り当てて、アクティブ/アクティブ設定のクラスターの名前を定義します。CinderVolumeCluster はグローバル Block Storage パラメーターなので、クラスター化されたバックエンド(アクティブ/アクティブ)とクラスター化されていないバックエンドを同じデプロイメントに含めることはできません。

cinder-volume-active-active.yaml ファイルにより、director は Pacemaker 以外の cinder-volume Orchestration サービステンプレートを使用し、etcd サービスを分散ロックマネージャー(DLM)として Red Hat OpenStack Platform デプロイメントに追加します。

Block Storage サービスのアベイラビリティーゾーンを設定するための新たな director パラメーター
Red Hat OpenStack Platform director を使用して、Block Storage サービス(cinder)ボリュームバックエンドに、異なるアベイラビリティーゾーンを設定できるようになりました。director に新たなパラメーター CinderXXXAvailabilityZone が追加されました。XXX は、特定のバックエンドに対応する値です。
Bare Metal サービス向けの新たな Redfish BIOS 管理インターフェース

Red Hat OpenStack Platform の Bare Metal サービス (ironic) に BIOS 管理インターフェースが追加され、デバイスの BIOS 設定を検査および変更できるようになりました。

Red Hat OpenStack Platform 15 では、Bare Metal サービスは Redfish API に準拠するデータセンターデバイスの BIOS 管理機能をサポートします。Bare Metal サービスは、Python ライブラリー Sushy を使用して Redfish の呼び出しを実装します。

個別の heat スタックの使用

ノード種別ごとに、個別の heat スタックを使用できるようになりました。たとえば、コントロールプレーン専用のスタック、コンピュートノード用のスタック、およびハイパーコンバージドインフラストラクチャー(HCI)ノード用の別のスタックを設定することができます。このアプローチには、以下の利点があります。

  • 管理: コントロールプレーンスタックを変更せずに、ノードを変更および管理できます。
  • スケールアウト: コンピュートノードまたはストレージノードをさらに追加するのに、すべてのノードを更新する必要がありません。個別の heat スタックにより、これらの操作は選択したノード種別から分離されます。
  • エッジサイト: 専用の heat スタック内にエッジサイトをセグメント化することができます。これにより、ネットワークおよび管理に関する中央データセンターへの依存関係が減ります。エッジサイトには、そのコンピュートノードおよびストレージノード用に専用のアベイラビリティーゾーンが必要です。
複数 Ceph クラスターのデプロイ
クラスターごとに個別の heat スタックを使用して、director により(Ceph 実行専用のノードまたはハイパーコンバージドノードに)複数の Ceph クラスターをデプロイすることができます。エッジサイトの場合には、同じノード上の Compute 機能および Ceph ストレージを使用するハイパーコンバージドインフラストラクチャー (HCI) スタックをデプロイすることができます。たとえば、専用のアベイラビリティーゾーンに、それぞれ HCI- 01 および HCI-02 という名前の 2 つのエッジスタックをデプロイする場合があります。この場合には、それぞれのエッジスタックには専用の Ceph クラスターおよび Compute サービスが含まれます。
memoryBacking ソース種別ファイルを有効にする新たな Compute(nova)設定および共有アクセス

新たな Compute(nova)パラメーター QemuMemoryBackingDir が利用できるようになりました。libvirt の memoryBacking 要素が source type="file" および access mode="shared" で設定されている場合に、メモリーバッキングファイルを保存するディレクトリーを指定します。

注記: memoryBacking 要素は、libvirt 4.0.0 および QEMU 2.6.0 以降でのみ利用可能です。

テンプレート化されたセルマッピング URL のサポートを追加

director は、ユーザー名とパスワードなどの値を表すために変数を使用して、データベースおよびメッセージキュー URL のセルマッピング URL をテンプレートとして提供するようになりました。director の Compute 設定ファイルで定義される以下のプロパティーで、変数の値が指定されます。

  • database_connection: [database]/connection
  • transport_url:[DEFAULT]/transport_url
1 つのインスタンスにアタッチすることができる最大ディスクデバイス数を設定するサポートを追加

新たな Compute(nova)パラメーター max_disk_devices_to_attach が利用できるようになりました。このパラメーターは、1 つのインスタンスにアタッチすることができる最大ディスクデバイス数を指定します。デフォルトは無制限(-1)です。以下の例は、max_disk_devices_to_attach の値を「30」に変更する方法を示しています。

parameter_defaults:
    ComputeExtraConfig:
      nova::config::nova_config:
        [compute]/max_disk_devices_to_attach:
            value: '"30"'
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.