検索

2.2. オーバークラウドコントローラーノードのシステム要件

download PDF

すべてのコントロールプレーンサービスは、3 つのノードで稼働する必要があります。通常、すべてのコントロールプレーンサービスは 3 つのコントローラーノードに分散してデプロイされます。

コントローラーサービスのスケーリング

コントローラーサービスで利用可能なリソースを増やすには、これらのサービスを追加のノードにスケーリングします。たとえば、db または messaging コントローラーサービスを専用ノードにデプロイして、コントローラーノードの負荷を軽減できます。

コントローラーサービスをスケーリングするには、スケーリングするサービスのセットをコンポーザブルロールを使用して定義します。コンポーザブルロールを使用する場合は、各サービスは 3 つの追加の専用ノードで実行される必要があり、Pacemaker のクォーラムを維持するために、コントロールプレーン内のノードの合計数を追加する必要があります。

この例のコントロールプレーンは、以下に示す 9 台のノードで構成されます。

  • コントローラーノード 3 台
  • データベースノード 3 台
  • メッセージングノード 3 台

詳細は、Red Hat OpenStack Platform デプロイメントのカスタマイズコンポーザブルサービスとカスタムロール を参照してください。

コンポーザブルロールを使用したコントローラーサービスのスケーリングに関する質問については、Red Hat Global Consulting にお問い合わせください。

ストレージに関する考慮事項

オーバークラウドデプロイメントのコントローラーノードを計画する場合は、十分なストレージを準備します。

デプロイメントに Ceph Storage が含まれていない場合は、オーバークラウドのワークロードまたは Image (glance) サービスが使用する Object Storage (swift) 用に、専用のディスクまたはノードを使用してください。コントローラーノードで Object Storage を使用する場合は、オブジェクトデータ保存時のディスク使用率を削減するために、ルートディスクとは別に NVMe デバイスを使用してください。

Block Storage サービス (cinder) では、ボリュームを Image Storage サービス (glance) にアップロードするために、大規模な同時操作を実行する必要があります。イメージはコントローラーディスクにかなりの I/O 負荷をかけます。推奨されるワークフローではありませんが、必要な場合は、コントローラーノードで SSD ディスクを使用して、一括操作のために高い IOPS を確保してください。

注記
  • Ceilometer、gnocchi、および Alarming サービス (aodh) に基づく古い Telemetry サービスは、デフォルトで無効になっており、パフォーマンスへの悪影響があるため推奨されません。これらの Telemetry サービスを有効にすると、gnocchi が大量の I/O を消費し、Ceph が有効でなくてもメトリクスを Object Storage ノードに送信します。
  • 大規模なテストはすべて、Director でデプロイされた Ceph クラスターを備えた環境で行われています。

CPU に関する考慮事項

コントローラーノードが受け取る API 呼び出し、AMQP メッセージ、およびデータベースクエリーの数が、コントローラーノードでの CPU メモリー消費に影響を与えます。各 Red Hat OpenStack Platform (RHOSP) コンポーネントがタスクを同時に処理および実行する能力は、個々の RHOSP コンポーネントに設定されるワーカースレッドの数によっても制限されます。パフォーマンスの低下を避けるために、コンポーネントがコントローラーノードに多数のタスクを持っている場合、そのコンポーネントのワーカースレッドの最大数が CPU 数によって制限されます。

RHOSP director がコントローラー上で設定するコンポーネントのワーカースレッドの数は、CPU 数によって制限されます。

デプロイメントで Ceph Storage ノードを使用する場合、ノード数が 700 を超える大規模な環境では以下の仕様が推奨されます。

表2.2 Ceph Storage ノードを使用する場合に推奨されるコントローラーノードの仕様
システム要件説明

ノード数

Controller ロールに含まれるコントローラーサービスを持つ 3 台のコントローラーノード

オプションとして、専用ノードでコントローラーサービスをスケーリングするには、コンポーザブルサービスを使用します。詳細は、Red Hat OpenStack Platform デプロイメントのカスタマイズ ガイドの コンポーザブルサービスとカスタムロール を参照してください。

CPU

2 ソケット (それぞれ 32 コア、64 スレッド)

ディスク

500 GB のルートディスク (1 x SSD または 2 x 7200 RPM のハードドライブ (RAID 1))

Swift 専用の 500GB ディスク (1 x SSD または 1 x NVMe)

オプション: イメージキャッシュ用の 500 GB ディスク (7200RPM の 1x SSD または 2x ハードドライブ、RAID 1)

メモリー

384GB

ネットワーク

25 Gbps のネットワークインターフェイスまたは 10 Gbps のネットワークインターフェイス。10 Gbps ネットワークインターフェイスを使用する場合は、ネットワークボンディングを使用して 2 つのボンディングを作成します。

  • プロビジョニング (bond0、mode4)、内部 API (bond0、mode4)、プロジェクト (bond0、mode4)
  • ストレージ (bond1、mode4)、ストレージ管理 (bond1、mode4)

デプロイメントで Ceph Storage ノードを使用しない場合、ノード数が 700 を超える大規模な環境では以下の仕様が推奨されます。

表2.3 Ceph Storage ノードを使用しない場合に推奨されるコントローラーノードの仕様
システム要件説明

ノード数

Controller ロールに含まれるコントローラーサービスを持つ 3 台のコントローラーノード

オプションとして、専用ノードでコントローラーサービスをスケーリングするには、コンポーザブルサービスを使用します。詳細は、Red Hat OpenStack Platform デプロイメントのカスタマイズ ガイドの コンポーザブルサービスとカスタムロール を参照してください。

CPU

2 ソケット (それぞれ 32 コア、64 スレッド)

ディスク

500 GB ルートディスク (1 x SSD)

Swift 専用の 500GB ディスク (1 x SSD または 1 x NVMe)

オプション: イメージキャッシュ用の 500 GB ディスク (7200RPM の 1x SSD または 2x ハードドライブ、RAID 1)

メモリー

384GB

ネットワーク

25 Gbps のネットワークインターフェイスまたは 10 Gbps のネットワークインターフェイス。10 Gbps ネットワークインターフェイスを使用する場合は、ネットワークボンディングを使用して 2 つのボンディングを作成します。

  • プロビジョニング (bond0、mode4)、内部 API (bond0、mode4)、プロジェクト (bond0、mode4)
  • ストレージ (bond1、mode4)、ストレージ管理 (bond1、mode4)
Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.