2.4. オーバークラウドの要件
以下の項では、オーバークラウドのインストール内の個別システムおよびノードの要件について詳しく説明します。
注記
SAN (FC-AL、FCoE、iSCSI) からのオーバークラウドノードのブートはサポートされていません。
2.4.1. コンピュートノードの要件
コンピュートノードは、仮想マシンインスタンスが起動した後にそれらを稼働させる役割を果たします。コンピュートノードは、ハードウェアの仮想化をサポートしている必要があります。また、ホストする仮想マシンインスタンスの要件をサポートするのに十分なメモリーとディスク容量も必要です。
- プロセッサー
- Intel 64 または AMD64 CPU 拡張機能をサポートする 64 ビット x86 プロセッサーで Intel VT または AMD-V のハードウェア仮想化拡張機能が有効化されていること。このプロセッサーには最小でも 4 つのコアが搭載されていることを推奨しています。
- メモリー
- 最小 6 GB の RAMこの要件には、仮想マシンインスタンスに割り当てるメモリー容量に基づいて、追加の RAM を加算します。
- ディスク領域
- 最小 40 GB の空きディスク領域
- ネットワークインターフェースカード
- 最小 1 枚の 1 Gbps ネットワークインターフェースカード (実稼働環境では最低でも NIC を 2 枚使用することを推奨)。タグ付けされた VLAN トラフィックを委譲する場合や、ボンディングインターフェース向けの場合には追加のネットワークインターフェースを使用します。
- Intelligent Platform Management Interface (IPMI)
- 各コンピュートノードには、サーバーのマザーボード上に IPMI 機能が必要です。
2.4.2. コントローラーノードの要件
コントローラーノードは、RHEL OpenStack Platform 環境の中核となるサービス (例: Horizon Dashboard、バックエンドのデータベースサーバー、Keystone 認証、高可用性サービスなど) をホストする役割を果たします。
- プロセッサー
- Intel 64 または AMD64 CPU 拡張機能をサポートする 64 ビット x86 プロセッサー
- メモリー
- 各コントローラーノードに最小 32 GB のメモリー。パフォーマンスを最適化するには、各コントローラーノードに 64 GB のメモリーを使用することを推奨します。
重要
推奨されるメモリー容量は、CPU のコア数によって異なります。CPU のコア数が多いほど、より多くのメモリーが必要となります。メモリーの要件に関する詳しい情報は、Red Hat カスタマーポータルで「Red Hat OpenStack Platform Hardware Requirements for Highly Available Controllers」の記事を参照してください。 - ディスク領域
- 最小 40 GB の空きディスク領域
- ネットワークインターフェースカード
- 最小 2 枚の 1 Gbps ネットワークインターフェースカード。タグ付けされた VLAN トラフィックを委譲する場合や、ボンディングインターフェース向けの場合には追加のネットワークインターフェースを使用します。
- Intelligent Platform Management Interface (IPMI)
- 各コントローラーノードには、サーバーのマザーボード上に IPMI 機能が必要です。
2.4.3. Ceph Storage ノードの要件
Ceph Storage ノードは、RHEL OpenStack Platform 環境でオブジェクトストレージを提供する役割を果たします。
- プロセッサー
- Intel 64 または AMD64 CPU 拡張機能をサポートする 64 ビット x86 プロセッサー
- メモリー
- メモリー要件はストレージ容量によって異なります。ハードディスク容量 1 TB あたり最小で 1 GB のメモリーを使用するのが理想的です。
- ディスク領域
- ストレージ要件はメモリーの容量によって異なります。ハードディスク容量 1 TB あたり最小で 1 GB のメモリーを使用するのが理想的です。
- ディスクのレイアウト
- 推奨される Red Hat Ceph Storage ノードの設定には、以下のようなディスクレイアウトが必要です。
/dev/sda
: root ディスク。director は、主なオーバークラウドイメージをディスクにコピーします。/dev/sdb
: ジャーナルディスク。このディスクは、/dev/sdb1
、/dev/sdb2
、/dev/sdb3
などのように、Ceph OSD 向けにパーティションを分割します。ジャーナルディスクは通常、システムパフォーマンスの向上に役立つ Solid State Drive (SSD) です。/dev/sdc
以降: OSD ディスク。ストレージ要件で必要な数のディスクを使用します。
本ガイドには、Ceph Storage ディスクを director にマッピングするために必要な手順を記載しています。 - ネットワークインターフェースカード
- 最小で 1 x 1 Gbps ネットワークインターフェースカード (実稼働環境では、最低でも NIC を 2 つ以上使用することが推奨です)。タグ付けされた VLAN トラフィックを委譲する場合や、ボンディングインターフェース向けの場合には追加のネットワークインターフェースを使用します。特に大量のトラフィックにサービスを提供する OpenStack Platform 環境を構築する場合に、ストレージノードには 10 Gbps インターフェースを使用するように推奨します。
- Intelligent Platform Management Interface (IPMI)
- 各 Ceph ノードには、サーバーのマザーボード上に IPMI 機能が必要です。
重要
director は、ジャーナルディスク上にはパーティションを作成しません。これらのジャーナルパーティションは、director が Ceph Storage ノードをデプロイする前に手動で作成しておく必要があります。
Ceph Storage OSD およびジャーナルのパーティションには、GPT ディスクラベルが必要です。このラベルも、カスタマイズの前に設定します。たとえば、Ceph Storage ホストとなるマシンで以下のコマンドを実行して、ディスクまたはパーティションの GPT ディスクラベルを作成します。
# parted [device] mklabel gpt