4.2. クラスターの最大値がテスト済みの OpenShift Container Platform 環境および設定
4.2.1. AWS クラウドプラットフォーム: リンクのコピーリンクがクリップボードにコピーされました!
| ノード | フレーバー | vCPU | RAM(GiB) | ディスクタイプ | ディスクサイズ (GiB)/IOS | カウント | リージョン | 
|---|---|---|---|---|---|---|---|
|   コントロールプレーン/etcd [1]  |   r5.4xlarge  |   16  |   128  |   gp3  |   220  |   3  |   us-west-2  | 
|   インフラ [2]  |   m5.12xlarge  |   48  |   192  |   gp3  |   100  |   3  |   us-west-2  | 
|   ワークロード [3]  |   m5.4xlarge  |   16  |   64  |   gp3  |   500 [4]  |   1  |   us-west-2  | 
|   コンピュート  |   m5.2xlarge  |   8  |   32  |   gp3  |   100  |   3/25/250/500 [5]  |   us-west-2  | 
- etcd は遅延の影響を受けやすいため、ベースラインパフォーマンスが 3000 IOPS で毎秒 125 MiB の gp3 ディスクがコントロールプレーン/etcd ノードに使用されます。gp3 ボリュームはバーストパフォーマンスを使用しません。
 - インフラストラクチャーノードは、モニタリング、Ingress およびレジストリーコンポーネントをホストするために使用され、これにより、それらが大規模に実行する場合に必要とするリソースを十分に確保することができます。
 - ワークロードノードは、パフォーマンスとスケーラビリティーのワークロードジェネレーターを実行するための専用ノードです。
 - パフォーマンスおよびスケーラビリティーのテストの実行中に収集される大容量のデータを保存するのに十分な領域を確保できるように、大きなディスクサイズが使用されます。
 - クラスターは反復的にスケーリングされ、パフォーマンスおよびスケーラビリティーテストは指定されたノード数で実行されます。
 
4.2.2. IBM Power プラットフォーム リンクのコピーリンクがクリップボードにコピーされました!
| ノード | vCPU | RAM(GiB) | ディスクタイプ | ディスクサイズ (GiB)/IOS | カウント | 
|---|---|---|---|---|---|
|   コントロールプレーン/etcd [1]  |   16  |   32  |   io1  |   GiB あたり 120/10 IOPS  |   3  | 
|   インフラ [2]  |   16  |   64  |   gp2  |   120  |   2  | 
|   ワークロード [3]  |   16  |   256  |   gp2  |   120 [4]  |   1  | 
|   コンピュート  |   16  |   64  |   gp2  |   120  |   2 から 100 [5]  | 
- etcd は I/O 負荷が高く、レイテンシーの影響を受けやすいため、コントロールプレーン/etcd ノードには、GiB あたり 120/10 IOPS の io1 ディスクが使用されます。
 - インフラストラクチャーノードは、モニタリング、Ingress およびレジストリーコンポーネントをホストするために使用され、これにより、それらが大規模に実行する場合に必要とするリソースを十分に確保することができます。
 - ワークロードノードは、パフォーマンスとスケーラビリティーのワークロードジェネレーターを実行するための専用ノードです。
 - パフォーマンスおよびスケーラビリティーのテストの実行中に収集される大容量のデータを保存するのに十分な領域を確保できるように、大きなディスクサイズが使用されます。
 - クラスターは反復でスケーリングされます。
 
4.2.3. IBM Z プラットフォーム リンクのコピーリンクがクリップボードにコピーされました!
| ノード | vCPU [4] | RAM(GiB)[5] | ディスクタイプ | ディスクサイズ (GiB)/IOS | カウント | 
|---|---|---|---|---|---|
|   コントロールプレーン/etcd [1,2]  |   8  |   32  |   ds8k  |   300 / LCU 1  |   3  | 
|   コンピュート [1,3]  |   8  |   32  |   ds8k  |   150 / LCU 2  |   4 ノード (ノードあたり 100/250/500 Pod にスケーリング)  | 
- ノードは 2 つの論理制御ユニット (LCU) 間で分散され、コントロールプレーン/etcd ノードのディスク I/O 負荷を最適化します。etcd の I/O 需要が他のワークロードに干渉してはなりません。
 - 100/250/500 Pod で同時に複数の反復を実行するテストには、4 つのコンピュートノードが使用されます。まず、Pod をインスタンス化できるかどうかを評価するために、アイドリング Pod が使用されました。次に、ネットワークと CPU を必要とするクライアント/サーバーのワークロードを使用して、ストレス下でのシステムの安定性を評価しました。クライアント Pod とサーバー Pod はペアで展開され、各ペアは 2 つのコンピュートノードに分散されました。
 - 個別のワークロードノードは使用されませんでした。ワークロードは、2 つのコンピュートノード間のマイクロサービスワークロードをシミュレートします。
 - 使用されるプロセッサーの物理的な数は、6 つの Integrated Facilities for Linux (IFL) です。
 - 使用される物理メモリーの合計は 512 GiB です。