This documentation is for a release that is no longer maintained
See documentation for the latest supported version 3 or the latest supported version 4.8.2. 클러스터 최대값 테스트를 위한 OpenShift Container Platform 환경 및 구성
8.2.1. AWS 클라우드 플랫폼 링크 복사링크가 클립보드에 복사되었습니다!
| 노드 | 플레이버 | vCPU | RAM(GiB) | 디스크 유형 | 디스크 크기(GiB)/IOS | 수량 | 리전 | 
|---|---|---|---|---|---|---|---|
|   컨트롤 플레인/etcd [1]  |   r5.4xlarge  |   16  |   128  |   gp3  |   220  |   3  |   us-west-2  | 
|   인프라 [2]  |   m5.12xlarge  |   48  |   192  |   gp3  |   100  |   3  |   us-west-2  | 
|   워크로드 [3]  |   m5.4xlarge  |   16  |   64  |   gp3  |   500 [4]  |   1  |   us-west-2  | 
|   Compute  |   m5.2xlarge  |   8  |   32  |   gp3  |   100  |   3/25/250/500 [5]  |   us-west-2  | 
- etcd는 대기 시간에 민감하기 때문에 3000 IOPS 및 125MiB의 성능이 있는 gp3 디스크는 컨트롤 플레인/etcd 노드에 사용됩니다. gp3 볼륨은 버스트 성능을 사용하지 않습니다.
 - 인프라 노드는 모니터링, Ingress 및 레지스트리 구성 요소를 호스팅하는데 사용되어 대규모로 실행할 수 있는 충분한 리소스가 있는지 확인합니다.
 - 워크로드 노드는 성능 및 확장 가능한 워크로드 생성기 실행 전용입니다.
 - 성능 및 확장성 테스트 실행 중에 수집되는 대량의 데이터를 저장할 수 있는 충분한 공간을 확보 할 수 있도록 큰 디스크 크기가 사용됩니다.
 - 클러스터는 반복적으로 확장되며 성능 및 확장성 테스트는 지정된 노드 수에 따라 실행됩니다.
 
8.2.2. IBM Power 플랫폼 링크 복사링크가 클립보드에 복사되었습니다!
| 노드 | vCPU | RAM(GiB) | 디스크 유형 | 디스크 크기(GiB)/IOS | 수량 | 
|---|---|---|---|---|---|
|   컨트롤 플레인/etcd [1]  |   16  |   32  |   io1  |   GiB당 120 / 10 IOPS  |   3  | 
|   인프라 [2]  |   16  |   64  |   gp2  |   120  |   2  | 
|   워크로드 [3]  |   16  |   256  |   gp2  |   120 [4]  |   1  | 
|   Compute  |   16  |   64  |   gp2  |   120  |   2~100 [5]  | 
- etcd는 I/O 집약적이고 지연 시간에 민감하므로 GiB당 120 / 10 IOPS가 있는 io1 디스크는 컨트롤 플레인/etcd 노드에 사용됩니다.
 - 인프라 노드는 모니터링, Ingress 및 레지스트리 구성 요소를 호스팅하는데 사용되어 대규모로 실행할 수 있는 충분한 리소스가 있는지 확인합니다.
 - 워크로드 노드는 성능 및 확장 가능한 워크로드 생성기 실행 전용입니다.
 - 성능 및 확장성 테스트 실행 중에 수집되는 대량의 데이터를 저장할 수 있는 충분한 공간을 확보 할 수 있도록 큰 디스크 크기가 사용됩니다.
 - 클러스터는 반복으로 확장됩니다.
 
8.2.3. IBM Z 플랫폼 링크 복사링크가 클립보드에 복사되었습니다!
| 노드 | vCPU [4] | RAM(GiB)[5] | 디스크 유형 | 디스크 크기(GiB)/IOS | 수량 | 
|---|---|---|---|---|---|
|   컨트롤 플레인/etcd [1,2]  |   8  |   32  |   ds8k  |   300 / LCU 1  |   3  | 
|   Compute [1,3]  |   8  |   32  |   ds8k  |   150 / LCU 2  |   노드 4개 (노드당 100/250/500 Pod로 확장)  | 
- etcd는 I/O 집약적이고 지연 시간에 민감하므로 두 개의 논리 제어 단위(LCU)에 분산되어 컨트롤 플레인/etcd 노드의 디스크 I/O 로드를 최적화합니다. etcd I/O 수요가 다른 워크로드를 방해하지 않아야 합니다.
 - 컴퓨팅 노드 4개가 동시에 100/250/500개의 Pod로 여러 반복을 실행하는 테스트에 사용됩니다. 먼저 유휴 Pod를 사용하여 Pod를 인스턴스할 수 있는지 평가합니다. 다음으로, 네트워크 및 CPU의 우선 순위 클라이언트/서버 워크로드가 강조되는 시스템의 안정성을 평가하는 데 사용되었습니다. 클라이언트 및 서버 Pod가 쌍으로 배포되었으며 각 쌍이 두 개의 컴퓨팅 노드에 분배되었습니다.
 - 별도의 워크로드 노드가 사용되지 않았습니다. 워크로드는 두 개의 컴퓨팅 노드 간에 마이크로 서비스 워크로드를 시뮬레이션합니다.
 - 사용되는 물리적 프로세서 수는 6개의 IIFL(Integrated F facility)입니다.
 - 사용된 총 물리 메모리는 512GiB입니다.