7.2. Environnement et configuration d'OpenShift Container Platform sur lesquels les maxima des clusters sont testés
7.2.1. Plate-forme en nuage AWS
Nœud | Saveur | vCPU | RAM(GiB) | Type de disque | Taille du disque (GiB)/IOS | Compter | Region |
---|---|---|---|---|---|---|---|
Plan de contrôle/etcd [1] | r5.4xlarge | 16 | 128 | gp3 | 220 | 3 | us-west-2 |
Infra [2] | m5.12xlarge | 48 | 192 | gp3 | 100 | 3 | us-west-2 |
Charge de travail [3] | m5.4xlarge | 16 | 64 | gp3 | 500 [4] | 1 | us-west-2 |
Compute | m5.2xlarge | 8 | 32 | gp3 | 100 | 3/25/250/500 [5] | us-west-2 |
- les disques gp3 avec une performance de base de 3000 IOPS et 125 MiB par seconde sont utilisés pour les nœuds du plan de contrôle/etcd parce que etcd est sensible à la latence. Les volumes gp3 n'utilisent pas la performance en rafale.
- Les nœuds Infra sont utilisés pour héberger les composants de surveillance, d'entrée et de registre afin de s'assurer qu'ils disposent de suffisamment de ressources pour fonctionner à grande échelle.
- Le nœud de charge de travail est dédié à l'exécution des générateurs de charge de travail de performance et d'évolutivité.
- Une taille de disque plus importante est utilisée afin de disposer de suffisamment d'espace pour stocker les grandes quantités de données collectées lors des tests de performance et d'évolutivité.
- La grappe est mise à l'échelle par itérations et les tests de performance et d'évolutivité sont exécutés aux nombres de nœuds spécifiés.
7.2.2. Plate-forme IBM Power
Nœud | vCPU | RAM(GiB) | Type de disque | Taille du disque (GiB)/IOS | Compter |
---|---|---|---|---|---|
Plan de contrôle/etcd [1] | 16 | 32 | io1 | 120 / 10 IOPS par GiB | 3 |
Infra [2] | 16 | 64 | gp2 | 120 | 2 |
Charge de travail [3] | 16 | 256 | gp2 | 120 [4] | 1 |
Compute | 16 | 64 | gp2 | 120 | 2 à 100 [5] |
- les disques io1 avec 120 / 10 IOPS par GiB sont utilisés pour les nœuds de plan de contrôle/etcd car etcd est intensif en E/S et sensible à la latence.
- Les nœuds Infra sont utilisés pour héberger les composants de surveillance, d'entrée et de registre afin de s'assurer qu'ils disposent de suffisamment de ressources pour fonctionner à grande échelle.
- Le nœud de charge de travail est dédié à l'exécution des générateurs de charge de travail de performance et d'évolutivité.
- Une taille de disque plus importante est utilisée afin de disposer de suffisamment d'espace pour stocker les grandes quantités de données collectées lors des tests de performance et d'évolutivité.
- La grappe est échelonnée en itérations.
7.2.3. Plate-forme IBM zSystems
Nœud | vCPU [4] | RAM(GiB)[5] | Type de disque | Taille du disque (GiB)/IOS | Compter |
---|---|---|---|---|---|
Plan de contrôle/etcd [1,2] | 8 | 32 | ds8k | 300 / LCU 1 | 3 |
Calculer [1,3] | 8 | 32 | ds8k | 150 / LCU 2 | 4 nœuds (échelonnés à 100/250/500 pods par nœud) |
- Les nœuds sont répartis entre deux unités de contrôle logique (LCU) afin d'optimiser la charge d'E/S sur disque des nœuds du plan de contrôle/etcd, car etcd est gourmand en E/S et sensible à la latence. La demande d'E/S d'Etcd ne doit pas interférer avec d'autres charges de travail.
- Quatre nœuds de calcul sont utilisés pour les tests en effectuant plusieurs itérations avec 100/250/500 pods en même temps. Tout d'abord, des pods au ralenti ont été utilisés pour évaluer si les pods peuvent être instanciés. Ensuite, une charge de travail client/serveur exigeante en termes de réseau et de CPU a été utilisée pour évaluer la stabilité du système sous contrainte. Les modules clients et serveurs ont été déployés par paire et chaque paire a été répartie sur deux nœuds de calcul.
- Aucun nœud de charge de travail séparé n'a été utilisé. La charge de travail simule une charge de travail de microservice entre deux nœuds de calcul.
- Le nombre physique de processeurs utilisés est de six installations intégrées pour Linux (IFL).
- La mémoire physique totale utilisée est de 512 GiB.