1.8. Problèmes connus
Dans OpenShift Container Platform 4.1, les utilisateurs anonymes pouvaient accéder aux terminaux de découverte. Les versions ultérieures ont révoqué cet accès afin de réduire la surface d'attaque possible pour les exploits de sécurité, car certains points de terminaison de découverte sont transmis à des serveurs d'API agrégés. Cependant, l'accès non authentifié est préservé dans les clusters mis à jour afin que les cas d'utilisation existants ne soient pas interrompus.
Si vous êtes un administrateur de cluster pour un cluster qui a été mis à niveau de OpenShift Container Platform 4.1 à 4.12, vous pouvez soit révoquer, soit continuer à autoriser l'accès non authentifié. À moins qu'il n'y ait un besoin spécifique pour l'accès non authentifié, vous devriez le révoquer. Si vous continuez à autoriser l'accès non authentifié, soyez conscient des risques accrus.
AvertissementSi vous avez des applications qui dépendent d'un accès non authentifié, elles peuvent recevoir des erreurs HTTP
403
si vous révoquez l'accès non authentifié.Utilisez le script suivant pour révoquer l'accès non authentifié aux terminaux de découverte :
## Snippet to remove unauthenticated group from all the cluster role bindings $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ; do ### Find the index of unauthenticated group in list of subjects index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)'); ### Remove the element at index from subjects array oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]"; done
Ce script supprime les sujets non authentifiés des liaisons de rôles de cluster suivantes :
-
cluster-status-binding
-
discovery
-
system:basic-user
-
system:discovery
-
system:openshift:discovery
-
Par intermittence, un cluster IBM Cloud VPC peut échouer à s'installer parce que certaines machines de travail ne démarrent pas. Au contraire, ces machines de travail restent dans la phase
Provisioned
.Il existe une solution de contournement pour ce problème. À partir de l'hôte où vous avez effectué l'installation initiale, supprimez les machines qui ont échoué et exécutez à nouveau le programme d'installation.
Vérifiez que l'état de l'équilibreur de charge d'application interne (ALB) pour le serveur API maître est
active
.Identifiez l'ID d'infrastructure du cluster en exécutant la commande suivante :
$ oc get infrastructure/cluster -ojson | jq -r '.status.infrastructureName'
- Connectez-vous au compte IBM Cloud de votre cluster et ciblez la région correcte pour votre cluster.
Vérifiez que l'état de l'ALB interne est
active
en exécutant la commande suivante :$ ibmcloud is lb <cluster_ID>-kubernetes-api-private --output json | jq -r '.provisioning_status'
Identifiez les machines qui sont dans la phase
Provisioned
en exécutant la commande suivante :$ oc get machine -n openshift-machine-api
Exemple de sortie
NAME PHASE TYPE REGION ZONE AGE example-public-1-x4gpn-master-0 Running bx2-4x16 us-east us-east-1 23h example-public-1-x4gpn-master-1 Running bx2-4x16 us-east us-east-2 23h example-public-1-x4gpn-master-2 Running bx2-4x16 us-east us-east-3 23h example-public-1-x4gpn-worker-1-xqzzm Running bx2-4x16 us-east us-east-1 22h example-public-1-x4gpn-worker-2-vg9w6 Provisioned bx2-4x16 us-east us-east-2 22h example-public-1-x4gpn-worker-3-2f7zd Provisioned bx2-4x16 us-east us-east-3 22h
Supprimez chaque machine défaillante en exécutant la commande suivante :
$ oc delete machine <name_of_machine> -n openshift-machine-api
- Attendez que les machines des travailleurs supprimés soient remplacées, ce qui peut prendre jusqu'à 10 minutes.
Vérifiez que les nouvelles machines de travail sont dans la phase
Running
en exécutant la commande suivante :$ oc get machine -n openshift-machine-api
Exemple de sortie
NAME PHASE TYPE REGION ZONE AGE example-public-1-x4gpn-master-0 Running bx2-4x16 us-east us-east-1 23h example-public-1-x4gpn-master-1 Running bx2-4x16 us-east us-east-2 23h example-public-1-x4gpn-master-2 Running bx2-4x16 us-east us-east-3 23h example-public-1-x4gpn-worker-1-xqzzm Running bx2-4x16 us-east us-east-1 23h example-public-1-x4gpn-worker-2-mnlsz Running bx2-4x16 us-east us-east-2 8m2s example-public-1-x4gpn-worker-3-7nz4q Running bx2-4x16 us-east us-east-3 7m24s
Terminez l'installation en exécutant la commande suivante. Une nouvelle exécution du programme d'installation permet de s'assurer que le site
kubeconfig
de la grappe est correctement initialisé :$ ./openshift-install wait-for install-complete
-
La commande
oc annotate
ne fonctionne pas pour les noms de groupes LDAP qui contiennent un signe égal (=
), car la commande utilise le signe égal comme délimiteur entre le nom et la valeur de l'annotation. Pour contourner le problème, utilisezoc patch
ouoc edit
pour ajouter l'annotation. (BZ#1917280) -
En raison de l'inclusion d'anciennes images dans certains index d'images, l'exécution de
oc adm catalog mirror
etoc image mirror
peut entraîner l'erreur suivante :error: unable to retrieve source image
. En guise de solution temporaire, vous pouvez utiliser l'option--skip-missing
pour contourner l'erreur et continuer à télécharger l'index d'images. Pour plus d'informations, voir Échec de la mise en miroir de l'opérateur du service Mesh. - Lorsque vous utilisez la fonctionnalité d'adresse IP egress dans OpenShift Container Platform on RHOSP, vous pouvez attribuer une adresse IP flottante à un port de réservation afin de disposer d'une adresse SNAT prévisible pour le trafic egress. L'association d'adresses IP flottantes doit être créée par le même utilisateur que celui qui a installé le cluster OpenShift Container Platform. Sinon, toute opération de suppression ou de déplacement de l'adresse IP de sortie est bloquée indéfiniment en raison de l'insuffisance des privilèges. Lorsque ce problème se produit, un utilisateur disposant de privilèges suffisants doit désactiver manuellement l'association d'adresses IP flottantes pour résoudre le problème. (OCPBUGS-4902)
- Il y a un problème connu avec l'installation de Nutanix où l'installation échoue si vous utilisez des certificats 4096-bit avec Prism Central 2022.x. Au lieu de cela, utilisez des certificats 2048-bit. (KCS)
-
La suppression du profil de détection de transfert bidirectionnel (BFD) et de l'adresse
bfdProfile
ajoutée à la ressource homologue du protocole de passerelle frontalière (BGP) ne désactive pas le BFD. Au lieu de cela, le pair BGP commence à utiliser le profil BFD par défaut. Pour désactiver le BFD à partir d'une ressource homologue BGP, supprimez la configuration de l'homologue BGP et recréez-la sans profil BFD. (BZ#2050824) - En raison d'un problème non résolu au niveau de l'API des métadonnées, vous ne pouvez pas installer des clusters qui utilisent des workers bare-metal sur RHOSP 16.1. Les clusters sur RHOSP 16.2 ne sont pas concernés par ce problème. (BZ#2033953)
-
L'attribut
loadBalancerSourceRanges
n'est pas supporté, et est donc ignoré, dans les services de type load-balancer dans les clusters qui tournent sous RHOSP et utilisent le fournisseur OVN Octavia. Il n'y a pas de solution à ce problème. (OCPBUGS-2789) Après une mise à jour de la source du catalogue, OLM met du temps à mettre à jour l'état de l'abonnement. Cela peut signifier que l'état de la politique d'abonnement peut continuer à s'afficher comme conforme lorsque le gestionnaire du cycle de vie Topology Aware (TALM) décide si une remédiation est nécessaire. En conséquence, l'opérateur spécifié dans la politique d'abonnement n'est pas mis à niveau. Comme solution de contournement, incluez un champ
status
dans la sectionspec
de la politique de source de catalogue comme suit :metadata: name: redhat-operators-disconnected spec: displayName: disconnected-redhat-operators image: registry.example.com:5000/disconnected-redhat-operators/disconnected-redhat-operator-index:v4.11 status: connectionState: lastObservedState: READY
Cela réduit le délai nécessaire à OLM pour extraire la nouvelle image d'index et préparer le pod, réduisant ainsi le délai entre l'achèvement de la remédiation de la politique de source du catalogue et la mise à jour de l'état de l'abonnement. Si le problème persiste et que la mise à jour de l'état de la politique d'abonnement est toujours en retard, vous pouvez appliquer une autre CR
ClusterGroupUpdate
avec la même politique d'abonnement, ou une CRClusterGroupUpdate
identique avec un nom différent. (OCPBUGS-2813)TALM ne procède pas à la remédiation d'une politique si tous les clusters sélectionnés sont conformes lorsque le CR
ClusterGroupUpdate
est démarré. La mise à jour des opérateurs avec une politique de source de catalogue modifiée et une politique d'abonnement dans la même CRClusterGroupUpdate
ne se termine pas. La politique d'abonnement est ignorée car elle est toujours conforme jusqu'à ce que la modification de la source du catalogue soit appliquée. Pour contourner le problème, ajoutez la modification suivante à un CR de la politiquecommon-subscription
, par exemple :metadata.annotations.upgrade: "1"
La politique n'est donc pas conforme avant le début de la CR
ClusterGroupUpdate
. (OCPBUGS-2812)- Sur une instance OpenShift à nœud unique, le redémarrage sans vidanger le nœud pour supprimer tous les pods en cours d'exécution peut entraîner des problèmes avec la récupération des conteneurs de charge de travail. Après le redémarrage, la charge de travail redémarre avant que tous les plugins de périphérique soient prêts, ce qui entraîne l'indisponibilité des ressources ou l'exécution de la charge de travail sur le mauvais nœud NUMA. La solution consiste à redémarrer les modules de charge de travail lorsque tous les plugins de périphériques se sont réenregistrés au cours de la procédure de reprise après redémarrage. (OCPBUGS-2180)
-
La valeur par défaut de
dataset_comparison
est actuellementieee1588
. Le dataset_comparison recommandé estG.8275.x
. Il est prévu de le corriger dans une prochaine version d'OpenShift Container Platform. À court terme, vous pouvez mettre à jour manuellement la configuration de ptp pour inclure la version recommandéedataset_comparison
. (OCPBUGS-2336) -
La valeur par défaut de
step_threshold
est 0.0. La valeur recommandée pourstep_threshold
est 2.0. Il est prévu que cela soit corrigé dans une future version d'OpenShift Container Platform. À court terme, vous pouvez mettre à jour manuellement la configuration de ptp pour inclure la version recommandéestep_threshold
. (OCPBUGS-3005) Le CR
BMCEventSubscription
ne parvient pas à créer un abonnement Redfish pour un cluster spoke dans un environnement multi-cluster déployé par ACM, où le service metal3 ne fonctionne que sur un cluster hub. La solution consiste à créer l'abonnement en appelant directement l'API Redfish, par exemple en exécutant la commande suivante :curl -X POST -i --insecure -u "<BMC_username>:<BMC_password>" https://<BMC_IP>/redfish/v1/EventService/Subscriptions \ -H 'Content-Type: application/json' \ --data-raw '{ "Protocol": "Redfish", "Context": "any string is valid", "Destination": "https://hw-event-proxy-openshift-bare-metal-events.apps.example.com/webhook", "EventTypes": ["Alert"] }'
Vous devriez recevoir une réponse
201 Created
et un en-tête avecLocation: /redfish/v1/EventService/Subscriptions/<sub_id>
qui indique que l'abonnement aux événements Redfish a été créé avec succès. (OCPBUGSM-43707)-
Lors de l'utilisation du pipeline ZTP GitOps pour installer un cluster OpenShift à un seul nœud dans un environnement déconnecté, il devrait y avoir deux
CatalogSource
CRs appliqués dans le cluster. L'un des CRCatalogSource
est supprimé à la suite de plusieurs redémarrages de nœuds. Comme solution de contournement, vous pouvez changer les noms par défaut, tels quecertified-operators
etredhat-operators
, des sources de catalogue. (OCPBUGSM-46245) -
Si un canal d'abonnement non valide est spécifié dans la politique d'abonnement utilisée pour effectuer une mise à niveau de cluster, le Topology Aware Lifecycle Manager indique une mise à niveau réussie juste après l'application de la politique, car l'état
Subscription
resteAtLatestKnown
. (OCPBUGSM-43618) -
La définition de partition de disque
SiteConfig
échoue lorsqu'elle est appliquée à plusieurs nœuds d'un cluster. Lorsqu'un CRSiteConfig
est utilisé pour provisionner un cluster compact, la création d'une configurationdiskPartition
valide sur plusieurs nœuds échoue avec une erreur du plugin Kustomize. (OCPBUGSM-44403) - Si le démarrage sécurisé est actuellement désactivé et que vous essayez de l'activer à l'aide de ZTP, l'installation du cluster ne démarre pas. Lorsque le démarrage sécurisé est activé via ZTP, les options de démarrage sont configurées avant que le CD virtuel ne soit attaché. Par conséquent, lors du premier démarrage à partir du disque dur existant, le démarrage sécurisé est activé. L'installation du cluster est bloquée car le système ne démarre jamais à partir du CD. (OCPBUGSM-45085)
- En utilisant Red Hat Advanced Cluster Management (RHACM), les déploiements de cluster de rayons sur les serveurs Dell PowerEdge R640 sont bloqués lorsque le média virtuel ne déconnecte pas l'ISO dans la console iDRAC après avoir écrit l'image sur le disque. Comme solution de contournement, déconnectez l'ISO manuellement via l'onglet Média virtuel dans la console iDRAC. (OCPBUGSM-45884)
- Les applications à faible latence qui s'appuient sur des minuteries à haute résolution pour réveiller leurs threads peuvent présenter des latences de réveil plus élevées que prévu. Bien que la latence de réveil attendue soit inférieure à 20us, des latences supérieures peuvent occasionnellement être observées lors de l'exécution de l'outil cyclictest pendant de longues durées (24 heures ou plus). Les tests ont montré que les latences de réveil sont inférieures à 20us pour plus de 99,999999% des échantillons. (RHELPLAN-138733)
- Une carte d'interface réseau Chapman Beach d'Intel doit être installée dans un emplacement PCIe bifurqué pour que les deux ports soient visibles. Il existe également une limitation dans l'outil devlink actuel de RHEL 8.6 qui empêche la configuration de 2 ports dans l'emplacement PCIe bifurqué. (RHELPLAN-142458)
- La désactivation d'un SR-IOV VF lorsqu'un port tombe en panne peut entraîner un délai de 3 à 4 secondes avec les cartes d'interface réseau d'Intel. (RHELPLAN-126931)
- Lors de l'utilisation de cartes réseau Intel, le trafic IPV6 s'arrête lorsqu'une adresse IPV6 est attribuée à un VF SR-IOV. (RHELPLAN-137741)
-
Lors de l'utilisation du délestage de bandes VLAN, le drapeau de délestage (
ol_flag
) n'est pas toujours défini correctement avec le pilote iavf. (RHELPLAN-141240) - Un blocage peut se produire si une allocation échoue lors d'un changement de configuration du pilote de glace. (RHELPLAN-130855)
- Les VF SR-IOV envoient des paquets GARP avec la mauvaise adresse MAC lorsqu'ils utilisent des cartes réseau Intel. (RHELPLAN-140971)
Lorsque vous utilisez la méthode ZTP de GitOps pour gérer les clusters et que vous supprimez un cluster dont l'installation n'est pas terminée, le nettoyage de l'espace de noms du cluster sur le cluster hub peut être suspendu indéfiniment. Pour terminer la suppression de l'espace de noms, supprimez le finalisateur
baremetalhost.metal3.io
de deux CR dans l'espace de noms du cluster :-
Retirer le finalisateur du secret pointé par le CR
.spec.bmc.credentialsName
de BareMetalHost. -
Retirer le finalisateur de
BareMetalHost
CR. Lorsque ces finaliseurs sont supprimés, la terminaison de l'espace de noms s'effectue en quelques secondes. (OCPBUGS-3029)
-
Retirer le finalisateur du secret pointé par le CR
- L'ajout d'une nouvelle fonctionnalité dans l'OCP 4.12 qui active UDP GRO fait également que tous les appareils veth ont une file d'attente RX par CPU disponible (auparavant, chaque veth avait une file d'attente). Ces files d'attente sont configurées dynamiquement par OVN et il n'y a pas de synchronisation entre le réglage de la latence et la création de cette file d'attente. La logique de réglage de la latence surveille les événements de création des cartes réseau des veth et commence à configurer les masques de CPU des files d'attente RPS avant que toutes les files d'attente ne soient correctement créées. Cela signifie que certains masques de file d'attente RPS ne sont pas configurés. Étant donné que toutes les files d'attente des cartes réseau ne sont pas configurées correctement, il est possible que des pics de latence se produisent dans une application en temps réel qui utilise des processeurs sensibles au temps pour communiquer avec des services dans d'autres conteneurs. Les applications qui n'utilisent pas la pile réseau du noyau ne sont pas affectées. (OCPBUGS-4194)
Problèmes connus de l'opérateur de plate-forme et du RukPak :
- La suppression d'un opérateur de plate-forme entraîne la suppression en cascade des ressources sous-jacentes. Cette logique de suppression en cascade ne peut supprimer que les ressources définies dans le format de regroupement de l'opérateur basé sur le gestionnaire du cycle de vie de l'opérateur (OLM). Dans le cas où un opérateur de plateforme crée des ressources qui sont définies en dehors de ce format de bundle, l'opérateur de plateforme est responsable de la gestion de cette interaction de nettoyage. Ce comportement peut être observé lors de l'installation de l'opérateur cert-manager en tant qu'opérateur de plate-forme, puis lors de sa suppression. Le comportement attendu est qu'un espace de noms créé par l'opérateur cert-manager est laissé derrière lui.
-
Le gestionnaire de la plate-forme Operators ne dispose d'aucune logique permettant de comparer l'état actuel et l'état souhaité de la ressource
BundleDeployment
gérée par le cluster. Cela permet à un utilisateur disposant d'un contrôle d'accès basé sur les rôles (RBAC) suffisant de modifier manuellement cette ressource sous-jacenteBundleDeployment
et peut conduire à des situations dans lesquelles les utilisateurs peuvent escalader leurs autorisations jusqu'au rôlecluster-admin
. Par défaut, vous devez limiter l'accès à cette ressource à un petit nombre d'utilisateurs qui en ont explicitement besoin. Le seul client pris en charge pour la ressourceBundleDeployment
dans le cadre de cette version d'aperçu technologique est le composant de gestion des opérateurs de la plate-forme. -
Le composant Marketplace d'OLM est une fonctionnalité optionnelle qui peut être désactivée. Cela a des conséquences pour la version Technology Preview, car les opérateurs de plate-forme ne proviennent actuellement que de la source de catalogue
redhat-operators
gérée par le composant Marketplace. En guise de solution de contournement, un administrateur de cluster peut créer cette source de catalogue manuellement. -
Les implémentations du provisionneur RukPak n'ont pas la capacité d'inspecter la santé ou l'état des ressources qu'elles gèrent. Cela a des conséquences sur la remontée de l'état de la ressource
BundleDeployment
générée vers la ressourcePlatformOperator
qui la possède. Si un bundleregistry v1
contient des manifestes qui peuvent être appliqués avec succès au cluster, mais qui échoueront au moment de l'exécution, comme un objetDeployment
référençant une image inexistante, le résultat est un état réussi reflété dans les ressources individuellesPlatformOperator
etBundleDeployment
. -
Les administrateurs de clusters qui configurent les ressources
PlatformOperator
avant la création du cluster ne peuvent pas facilement déterminer le nom du paquet souhaité sans s'appuyer sur un cluster existant ou sur des exemples documentés. Il n'existe actuellement aucune logique de validation garantissant qu'une ressourcePlatformOperator
configurée individuellement pourra être déployée avec succès dans le cluster.
- Lors de l'utilisation de la fonctionnalité OCI Technology Preview avec le plugin CLI oc-mirror, le catalogue miroir intègre tous les bundles Operator, au lieu de ne filtrer que ceux spécifiés dans le fichier de configuration de l'ensemble d'images. (OCPBUGS-5085)
- Il y a actuellement un problème connu lorsque vous exécutez l'installateur OpenShift Container Platform basé sur l'agent pour générer une image ISO à partir d'un répertoire où la version précédente a été utilisée pour la génération d'image ISO. Un message d'erreur s'affiche avec la version qui ne correspond pas. Pour contourner le problème, créez et utilisez un nouveau répertoire. (OCPBUGS#5159)
-
Les capacités définies dans le fichier
install-config.yaml
ne sont pas appliquées dans l'installation d'OpenShift Container Platform basée sur un agent. Actuellement, il n'y a pas de solution de contournement. (OCPBUGS#5129) - Les équilibreurs de charge entièrement remplis sur RHOSP qui sont créés avec le pilote OVN peuvent contenir des pools qui sont bloqués dans un statut de création en attente. Ce problème peut affecter les clusters déployés sur RHOSP. Pour résoudre ce problème, mettez à jour vos paquets RHOSP. (BZ#2042976)
-
Les mises à jour en masse des membres de l'équilibreur de charge sur RHOSP peuvent renvoyer un code 500 en réponse aux requêtes
PUT
. Ce problème peut affecter les clusters déployés sur RHOSP. Pour résoudre ce problème, mettez à jour vos paquets RHOSP. (BZ#2100135) Les clusters qui utilisent des fournisseurs de cloud externes peuvent ne pas récupérer les informations d'identification mises à jour après la rotation. Les plateformes suivantes sont concernées :
- Nuage d'Alibaba
- IBM Cloud VPC
- IBM Power
- Virtualisation OpenShift
- RHOSP
En guise de solution, redémarrez les pods
openshift-cloud-controller-manager
en exécutant la commande suivante :$ oc delete pods --all -n openshift-cloud-controller-manager
-
Il y a un problème connu lorsque
cloud-provider-openstack
essaie de créer des moniteurs de santé sur les équilibreurs de charge OVN en utilisant l'API pour créer des équilibreurs de charge entièrement peuplés. Ces moniteurs de santé sont bloqués dans le statutPENDING_CREATE
. Après leur suppression, les équilibreurs de charge associés sont bloqués dans un statutPENDING_UPDATE
. Il n'y a pas de solution. (BZ#2143732) -
En raison d'un problème connu, pour utiliser des réseaux IPv6 avec état avec des clusters fonctionnant sous RHOSP, vous devez inclure
ip=dhcp,dhcpv6
dans les arguments du noyau des nœuds de travail. (OCPBUGS-2104) - Il n'est pas possible de créer un macvlan sur la fonction physique (PF) lorsqu'une fonction virtuelle (VF) existe déjà. Ce problème concerne le NIC Intel E810. (BZ#2120585)
-
Il y a actuellement un problème connu lors de la configuration manuelle d'adresses et de routes IPv6 sur un cluster OpenShift Container Platform IPv4. Lors de la conversion vers un cluster dual-stack, les pods nouvellement créés restent dans le statut
ContainerCreating
. Actuellement, il n'y a pas de solution de contournement. Ce problème devrait être résolu dans une prochaine version d'OpenShift Container Platform. (OCPBUGS-4411) -
Lorsqu'un cluster OVN installé sur IBM Public Cloud compte plus de 60 nœuds de travail, la création simultanée d'au moins 2000 services et objets de route peut faire en sorte que les pods créés en même temps restent dans l'état
ContainerCreating
. Si ce problème se produit, la saisie de la commandeoc describe pod <podname>
affiche les événements avec l'avertissement suivant :FailedCreatePodSandBox…failed to configure pod interface: timed out waiting for OVS port binding (ovn-installed)
. Il n'existe actuellement aucune solution à ce problème. (OCPBUGS-3470) Lorsqu'une machine de plan de contrôle est remplacée sur un cluster qui utilise le fournisseur de réseau OVN-Kubernetes, les pods liés à OVN-Kubernetes peuvent ne pas démarrer sur la machine de remplacement. Dans ce cas, l'absence de réseau sur la nouvelle machine empêche etcd de remplacer l'ancienne machine. En conséquence, le cluster est bloqué dans cet état et peut se dégrader. Ce comportement peut se produire lorsque le plan de contrôle est remplacé manuellement ou par le jeu de machines du plan de contrôle.
Il n'existe actuellement aucune solution pour résoudre ce problème. Pour éviter ce problème, désactivez le jeu de machines du plan de contrôle et ne remplacez pas manuellement les machines du plan de contrôle si votre cluster utilise le fournisseur de réseau OVN-Kubernetes. (OCPBUGS-5306)
-
Si un cluster déployé via ZTP a des politiques qui ne sont pas conformes et qu'aucun objet
ClusterGroupUpdates
n'est présent, vous devez redémarrer les pods TALM. Le redémarrage de TALM crée l'objetClusterGroupUpdates
approprié, ce qui renforce la conformité de la politique. (OCPBUGS-4065) -
Actuellement, un problème de conformité de certificat, spécifiquement sorti comme
x509: certificate is not standards compliant
, existe lorsque vous exécutez le programme d'installation sur macOS dans le but d'installer un cluster OpenShift Container Platform sur VMware vSphere. Ce problème est lié à un problème connu avec le compilateurgolang
dans la mesure où le compilateur ne reconnaît pas les normes de certificat macOS nouvellement prises en charge. Il n'existe pas de solution à ce problème. (OSDOCS-5694)