Rechercher

1.8. Problèmes connus

download PDF
  • Dans OpenShift Container Platform 4.1, les utilisateurs anonymes pouvaient accéder aux terminaux de découverte. Les versions ultérieures ont révoqué cet accès afin de réduire la surface d'attaque possible pour les exploits de sécurité, car certains points de terminaison de découverte sont transmis à des serveurs d'API agrégés. Cependant, l'accès non authentifié est préservé dans les clusters mis à jour afin que les cas d'utilisation existants ne soient pas interrompus.

    Si vous êtes un administrateur de cluster pour un cluster qui a été mis à niveau de OpenShift Container Platform 4.1 à 4.12, vous pouvez soit révoquer, soit continuer à autoriser l'accès non authentifié. À moins qu'il n'y ait un besoin spécifique pour l'accès non authentifié, vous devriez le révoquer. Si vous continuez à autoriser l'accès non authentifié, soyez conscient des risques accrus.

    Avertissement

    Si vous avez des applications qui dépendent d'un accès non authentifié, elles peuvent recevoir des erreurs HTTP 403 si vous révoquez l'accès non authentifié.

    Utilisez le script suivant pour révoquer l'accès non authentifié aux terminaux de découverte :

    ## Snippet to remove unauthenticated group from all the cluster role bindings
    $ for clusterrolebinding in cluster-status-binding discovery system:basic-user system:discovery system:openshift:discovery ;
    do
    ### Find the index of unauthenticated group in list of subjects
    index=$(oc get clusterrolebinding ${clusterrolebinding} -o json | jq 'select(.subjects!=null) | .subjects | map(.name=="system:unauthenticated") | index(true)');
    ### Remove the element at index from subjects array
    oc patch clusterrolebinding ${clusterrolebinding} --type=json --patch "[{'op': 'remove','path': '/subjects/$index'}]";
    done

    Ce script supprime les sujets non authentifiés des liaisons de rôles de cluster suivantes :

    • cluster-status-binding
    • discovery
    • system:basic-user
    • system:discovery
    • system:openshift:discovery

    (BZ#1821771)

  • Par intermittence, un cluster IBM Cloud VPC peut échouer à s'installer parce que certaines machines de travail ne démarrent pas. Au contraire, ces machines de travail restent dans la phase Provisioned.

    Il existe une solution de contournement pour ce problème. À partir de l'hôte où vous avez effectué l'installation initiale, supprimez les machines qui ont échoué et exécutez à nouveau le programme d'installation.

    1. Vérifiez que l'état de l'équilibreur de charge d'application interne (ALB) pour le serveur API maître est active.

      1. Identifiez l'ID d'infrastructure du cluster en exécutant la commande suivante :

        $ oc get infrastructure/cluster -ojson | jq -r '.status.infrastructureName'
      2. Connectez-vous au compte IBM Cloud de votre cluster et ciblez la région correcte pour votre cluster.
      3. Vérifiez que l'état de l'ALB interne est active en exécutant la commande suivante :

        $ ibmcloud is lb <cluster_ID>-kubernetes-api-private  --output json | jq -r '.provisioning_status'
    2. Identifiez les machines qui sont dans la phase Provisioned en exécutant la commande suivante :

      $ oc get machine -n openshift-machine-api

      Exemple de sortie

      NAME                                    PHASE         TYPE       REGION    ZONE        AGE
      example-public-1-x4gpn-master-0         Running       bx2-4x16   us-east   us-east-1   23h
      example-public-1-x4gpn-master-1         Running       bx2-4x16   us-east   us-east-2   23h
      example-public-1-x4gpn-master-2         Running       bx2-4x16   us-east   us-east-3   23h
      example-public-1-x4gpn-worker-1-xqzzm   Running       bx2-4x16   us-east   us-east-1   22h
      example-public-1-x4gpn-worker-2-vg9w6   Provisioned   bx2-4x16   us-east   us-east-2   22h
      example-public-1-x4gpn-worker-3-2f7zd   Provisioned   bx2-4x16   us-east   us-east-3   22h

    3. Supprimez chaque machine défaillante en exécutant la commande suivante :

      $ oc delete machine <name_of_machine> -n openshift-machine-api
    4. Attendez que les machines des travailleurs supprimés soient remplacées, ce qui peut prendre jusqu'à 10 minutes.
    5. Vérifiez que les nouvelles machines de travail sont dans la phase Running en exécutant la commande suivante :

      $ oc get machine -n openshift-machine-api

      Exemple de sortie

      NAME                                    PHASE     TYPE       REGION    ZONE        AGE
      example-public-1-x4gpn-master-0         Running   bx2-4x16   us-east   us-east-1   23h
      example-public-1-x4gpn-master-1         Running   bx2-4x16   us-east   us-east-2   23h
      example-public-1-x4gpn-master-2         Running   bx2-4x16   us-east   us-east-3   23h
      example-public-1-x4gpn-worker-1-xqzzm   Running   bx2-4x16   us-east   us-east-1   23h
      example-public-1-x4gpn-worker-2-mnlsz   Running   bx2-4x16   us-east   us-east-2   8m2s
      example-public-1-x4gpn-worker-3-7nz4q   Running   bx2-4x16   us-east   us-east-3   7m24s

    6. Terminez l'installation en exécutant la commande suivante. Une nouvelle exécution du programme d'installation permet de s'assurer que le site kubeconfig de la grappe est correctement initialisé :

      $ ./openshift-install wait-for install-complete

      (OCPBUGS#1327)

  • La commande oc annotate ne fonctionne pas pour les noms de groupes LDAP qui contiennent un signe égal (=), car la commande utilise le signe égal comme délimiteur entre le nom et la valeur de l'annotation. Pour contourner le problème, utilisez oc patch ou oc edit pour ajouter l'annotation. (BZ#1917280)
  • En raison de l'inclusion d'anciennes images dans certains index d'images, l'exécution de oc adm catalog mirror et oc image mirror peut entraîner l'erreur suivante : error: unable to retrieve source image. En guise de solution temporaire, vous pouvez utiliser l'option --skip-missing pour contourner l'erreur et continuer à télécharger l'index d'images. Pour plus d'informations, voir Échec de la mise en miroir de l'opérateur du service Mesh.
  • Lorsque vous utilisez la fonctionnalité d'adresse IP egress dans OpenShift Container Platform on RHOSP, vous pouvez attribuer une adresse IP flottante à un port de réservation afin de disposer d'une adresse SNAT prévisible pour le trafic egress. L'association d'adresses IP flottantes doit être créée par le même utilisateur que celui qui a installé le cluster OpenShift Container Platform. Sinon, toute opération de suppression ou de déplacement de l'adresse IP de sortie est bloquée indéfiniment en raison de l'insuffisance des privilèges. Lorsque ce problème se produit, un utilisateur disposant de privilèges suffisants doit désactiver manuellement l'association d'adresses IP flottantes pour résoudre le problème. (OCPBUGS-4902)
  • Il y a un problème connu avec l'installation de Nutanix où l'installation échoue si vous utilisez des certificats 4096-bit avec Prism Central 2022.x. Au lieu de cela, utilisez des certificats 2048-bit. (KCS)
  • La suppression du profil de détection de transfert bidirectionnel (BFD) et de l'adresse bfdProfile ajoutée à la ressource homologue du protocole de passerelle frontalière (BGP) ne désactive pas le BFD. Au lieu de cela, le pair BGP commence à utiliser le profil BFD par défaut. Pour désactiver le BFD à partir d'une ressource homologue BGP, supprimez la configuration de l'homologue BGP et recréez-la sans profil BFD. (BZ#2050824)
  • En raison d'un problème non résolu au niveau de l'API des métadonnées, vous ne pouvez pas installer des clusters qui utilisent des workers bare-metal sur RHOSP 16.1. Les clusters sur RHOSP 16.2 ne sont pas concernés par ce problème. (BZ#2033953)
  • L'attribut loadBalancerSourceRanges n'est pas supporté, et est donc ignoré, dans les services de type load-balancer dans les clusters qui tournent sous RHOSP et utilisent le fournisseur OVN Octavia. Il n'y a pas de solution à ce problème. (OCPBUGS-2789)
  • Après une mise à jour de la source du catalogue, OLM met du temps à mettre à jour l'état de l'abonnement. Cela peut signifier que l'état de la politique d'abonnement peut continuer à s'afficher comme conforme lorsque le gestionnaire du cycle de vie Topology Aware (TALM) décide si une remédiation est nécessaire. En conséquence, l'opérateur spécifié dans la politique d'abonnement n'est pas mis à niveau. Comme solution de contournement, incluez un champ status dans la section spec de la politique de source de catalogue comme suit :

    metadata:
      name: redhat-operators-disconnected
    spec:
      displayName: disconnected-redhat-operators
      image: registry.example.com:5000/disconnected-redhat-operators/disconnected-redhat-operator-index:v4.11
    status:
      connectionState:
        lastObservedState: READY

    Cela réduit le délai nécessaire à OLM pour extraire la nouvelle image d'index et préparer le pod, réduisant ainsi le délai entre l'achèvement de la remédiation de la politique de source du catalogue et la mise à jour de l'état de l'abonnement. Si le problème persiste et que la mise à jour de l'état de la politique d'abonnement est toujours en retard, vous pouvez appliquer une autre CR ClusterGroupUpdate avec la même politique d'abonnement, ou une CR ClusterGroupUpdate identique avec un nom différent. (OCPBUGS-2813)

  • TALM ne procède pas à la remédiation d'une politique si tous les clusters sélectionnés sont conformes lorsque le CR ClusterGroupUpdate est démarré. La mise à jour des opérateurs avec une politique de source de catalogue modifiée et une politique d'abonnement dans la même CR ClusterGroupUpdate ne se termine pas. La politique d'abonnement est ignorée car elle est toujours conforme jusqu'à ce que la modification de la source du catalogue soit appliquée. Pour contourner le problème, ajoutez la modification suivante à un CR de la politique common-subscription, par exemple :

    metadata.annotations.upgrade: "1"

    La politique n'est donc pas conforme avant le début de la CR ClusterGroupUpdate. (OCPBUGS-2812)

  • Sur une instance OpenShift à nœud unique, le redémarrage sans vidanger le nœud pour supprimer tous les pods en cours d'exécution peut entraîner des problèmes avec la récupération des conteneurs de charge de travail. Après le redémarrage, la charge de travail redémarre avant que tous les plugins de périphérique soient prêts, ce qui entraîne l'indisponibilité des ressources ou l'exécution de la charge de travail sur le mauvais nœud NUMA. La solution consiste à redémarrer les modules de charge de travail lorsque tous les plugins de périphériques se sont réenregistrés au cours de la procédure de reprise après redémarrage. (OCPBUGS-2180)
  • La valeur par défaut de dataset_comparison est actuellement ieee1588. Le dataset_comparison recommandé est G.8275.x. Il est prévu de le corriger dans une prochaine version d'OpenShift Container Platform. À court terme, vous pouvez mettre à jour manuellement la configuration de ptp pour inclure la version recommandée dataset_comparison. (OCPBUGS-2336)
  • La valeur par défaut de step_threshold est 0.0. La valeur recommandée pour step_threshold est 2.0. Il est prévu que cela soit corrigé dans une future version d'OpenShift Container Platform. À court terme, vous pouvez mettre à jour manuellement la configuration de ptp pour inclure la version recommandée step_threshold. (OCPBUGS-3005)
  • Le CR BMCEventSubscription ne parvient pas à créer un abonnement Redfish pour un cluster spoke dans un environnement multi-cluster déployé par ACM, où le service metal3 ne fonctionne que sur un cluster hub. La solution consiste à créer l'abonnement en appelant directement l'API Redfish, par exemple en exécutant la commande suivante :

    curl -X POST -i --insecure -u "<BMC_username>:<BMC_password>" https://<BMC_IP>/redfish/v1/EventService/Subscriptions \
        -H 'Content-Type: application/json' \
        --data-raw '{
        "Protocol": "Redfish",
        "Context": "any string is valid",
        "Destination": "https://hw-event-proxy-openshift-bare-metal-events.apps.example.com/webhook",
        "EventTypes": ["Alert"]
        }'

    Vous devriez recevoir une réponse 201 Created et un en-tête avec Location: /redfish/v1/EventService/Subscriptions/<sub_id> qui indique que l'abonnement aux événements Redfish a été créé avec succès. (OCPBUGSM-43707)

  • Lors de l'utilisation du pipeline ZTP GitOps pour installer un cluster OpenShift à un seul nœud dans un environnement déconnecté, il devrait y avoir deux CatalogSource CRs appliqués dans le cluster. L'un des CR CatalogSource est supprimé à la suite de plusieurs redémarrages de nœuds. Comme solution de contournement, vous pouvez changer les noms par défaut, tels que certified-operators et redhat-operators, des sources de catalogue. (OCPBUGSM-46245)
  • Si un canal d'abonnement non valide est spécifié dans la politique d'abonnement utilisée pour effectuer une mise à niveau de cluster, le Topology Aware Lifecycle Manager indique une mise à niveau réussie juste après l'application de la politique, car l'état Subscription reste AtLatestKnown. (OCPBUGSM-43618)
  • La définition de partition de disque SiteConfig échoue lorsqu'elle est appliquée à plusieurs nœuds d'un cluster. Lorsqu'un CR SiteConfig est utilisé pour provisionner un cluster compact, la création d'une configuration diskPartition valide sur plusieurs nœuds échoue avec une erreur du plugin Kustomize. (OCPBUGSM-44403)
  • Si le démarrage sécurisé est actuellement désactivé et que vous essayez de l'activer à l'aide de ZTP, l'installation du cluster ne démarre pas. Lorsque le démarrage sécurisé est activé via ZTP, les options de démarrage sont configurées avant que le CD virtuel ne soit attaché. Par conséquent, lors du premier démarrage à partir du disque dur existant, le démarrage sécurisé est activé. L'installation du cluster est bloquée car le système ne démarre jamais à partir du CD. (OCPBUGSM-45085)
  • En utilisant Red Hat Advanced Cluster Management (RHACM), les déploiements de cluster de rayons sur les serveurs Dell PowerEdge R640 sont bloqués lorsque le média virtuel ne déconnecte pas l'ISO dans la console iDRAC après avoir écrit l'image sur le disque. Comme solution de contournement, déconnectez l'ISO manuellement via l'onglet Média virtuel dans la console iDRAC. (OCPBUGSM-45884)
  • Les applications à faible latence qui s'appuient sur des minuteries à haute résolution pour réveiller leurs threads peuvent présenter des latences de réveil plus élevées que prévu. Bien que la latence de réveil attendue soit inférieure à 20us, des latences supérieures peuvent occasionnellement être observées lors de l'exécution de l'outil cyclictest pendant de longues durées (24 heures ou plus). Les tests ont montré que les latences de réveil sont inférieures à 20us pour plus de 99,999999% des échantillons. (RHELPLAN-138733)
  • Une carte d'interface réseau Chapman Beach d'Intel doit être installée dans un emplacement PCIe bifurqué pour que les deux ports soient visibles. Il existe également une limitation dans l'outil devlink actuel de RHEL 8.6 qui empêche la configuration de 2 ports dans l'emplacement PCIe bifurqué. (RHELPLAN-142458)
  • La désactivation d'un SR-IOV VF lorsqu'un port tombe en panne peut entraîner un délai de 3 à 4 secondes avec les cartes d'interface réseau d'Intel. (RHELPLAN-126931)
  • Lors de l'utilisation de cartes réseau Intel, le trafic IPV6 s'arrête lorsqu'une adresse IPV6 est attribuée à un VF SR-IOV. (RHELPLAN-137741)
  • Lors de l'utilisation du délestage de bandes VLAN, le drapeau de délestage (ol_flag) n'est pas toujours défini correctement avec le pilote iavf. (RHELPLAN-141240)
  • Un blocage peut se produire si une allocation échoue lors d'un changement de configuration du pilote de glace. (RHELPLAN-130855)
  • Les VF SR-IOV envoient des paquets GARP avec la mauvaise adresse MAC lorsqu'ils utilisent des cartes réseau Intel. (RHELPLAN-140971)
  • Lorsque vous utilisez la méthode ZTP de GitOps pour gérer les clusters et que vous supprimez un cluster dont l'installation n'est pas terminée, le nettoyage de l'espace de noms du cluster sur le cluster hub peut être suspendu indéfiniment. Pour terminer la suppression de l'espace de noms, supprimez le finalisateur baremetalhost.metal3.io de deux CR dans l'espace de noms du cluster :

    1. Retirer le finalisateur du secret pointé par le CR .spec.bmc.credentialsName de BareMetalHost.
    2. Retirer le finalisateur de BareMetalHost CR. Lorsque ces finaliseurs sont supprimés, la terminaison de l'espace de noms s'effectue en quelques secondes. (OCPBUGS-3029)
  • L'ajout d'une nouvelle fonctionnalité dans l'OCP 4.12 qui active UDP GRO fait également que tous les appareils veth ont une file d'attente RX par CPU disponible (auparavant, chaque veth avait une file d'attente). Ces files d'attente sont configurées dynamiquement par OVN et il n'y a pas de synchronisation entre le réglage de la latence et la création de cette file d'attente. La logique de réglage de la latence surveille les événements de création des cartes réseau des veth et commence à configurer les masques de CPU des files d'attente RPS avant que toutes les files d'attente ne soient correctement créées. Cela signifie que certains masques de file d'attente RPS ne sont pas configurés. Étant donné que toutes les files d'attente des cartes réseau ne sont pas configurées correctement, il est possible que des pics de latence se produisent dans une application en temps réel qui utilise des processeurs sensibles au temps pour communiquer avec des services dans d'autres conteneurs. Les applications qui n'utilisent pas la pile réseau du noyau ne sont pas affectées. (OCPBUGS-4194)
  • Problèmes connus de l'opérateur de plate-forme et du RukPak :

    • La suppression d'un opérateur de plate-forme entraîne la suppression en cascade des ressources sous-jacentes. Cette logique de suppression en cascade ne peut supprimer que les ressources définies dans le format de regroupement de l'opérateur basé sur le gestionnaire du cycle de vie de l'opérateur (OLM). Dans le cas où un opérateur de plateforme crée des ressources qui sont définies en dehors de ce format de bundle, l'opérateur de plateforme est responsable de la gestion de cette interaction de nettoyage. Ce comportement peut être observé lors de l'installation de l'opérateur cert-manager en tant qu'opérateur de plate-forme, puis lors de sa suppression. Le comportement attendu est qu'un espace de noms créé par l'opérateur cert-manager est laissé derrière lui.
    • Le gestionnaire de la plate-forme Operators ne dispose d'aucune logique permettant de comparer l'état actuel et l'état souhaité de la ressource BundleDeployment gérée par le cluster. Cela permet à un utilisateur disposant d'un contrôle d'accès basé sur les rôles (RBAC) suffisant de modifier manuellement cette ressource sous-jacente BundleDeployment et peut conduire à des situations dans lesquelles les utilisateurs peuvent escalader leurs autorisations jusqu'au rôle cluster-admin. Par défaut, vous devez limiter l'accès à cette ressource à un petit nombre d'utilisateurs qui en ont explicitement besoin. Le seul client pris en charge pour la ressource BundleDeployment dans le cadre de cette version d'aperçu technologique est le composant de gestion des opérateurs de la plate-forme.
    • Le composant Marketplace d'OLM est une fonctionnalité optionnelle qui peut être désactivée. Cela a des conséquences pour la version Technology Preview, car les opérateurs de plate-forme ne proviennent actuellement que de la source de catalogue redhat-operators gérée par le composant Marketplace. En guise de solution de contournement, un administrateur de cluster peut créer cette source de catalogue manuellement.
    • Les implémentations du provisionneur RukPak n'ont pas la capacité d'inspecter la santé ou l'état des ressources qu'elles gèrent. Cela a des conséquences sur la remontée de l'état de la ressource BundleDeployment générée vers la ressource PlatformOperator qui la possède. Si un bundle registry v1 contient des manifestes qui peuvent être appliqués avec succès au cluster, mais qui échoueront au moment de l'exécution, comme un objet Deployment référençant une image inexistante, le résultat est un état réussi reflété dans les ressources individuelles PlatformOperator et BundleDeployment.
    • Les administrateurs de clusters qui configurent les ressources PlatformOperator avant la création du cluster ne peuvent pas facilement déterminer le nom du paquet souhaité sans s'appuyer sur un cluster existant ou sur des exemples documentés. Il n'existe actuellement aucune logique de validation garantissant qu'une ressource PlatformOperator configurée individuellement pourra être déployée avec succès dans le cluster.
  • Lors de l'utilisation de la fonctionnalité OCI Technology Preview avec le plugin CLI oc-mirror, le catalogue miroir intègre tous les bundles Operator, au lieu de ne filtrer que ceux spécifiés dans le fichier de configuration de l'ensemble d'images. (OCPBUGS-5085)
  • Il y a actuellement un problème connu lorsque vous exécutez l'installateur OpenShift Container Platform basé sur l'agent pour générer une image ISO à partir d'un répertoire où la version précédente a été utilisée pour la génération d'image ISO. Un message d'erreur s'affiche avec la version qui ne correspond pas. Pour contourner le problème, créez et utilisez un nouveau répertoire. (OCPBUGS#5159)
  • Les capacités définies dans le fichier install-config.yaml ne sont pas appliquées dans l'installation d'OpenShift Container Platform basée sur un agent. Actuellement, il n'y a pas de solution de contournement. (OCPBUGS#5129)
  • Les équilibreurs de charge entièrement remplis sur RHOSP qui sont créés avec le pilote OVN peuvent contenir des pools qui sont bloqués dans un statut de création en attente. Ce problème peut affecter les clusters déployés sur RHOSP. Pour résoudre ce problème, mettez à jour vos paquets RHOSP. (BZ#2042976)
  • Les mises à jour en masse des membres de l'équilibreur de charge sur RHOSP peuvent renvoyer un code 500 en réponse aux requêtes PUT. Ce problème peut affecter les clusters déployés sur RHOSP. Pour résoudre ce problème, mettez à jour vos paquets RHOSP. (BZ#2100135)
  • Les clusters qui utilisent des fournisseurs de cloud externes peuvent ne pas récupérer les informations d'identification mises à jour après la rotation. Les plateformes suivantes sont concernées :

    • Nuage d'Alibaba
    • IBM Cloud VPC
    • IBM Power
    • Virtualisation OpenShift
    • RHOSP

    En guise de solution, redémarrez les pods openshift-cloud-controller-manager en exécutant la commande suivante :

    $ oc delete pods --all -n openshift-cloud-controller-manager

    (OCPBUGS-5036)

  • Il y a un problème connu lorsque cloud-provider-openstack essaie de créer des moniteurs de santé sur les équilibreurs de charge OVN en utilisant l'API pour créer des équilibreurs de charge entièrement peuplés. Ces moniteurs de santé sont bloqués dans le statut PENDING_CREATE. Après leur suppression, les équilibreurs de charge associés sont bloqués dans un statut PENDING_UPDATE. Il n'y a pas de solution. (BZ#2143732)
  • En raison d'un problème connu, pour utiliser des réseaux IPv6 avec état avec des clusters fonctionnant sous RHOSP, vous devez inclure ip=dhcp,dhcpv6 dans les arguments du noyau des nœuds de travail. (OCPBUGS-2104)
  • Il n'est pas possible de créer un macvlan sur la fonction physique (PF) lorsqu'une fonction virtuelle (VF) existe déjà. Ce problème concerne le NIC Intel E810. (BZ#2120585)
  • Il y a actuellement un problème connu lors de la configuration manuelle d'adresses et de routes IPv6 sur un cluster OpenShift Container Platform IPv4. Lors de la conversion vers un cluster dual-stack, les pods nouvellement créés restent dans le statut ContainerCreating. Actuellement, il n'y a pas de solution de contournement. Ce problème devrait être résolu dans une prochaine version d'OpenShift Container Platform. (OCPBUGS-4411)
  • Lorsqu'un cluster OVN installé sur IBM Public Cloud compte plus de 60 nœuds de travail, la création simultanée d'au moins 2000 services et objets de route peut faire en sorte que les pods créés en même temps restent dans l'état ContainerCreating. Si ce problème se produit, la saisie de la commande oc describe pod <podname> affiche les événements avec l'avertissement suivant : FailedCreatePodSandBox…​failed to configure pod interface: timed out waiting for OVS port binding (ovn-installed). Il n'existe actuellement aucune solution à ce problème. (OCPBUGS-3470)
  • Lorsqu'une machine de plan de contrôle est remplacée sur un cluster qui utilise le fournisseur de réseau OVN-Kubernetes, les pods liés à OVN-Kubernetes peuvent ne pas démarrer sur la machine de remplacement. Dans ce cas, l'absence de réseau sur la nouvelle machine empêche etcd de remplacer l'ancienne machine. En conséquence, le cluster est bloqué dans cet état et peut se dégrader. Ce comportement peut se produire lorsque le plan de contrôle est remplacé manuellement ou par le jeu de machines du plan de contrôle.

    Il n'existe actuellement aucune solution pour résoudre ce problème. Pour éviter ce problème, désactivez le jeu de machines du plan de contrôle et ne remplacez pas manuellement les machines du plan de contrôle si votre cluster utilise le fournisseur de réseau OVN-Kubernetes. (OCPBUGS-5306)

  • Si un cluster déployé via ZTP a des politiques qui ne sont pas conformes et qu'aucun objet ClusterGroupUpdates n'est présent, vous devez redémarrer les pods TALM. Le redémarrage de TALM crée l'objet ClusterGroupUpdates approprié, ce qui renforce la conformité de la politique. (OCPBUGS-4065)
  • Actuellement, un problème de conformité de certificat, spécifiquement sorti comme x509: certificate is not standards compliant, existe lorsque vous exécutez le programme d'installation sur macOS dans le but d'installer un cluster OpenShift Container Platform sur VMware vSphere. Ce problème est lié à un problème connu avec le compilateur golang dans la mesure où le compilateur ne reconnaît pas les normes de certificat macOS nouvellement prises en charge. Il n'existe pas de solution à ce problème. (OSDOCS-5694)
Red Hat logoGithubRedditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez leBlog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

© 2024 Red Hat, Inc.