6.7. La mise à jour de l’opérateur OpenShift Elasticsearch


Afin de mettre à jour l’opérateur OpenShift Elasticsearch vers la version actuelle, vous devez modifier l’abonnement.

Note

La version Logging 5.9 ne contient pas une version mise à jour de l’opérateur OpenShift Elasticsearch. Actuellement, si vous utilisez l’opérateur OpenShift Elasticsearch publié avec Logging 5.8, il continuera à fonctionner avec Logging jusqu’à ce que l’EOL de Logging 5.8. Comme alternative à l’utilisation de l’opérateur OpenShift Elasticsearch pour gérer le stockage de journaux par défaut, vous pouvez utiliser l’opérateur Loki. Consultez Platform Agnostic Operators pour plus d’informations sur les dates du cycle de vie de l’enregistrement.

Conditions préalables

  • Lorsque vous utilisez Elasticsearch comme log store par défaut, et Kibana comme interface utilisateur, mettez à jour l’opérateur OpenShift Elasticsearch avant de mettre à jour l’opérateur de journalisation Red Hat OpenShift.

    Important

    Lorsque vous mettez à jour les Opérateurs dans le mauvais ordre, Kibana ne met pas à jour et la ressource personnalisée Kibana (CR) n’est pas créée. Afin de résoudre ce problème, supprimer le pod Red Hat OpenShift Logging Operator. Lorsque le pod Red Hat OpenShift Logging Operator redéploye, il crée le Kibana CR et Kibana devient disponible à nouveau.

  • L’état de journalisation est sain:

    • Les gousses sont prêtes.
    • Le cluster Elasticsearch est sain.
  • Les données Elasticsearch et Kibana sont sauvegardées.
  • Il y a des autorisations d’administrateur.
  • L’OpenShift CLI (oc) est installé pour les étapes de vérification.

Procédure

  1. Dans la console de cloud hybride Red Hat, cliquez sur Opérateurs Opérateurs installés.
  2. Choisissez le projet openshift-operators-redhat.
  3. Cliquez sur OpenShift Elasticsearch Operator.
  4. Cliquez sur Abonnement Canal.
  5. Dans la fenêtre Modifier la mise à jour de l’abonnement, sélectionnez stable-5.y et cliquez sur Enregistrer. À noter la version élastique-operator.v5.y.z.
  6. Attendez quelques secondes, puis cliquez sur Opérateurs Opérateurs installés. Assurez-vous que la version OpenShift Elasticsearch Operator correspond à la dernière version d’élasticité-operator.v5.y.z.
  7. Dans la page Opérateurs installés, attendez que le champ État indique Succeeded.

La vérification

  1. Assurez-vous que tous les pods Elasticsearch ont un statut prêt en entrant la commande suivante et en observant la sortie:

    $ oc get pod -n openshift-logging --selector component=elasticsearch
    Copy to Clipboard Toggle word wrap

    Exemple de sortie

    NAME                                            READY   STATUS    RESTARTS   AGE
    elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk   2/2     Running   0          31m
    elasticsearch-cdm-1pbrl44l-2-5c6d87589f-gx5hk   2/2     Running   0          30m
    elasticsearch-cdm-1pbrl44l-3-88df5d47-m45jc     2/2     Running   0          29m
    Copy to Clipboard Toggle word wrap

  2. Assurez-vous que l’état du cluster Elasticsearch est vert en entrant la commande suivante et en observant la sortie:

    $ oc exec -n openshift-logging -c elasticsearch elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk -- health
    Copy to Clipboard Toggle word wrap

    Exemple de sortie

    {
      "cluster_name" : "elasticsearch",
      "status" : "green",
    }
    Copy to Clipboard Toggle word wrap

  3. Assurez-vous que les travaux d’Elasticsearch cron sont créés en entrant les commandes suivantes et en observant la sortie:

    $ oc project openshift-logging
    Copy to Clipboard Toggle word wrap
    $ oc get cronjob
    Copy to Clipboard Toggle word wrap

    Exemple de sortie

    NAME                     SCHEDULE       SUSPEND   ACTIVE   LAST SCHEDULE   AGE
    elasticsearch-im-app     */15 * * * *   False     0        <none>          56s
    elasticsearch-im-audit   */15 * * * *   False     0        <none>          56s
    elasticsearch-im-infra   */15 * * * *   False     0        <none>          56s
    Copy to Clipboard Toggle word wrap

  4. Assurez-vous que le log store est mis à jour à la bonne version et que les indices sont verts en entrant la commande suivante et en observant la sortie:

    $ oc exec -c elasticsearch <any_es_pod_in_the_cluster> -- indices
    Copy to Clipboard Toggle word wrap

    Assurez-vous que la sortie comprend l’app-00000x, l’infra-00000x, l’audit-00000x, les indices de sécurité:

    Exemple 6.1. Échantillon de sortie avec des indices dans un état vert

    Tue Jun 30 14:30:54 UTC 2020
    health status index                                                                 uuid                   pri rep docs.count docs.deleted store.size pri.store.size
    green  open   infra-000008                                                          bnBvUFEXTWi92z3zWAzieQ   3 1       222195            0        289            144
    green  open   infra-000004                                                          rtDSzoqsSl6saisSK7Au1Q   3 1       226717            0        297            148
    green  open   infra-000012                                                          RSf_kUwDSR2xEuKRZMPqZQ   3 1       227623            0        295            147
    green  open   .kibana_7                                                             1SJdCqlZTPWlIAaOUd78yg   1 1            4            0          0              0
    green  open   infra-000010                                                          iXwL3bnqTuGEABbUDa6OVw   3 1       248368            0        317            158
    green  open   infra-000009                                                          YN9EsULWSNaxWeeNvOs0RA   3 1       258799            0        337            168
    green  open   infra-000014                                                          YP0U6R7FQ_GVQVQZ6Yh9Ig   3 1       223788            0        292            146
    green  open   infra-000015                                                          JRBbAbEmSMqK5X40df9HbQ   3 1       224371            0        291            145
    green  open   .orphaned.2020.06.30                                                  n_xQC2dWQzConkvQqei3YA   3 1            9            0          0              0
    green  open   infra-000007                                                          llkkAVSzSOmosWTSAJM_hg   3 1       228584            0        296            148
    green  open   infra-000005                                                          d9BoGQdiQASsS3BBFm2iRA   3 1       227987            0        297            148
    green  open   infra-000003                                                          1-goREK1QUKlQPAIVkWVaQ   3 1       226719            0        295            147
    green  open   .security                                                             zeT65uOuRTKZMjg_bbUc1g   1 1            5            0          0              0
    green  open   .kibana-377444158_kubeadmin                                           wvMhDwJkR-mRZQO84K0gUQ   3 1            1            0          0              0
    green  open   infra-000006                                                          5H-KBSXGQKiO7hdapDE23g   3 1       226676            0        295            147
    green  open   infra-000001                                                          eH53BQ-bSxSWR5xYZB6lVg   3 1       341800            0        443            220
    green  open   .kibana-6                                                             RVp7TemSSemGJcsSUmuf3A   1 1            4            0          0              0
    green  open   infra-000011                                                          J7XWBauWSTe0jnzX02fU6A   3 1       226100            0        293            146
    green  open   app-000001                                                            axSAFfONQDmKwatkjPXdtw   3 1       103186            0        126             57
    green  open   infra-000016                                                          m9c1iRLtStWSF1GopaRyCg   3 1        13685            0         19              9
    green  open   infra-000002                                                          Hz6WvINtTvKcQzw-ewmbYg   3 1       228994            0        296            148
    green  open   infra-000013                                                          KR9mMFUpQl-jraYtanyIGw   3 1       228166            0        298            148
    green  open   audit-000001                                                          eERqLdLmQOiQDFES1LBATQ   3 1            0            0          0              0
    Copy to Clipboard Toggle word wrap
  5. Assurez-vous que le visualiseur de log est mis à jour vers la bonne version en entrant la commande suivante et en observant la sortie:

    $ oc get kibana kibana -o json
    Copy to Clipboard Toggle word wrap

    Assurez-vous que la sortie comprend un pod Kibana avec le statut prêt:

    Exemple 6.2. Échantillon de sortie avec un pod Kibana prêt

    [
    {
    "clusterCondition": {
    "kibana-5fdd766ffd-nb2jj": [
    {
    "lastTransitionTime": "2020-06-30T14:11:07Z",
    "reason": "ContainerCreating",
    "status": "True",
    "type": ""
    },
    {
    "lastTransitionTime": "2020-06-30T14:11:07Z",
    "reason": "ContainerCreating",
    "status": "True",
    "type": ""
    }
    ]
    },
    "deployment": "kibana",
    "pods": {
    "failed": [],
    "notReady": []
    "ready": []
    },
    "replicaSets": [
    "kibana-5fdd766ffd"
    ],
    "replicas": 1
    }
    ]
    Copy to Clipboard Toggle word wrap
Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat