13.2. Mise à jour Enregistrement de la version actuelle


Pour mettre à jour Logging à la version actuelle, vous changez les abonnements pour OpenShift Elasticsearch Operator et Red Hat OpenShift Logging Operator.

Important

Vous devez mettre à jour l'OpenShift Elasticsearch Operator before vous mettez à jour le Red Hat OpenShift Logging Operator. Vous devez également mettre à jour les opérateurs both à la même version.

Si vous mettez à jour les opérateurs dans le mauvais ordre, Kibana n'est pas mis à jour et la ressource personnalisée (CR) Kibana n'est pas créée. Pour contourner ce problème, vous supprimez le pod Red Hat OpenShift Logging Operator. Lorsque le pod Red Hat OpenShift Logging Operator se redéploie, il crée la CR Kibana et Kibana redevient disponible.

Conditions préalables

Procédure

  1. Mettre à jour l'opérateur OpenShift Elasticsearch :

    1. Dans la console web d'OpenShift Container Platform, cliquez sur Operators Installed Operators.
    2. Sélectionnez le projet openshift-Operators-redhat.
    3. Cliquez sur le site OpenShift Elasticsearch Operator.
    4. Cliquez sur Subscription Channel.
    5. Dans la fenêtre Change Subscription Update Channel, sélectionnez stable-5.x et cliquez sur Save.
    6. Attendez quelques secondes, puis cliquez sur Operators Installed Operators.
    7. Vérifiez que la version d'OpenShift Elasticsearch Operator est 5.x.x.
    8. Attendez que le champ Status indique Succeeded.
  2. Mettez à jour l'opérateur de journalisation de Red Hat OpenShift :

    1. Dans la console web d'OpenShift Container Platform, cliquez sur Operators Installed Operators.
    2. Sélectionnez le projet openshift-logging.
    3. Cliquez sur le site Red Hat OpenShift Logging Operator.
    4. Cliquez sur Subscription Channel.
    5. Dans la fenêtre Change Subscription Update Channel, sélectionnez stable-5.x et cliquez sur Save.
    6. Attendez quelques secondes, puis cliquez sur Operators Installed Operators.
    7. Vérifiez que la version de Red Hat OpenShift Logging Operator est 5.y.z
    8. Attendez que le champ Status indique Succeeded.
  3. Vérifier les composants de journalisation :

    1. Assurez-vous que tous les pods Elasticsearch sont dans l'état Ready:

      $ oc get pod -n openshift-logging --selector component=elasticsearch

      Exemple de sortie

      NAME                                            READY   STATUS    RESTARTS   AGE
      elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk   2/2     Running   0          31m
      elasticsearch-cdm-1pbrl44l-2-5c6d87589f-gx5hk   2/2     Running   0          30m
      elasticsearch-cdm-1pbrl44l-3-88df5d47-m45jc     2/2     Running   0          29m

    2. Assurez-vous que le cluster Elasticsearch est sain :

      $ oc exec -n openshift-logging -c elasticsearch elasticsearch-cdm-1pbrl44l-1-55b7546f4c-mshhk -- health
      {
        "cluster_name" : "elasticsearch",
        "status" : "green",
      }
    3. Assurez-vous que les tâches cron d'Elasticsearch sont créées :

      $ oc project openshift-logging
      $ oc get cronjob
      NAME                     SCHEDULE       SUSPEND   ACTIVE   LAST SCHEDULE   AGE
      elasticsearch-im-app     */15 * * * *   False     0        <none>          56s
      elasticsearch-im-audit   */15 * * * *   False     0        <none>          56s
      elasticsearch-im-infra   */15 * * * *   False     0        <none>          56s
    4. Vérifiez que le magasin de logs est mis à jour à la version 5.x et que les index sont green:

      oc exec -c elasticsearch <any_es_pod_in_the_cluster> -- indices
    5. Vérifiez que la sortie comprend les indices app-00000x, infra-00000x, audit-00000x, .security.

      Exemple 13.1. Exemple de sortie avec les indices dans un état vert

      Tue Jun 30 14:30:54 UTC 2020
      health status index                                                                 uuid                   pri rep docs.count docs.deleted store.size pri.store.size
      green  open   infra-000008                                                          bnBvUFEXTWi92z3zWAzieQ   3 1       222195            0        289            144
      green  open   infra-000004                                                          rtDSzoqsSl6saisSK7Au1Q   3 1       226717            0        297            148
      green  open   infra-000012                                                          RSf_kUwDSR2xEuKRZMPqZQ   3 1       227623            0        295            147
      green  open   .kibana_7                                                             1SJdCqlZTPWlIAaOUd78yg   1 1            4            0          0              0
      green  open   infra-000010                                                          iXwL3bnqTuGEABbUDa6OVw   3 1       248368            0        317            158
      green  open   infra-000009                                                          YN9EsULWSNaxWeeNvOs0RA   3 1       258799            0        337            168
      green  open   infra-000014                                                          YP0U6R7FQ_GVQVQZ6Yh9Ig   3 1       223788            0        292            146
      green  open   infra-000015                                                          JRBbAbEmSMqK5X40df9HbQ   3 1       224371            0        291            145
      green  open   .orphaned.2020.06.30                                                  n_xQC2dWQzConkvQqei3YA   3 1            9            0          0              0
      green  open   infra-000007                                                          llkkAVSzSOmosWTSAJM_hg   3 1       228584            0        296            148
      green  open   infra-000005                                                          d9BoGQdiQASsS3BBFm2iRA   3 1       227987            0        297            148
      green  open   infra-000003                                                          1-goREK1QUKlQPAIVkWVaQ   3 1       226719            0        295            147
      green  open   .security                                                             zeT65uOuRTKZMjg_bbUc1g   1 1            5            0          0              0
      green  open   .kibana-377444158_kubeadmin                                           wvMhDwJkR-mRZQO84K0gUQ   3 1            1            0          0              0
      green  open   infra-000006                                                          5H-KBSXGQKiO7hdapDE23g   3 1       226676            0        295            147
      green  open   infra-000001                                                          eH53BQ-bSxSWR5xYZB6lVg   3 1       341800            0        443            220
      green  open   .kibana-6                                                             RVp7TemSSemGJcsSUmuf3A   1 1            4            0          0              0
      green  open   infra-000011                                                          J7XWBauWSTe0jnzX02fU6A   3 1       226100            0        293            146
      green  open   app-000001                                                            axSAFfONQDmKwatkjPXdtw   3 1       103186            0        126             57
      green  open   infra-000016                                                          m9c1iRLtStWSF1GopaRyCg   3 1        13685            0         19              9
      green  open   infra-000002                                                          Hz6WvINtTvKcQzw-ewmbYg   3 1       228994            0        296            148
      green  open   infra-000013                                                          KR9mMFUpQl-jraYtanyIGw   3 1       228166            0        298            148
      green  open   audit-000001                                                          eERqLdLmQOiQDFES1LBATQ   3 1            0            0          0              0
    6. Vérifiez que le collecteur de journaux est mis à jour :

      $ oc get ds collector -o json | grep collector
    7. Vérifiez que la sortie comprend un conteneur collectort:

      "containerName": "collector"
    8. Vérifiez que le visualiseur de logs est mis à jour vers la version 5.x en utilisant le CRD Kibana :

      $ oc get kibana kibana -o json
    9. Vérifiez que la sortie inclut un pod Kibana avec le statut ready:

      Exemple 13.2. Exemple de sortie avec un pod Kibana prêt

      [
      {
      "clusterCondition": {
      "kibana-5fdd766ffd-nb2jj": [
      {
      "lastTransitionTime": "2020-06-30T14:11:07Z",
      "reason": "ContainerCreating",
      "status": "True",
      "type": ""
      },
      {
      "lastTransitionTime": "2020-06-30T14:11:07Z",
      "reason": "ContainerCreating",
      "status": "True",
      "type": ""
      }
      ]
      },
      "deployment": "kibana",
      "pods": {
      "failed": [],
      "notReady": []
      "ready": []
      },
      "replicaSets": [
      "kibana-5fdd766ffd"
      ],
      "replicas": 1
      }
      ]
Red Hat logoGithubRedditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez leBlog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

© 2024 Red Hat, Inc.