Chapitre 5. Installation de Logging


Les opérateurs AWS utilisent des ressources personnalisées (CR) pour gérer les applications et leurs composants. La configuration et les paramètres de haut niveau sont fournis par l’utilisateur dans un CR. L’opérateur traduit les directives de haut niveau en actions de bas niveau, basées sur les meilleures pratiques intégrées dans la logique de l’opérateur. La définition de ressource personnalisée (CRD) définit un CR et répertorie toutes les configurations disponibles pour les utilisateurs de l’opérateur. L’installation d’un opérateur crée les CRD, qui sont ensuite utilisés pour générer des CR.

Important

Après l’opérateur de journalisation, vous devez installer l’opérateur de journalisation OpenShift Red Hat.

Déployez l’enregistrement en installant l’opérateur Loki ou l’opérateur OpenShift Elasticsearch pour gérer votre log store, suivi par l’opérateur de journalisation Red Hat OpenShift pour gérer les composants de la journalisation. Il est possible d’utiliser le service Red Hat OpenShift sur la console web AWS ou le service Red Hat OpenShift sur AWS CLI pour installer ou configurer l’enregistrement.

Note

La version Logging 5.9 ne contient pas une version mise à jour de l’opérateur OpenShift Elasticsearch. Actuellement, si vous utilisez l’opérateur OpenShift Elasticsearch publié avec Logging 5.8, il continuera à fonctionner avec Logging jusqu’à ce que l’EOL de Logging 5.8. Comme alternative à l’utilisation de l’opérateur OpenShift Elasticsearch pour gérer le stockage de journaux par défaut, vous pouvez utiliser l’opérateur Loki. Consultez Platform Agnostic Operators pour plus d’informations sur les dates du cycle de vie de l’enregistrement.

Astuce

Alternativement, vous pouvez appliquer tous les exemples d’objets.

Il est possible d’utiliser le service Red Hat OpenShift sur la console web AWS pour installer les opérateurs OpenShift Elasticsearch et Red Hat OpenShift Logging. Elasticsearch est une application à forte intensité de mémoire. Le service Red Hat OpenShift sur AWS installe par défaut trois nœuds Elasticsearch avec des requêtes de mémoire et des limites de 16 Go. Cet ensemble initial de trois Red Hat OpenShift Service sur les nœuds AWS pourrait ne pas avoir assez de mémoire pour exécuter Elasticsearch dans votre cluster. Lorsque vous rencontrez des problèmes de mémoire liés à Elasticsearch, ajoutez plus de nœuds Elasticsearch à votre cluster plutôt que d’augmenter la mémoire sur les nœuds existants.

Note

Dans le cas où vous ne souhaitez pas utiliser le log store Elasticsearch par défaut, vous pouvez supprimer les composants internes de visualisation Elasticsearch logStore et Kibana de la ressource personnalisée ClusterLogging (CR). La suppression de ces composants est facultative, mais permet d’économiser des ressources.

Conditions préalables

  • Assurez-vous que vous avez le stockage persistant nécessaire pour Elasticsearch. A noter que chaque nœud Elasticsearch nécessite son propre volume de stockage.

    Note

    Lorsque vous utilisez un volume local pour le stockage persistant, n’utilisez pas de volume de bloc brut, qui est décrit avec volumeMode: bloc dans l’objet LocalVolume. Elasticsearch ne peut pas utiliser les volumes de blocs bruts.

Procédure

Installer l’opérateur OpenShift Elasticsearch et Red Hat OpenShift Logging Operator à l’aide du service Red Hat OpenShift sur la console web AWS:

  1. Installez l’opérateur OpenShift Elasticsearch:

    1. Dans le Red Hat OpenShift Service sur la console web AWS, cliquez sur Opérateurs OperatorHub.
    2. Choisissez OpenShift Elasticsearch Operator dans la liste des opérateurs disponibles, puis cliquez sur Installer.
    3. Assurez-vous que tous les espaces de noms du cluster sont sélectionnés sous Mode d’installation.
    4. Assurez-vous que l’openshift-operators-redhat est sélectionné sous la rubrique Installed Namespace.

      Il faut spécifier l’espace de noms openshift-operators-redhat. L’espace de noms openshift-operators peut contenir des opérateurs communautaires, qui ne sont pas fiables et pourraient publier une métrique avec le même nom qu’un service OpenShift Red Hat sur AWS, ce qui provoquerait des conflits.

    5. Activer l’opérateur recommande la surveillance des clusters sur cet espace de noms.

      Cette option définit l’étiquette openshift.io/cluster-monitoring: "vrai" étiquette dans l’objet Namespace. Il faut sélectionner cette option pour s’assurer que la surveillance des clusters gratte l’espace de noms openshift-operators-redhat.

    6. Choisissez stable-5.y comme canal de mise à jour.

      Note

      Le canal stable ne fournit que des mises à jour de la version la plus récente de l’enregistrement. Afin de continuer à recevoir des mises à jour pour les versions antérieures, vous devez changer votre canal d’abonnement en stable-x.y, où x.y représente la version majeure et mineure de la journalisation que vous avez installée. À titre d’exemple, stable-5.7.

    7. Choisissez une stratégie d’approbation.

      • La stratégie automatique permet au gestionnaire de cycle de vie de l’opérateur (OLM) de mettre à jour automatiquement l’opérateur lorsqu’une nouvelle version est disponible.
      • La stratégie du Manuel exige qu’un utilisateur ayant les informations d’identification appropriées approuve la mise à jour de l’opérateur.
    8. Cliquez sur Install.
    9. Assurez-vous que l’opérateur OpenShift Elasticsearch est installé en passant à la page Opérateurs installés.
    10. Assurez-vous que l’opérateur OpenShift Elasticsearch est répertorié dans tous les projets ayant un statut de Succès.
  2. Installez l’opérateur de journalisation Red Hat OpenShift:

    1. Dans le Red Hat OpenShift Service sur la console web AWS, cliquez sur Opérateurs OperatorHub.
    2. Choisissez Red Hat OpenShift Logging dans la liste des opérateurs disponibles, puis cliquez sur Installer.
    3. Assurez-vous que l’espace de noms A spécifique sur le cluster est sélectionné sous Mode d’installation.
    4. Assurez-vous que l’espace de noms recommandé par l’opérateur est ouvert de connexion sous Namespace installé.
    5. Activer l’opérateur recommande la surveillance des clusters sur cet espace de noms.

      Cette option définit l’étiquette openshift.io/cluster-monitoring: "vrai" étiquette dans l’objet Namespace. Il faut sélectionner cette option pour s’assurer que la surveillance des clusters gratte l’espace de noms openshift-logging.

    6. Choisissez stable-5.y comme canal de mise à jour.
    7. Choisissez une stratégie d’approbation.

      • La stratégie automatique permet au gestionnaire de cycle de vie de l’opérateur (OLM) de mettre à jour automatiquement l’opérateur lorsqu’une nouvelle version est disponible.
      • La stratégie du Manuel exige qu’un utilisateur ayant les informations d’identification appropriées approuve la mise à jour de l’opérateur.
    8. Cliquez sur Install.
    9. Assurez-vous que l’opérateur de journalisation Red Hat OpenShift est installé en passant à la page Opérateurs installés →
    10. Assurez-vous que Red Hat OpenShift Logging est listé dans le projet openshift-logging avec un statut de Succeed.

      Dans le cas où l’opérateur n’apparaît pas comme installé, il est possible de résoudre les problèmes suivants:

      • Basculez sur la page Opérateurs installés Installed Operators et inspectez la colonne État pour détecter toute erreur ou défaillance.
      • Basculez sur la page Charges de travail Pods et vérifiez les journaux de tous les pods du projet openshift-logging qui sont des problèmes de signalement.
  3. Créer une instance OpenShift Logging:

    1. Basculez à la page Administration Définitions de ressources personnalisées.
    2. Dans la page Définitions de ressources personnalisées, cliquez sur ClusterLogging.
    3. Dans la page Détails de la définition des ressources personnalisées, sélectionnez Afficher les instances dans le menu Actions.
    4. Dans la page ClusterLoggings, cliquez sur Créer ClusterLogging.

      Il vous faudra peut-être actualiser la page pour charger les données.

    5. Dans le champ YAML, remplacer le code par ce qui suit:

      Note

      Cette configuration OpenShift Logging par défaut devrait prendre en charge un large éventail d’environnements. Examinez les sujets sur le réglage et la configuration des composants d’enregistrement pour obtenir des informations sur les modifications que vous pouvez apporter à votre cluster OpenShift Logging.

      apiVersion: logging.openshift.io/v1
      kind: ClusterLogging
      metadata:
        name: instance 
      1
      
        namespace: openshift-logging
      spec:
        managementState: Managed 
      2
      
        logStore:
          type: elasticsearch 
      3
      
          retentionPolicy: 
      4
      
            application:
              maxAge: 1d
            infra:
              maxAge: 7d
            audit:
              maxAge: 7d
          elasticsearch:
            nodeCount: 3 
      5
      
            storage:
              storageClassName: <storage_class_name> 
      6
      
              size: 200G
            resources: 
      7
      
                limits:
                  memory: 16Gi
                requests:
                  memory: 16Gi
            proxy: 
      8
      
              resources:
                limits:
                  memory: 256Mi
                requests:
                  memory: 256Mi
            redundancyPolicy: SingleRedundancy
        visualization:
          type: kibana 
      9
      
          kibana:
            replicas: 1
        collection:
          type: fluentd 
      10
      
          fluentd: {}
      Copy to Clipboard Toggle word wrap
      1
      Le nom doit être instance.
      2
      L’état de gestion OpenShift Logging. Dans certains cas, si vous modifiez les valeurs par défaut OpenShift Logging, vous devez définir ceci sur Ungaged. Cependant, un déploiement non géré ne reçoit pas de mises à jour tant qu’OpenShift Logging n’est pas placé dans un état géré.
      3
      Configuration d’Elasticsearch. En utilisant le CR, vous pouvez configurer la stratégie de réplication shard et le stockage persistant.
      4
      Indiquez la durée pendant laquelle Elasticsearch doit conserver chaque source de journal. Entrez un entier et une désignation de temps: semaines (w), heures (h/H), minutes(m) et secondes(s). À titre d’exemple, 7d pendant sept jours. Les journaux plus anciens que le maxAge sont supprimés. Il faut spécifier une stratégie de rétention pour chaque source de journal ou les indices Elasticsearch ne seront pas créés pour cette source.
      5
      Indiquez le nombre de nœuds Elasticsearch. Consultez la note qui suit cette liste.
      6
      Entrez le nom d’une classe de stockage existante pour le stockage Elasticsearch. Afin d’obtenir des performances optimales, spécifiez une classe de stockage qui alloue le stockage en bloc. Dans le cas où vous ne spécifiez pas une classe de stockage, OpenShift Logging utilise le stockage éphémère.
      7
      Indiquez les requêtes CPU et mémoire pour Elasticsearch au besoin. Lorsque vous laissez ces valeurs vides, l’opérateur OpenShift Elasticsearch définit des valeurs par défaut qui devraient être suffisantes pour la plupart des déploiements. Les valeurs par défaut sont 16Gi pour la requête mémoire et 1 pour la requête CPU.
      8
      Indiquez les requêtes CPU et mémoire pour le proxy Elasticsearch au besoin. Lorsque vous laissez ces valeurs vides, l’opérateur OpenShift Elasticsearch définit des valeurs par défaut qui devraient être suffisantes pour la plupart des déploiements. Les valeurs par défaut sont 256Mi pour la requête mémoire et 100m pour la requête CPU.
      9
      Configuration de Kibana. En utilisant le CR, vous pouvez mettre à l’échelle Kibana pour la redondance et configurer le CPU et la mémoire pour vos nœuds Kibana. Consultez Configuring the log visualizer pour plus d’informations.
      10
      Configuration de Fluentd. En utilisant le CR, vous pouvez configurer le CPU Fluentd et les limites de mémoire. En savoir plus, voir « Configuring Fluentd ».
      Note

      Le nombre maximum de nœuds maîtres est de trois. Lorsque vous spécifiez un nodeCount supérieur à 3, Red Hat OpenShift Service sur AWS crée trois nœuds Elasticsearch qui sont des nœuds éligibles au Master, avec les rôles de maître, de client et de données. Les nœuds Elasticsearch supplémentaires sont créés en tant que nœuds de données uniquement, en utilisant des rôles de client et de données. Les nœuds maîtres effectuent des actions à l’échelle du cluster, telles que la création ou la suppression d’un index, l’allocation de fragments et le suivi des nœuds. Les nœuds de données conservent les fragments et effectuent des opérations liées aux données telles que CRUD, recherche et agrégations. Les opérations liées aux données sont intensives en E/S, en mémoire et en CPU. Il est important de surveiller ces ressources et d’ajouter d’autres nœuds de données si les nœuds actuels sont surchargés.

      Ainsi, si nodeCount=4, les nœuds suivants sont créés:

      $ oc get deployment
      Copy to Clipboard Toggle word wrap

      Exemple de sortie

      cluster-logging-operator-66f77ffccb-ppzbg       1/1    Running 0 7m
      elasticsearch-cd-tuhduuw-1-f5c885dbf-dlqws      1/1    Running 0 2m4s
      elasticsearch-cdm-ftuhduuw-1-ffc4b9566-q6bhp    2/2    Running 0 2m40s
      elasticsearch-cdm-ftuhduuw-2-7b4994dbfc-rd2gc   2/2    Running 0 2m36s
      elasticsearch-cdm-ftuhduuw-3-84b5ff7ff8-gqnm2   2/2    Running 0 2m4s
      Copy to Clipboard Toggle word wrap

    6. Cliquez sur Create. Cela crée les composants de journalisation, la ressource et les composants personnalisés Elasticsearch, ainsi que l’interface Kibana.
  4. Contrôlez l’installation:

    1. Basculez sur la page Charges de travail Pods.
    2. Choisissez le projet openshift-logging.

      Il faut voir plusieurs pods pour OpenShift Logging, Elasticsearch, votre collectionneur et Kibana similaires à la liste suivante:

      Exemple de sortie

      cluster-logging-operator-66f77ffccb-ppzbg       1/1     Running   0          7m
      elasticsearch-cdm-ftuhduuw-1-ffc4b9566-q6bhp    2/2     Running   0          2m40s
      elasticsearch-cdm-ftuhduuw-2-7b4994dbfc-rd2gc   2/2     Running   0          2m36s
      elasticsearch-cdm-ftuhduuw-3-84b5ff7ff8-gqnm2   2/2     Running   0          2m4s
      collector-587vb                                   1/1     Running   0          2m26s
      collector-7mpb9                                   1/1     Running   0          2m30s
      collector-flm6j                                   1/1     Running   0          2m33s
      collector-gn4rn                                   1/1     Running   0          2m26s
      collector-nlgb6                                   1/1     Running   0          2m30s
      collector-snpkt                                   1/1     Running   0          2m28s
      kibana-d6d5668c5-rppqm                          2/2     Running   0          2m39s
      Copy to Clipboard Toggle word wrap

Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat