7.4. Journalisation avec Kibana


Lorsque vous utilisez le log store ElasticSearch, vous pouvez utiliser la console Kibana pour visualiser les données de log collectées.

En utilisant Kibana, vous pouvez faire ce qui suit avec vos données:

  • Faites une recherche et parcourez les données à l’aide de l’onglet Découvrir.
  • Graphiquez et cartographiez les données à l’aide de l’onglet Visualize.
  • Créez et visualisez des tableaux de bord personnalisés à l’aide de l’onglet Tableau de bord.

L’utilisation et la configuration de l’interface Kibana dépassent le champ d’application de cette documentation. Consultez la documentation Kibana pour plus d’informations sur l’utilisation de l’interface.

Note

Les journaux d’audit ne sont pas stockés par défaut dans l’instance interne Red Hat OpenShift sur AWS Elasticsearch. Afin d’afficher les journaux d’audit dans Kibana, vous devez utiliser l’API Log Forwarding pour configurer un pipeline qui utilise la sortie par défaut pour les journaux d’audit.

7.4.1. Définition des schémas d’indice de Kibana

Le modèle d’index définit les indices Elasticsearch que vous souhaitez visualiser. Afin d’explorer et de visualiser les données dans Kibana, vous devez créer un modèle d’index.

Conditions préalables

  • L’utilisateur doit avoir le rôle de cluster-admin, le rôle de lecture de cluster, ou les deux rôles pour visualiser les indices infra et d’audit dans Kibana. L’utilisateur par défaut de kubeadmin a les autorisations appropriées pour afficher ces indices.

    Lorsque vous pouvez afficher les pods et logs dans les projets par défaut, kube- et openshift, vous devriez pouvoir accéder à ces indices. La commande suivante vous permet de vérifier si l’utilisateur actuel dispose des autorisations appropriées:

    $ oc auth can-i get pods --subresource log -n <project>
    Copy to Clipboard Toggle word wrap

    Exemple de sortie

    yes
    Copy to Clipboard Toggle word wrap

    Note

    Les journaux d’audit ne sont pas stockés par défaut dans l’instance interne Red Hat OpenShift sur AWS Elasticsearch. Afin d’afficher les journaux d’audit dans Kibana, vous devez utiliser l’API Log Forwarding pour configurer un pipeline qui utilise la sortie par défaut pour les journaux d’audit.

  • Les documents Elasticsearch doivent être indexés avant de pouvoir créer des modèles d’index. Cela se fait automatiquement, mais cela peut prendre quelques minutes dans un cluster nouveau ou mis à jour.

Procédure

Définir des modèles d’index et créer des visualisations dans Kibana:

  1. Dans le Red Hat OpenShift Service sur la console AWS, cliquez sur le lanceur d’applications et sélectionnez Logging.
  2. Créez vos modèles d’index Kibana en cliquant sur Gestion Index Patterns Créer un modèle d’index:

    • Chaque utilisateur doit créer manuellement des modèles d’index lors de la connexion à Kibana la première fois pour voir les journaux de leurs projets. Les utilisateurs doivent créer un modèle d’index nommé application et utiliser le champ temps @timestamp pour afficher leurs journaux de conteneurs.
    • Chaque utilisateur admin doit créer des modèles d’index lorsqu’il est connecté à Kibana la première fois pour l’application, l’infra et les indices d’audit en utilisant le champ temporel @timestamp.
  3. Créez des visualisations Kibana à partir des nouveaux modèles d’index.

7.4.2. Affichage des journaux de clusters dans Kibana

Consultez les journaux des clusters dans la console Web Kibana. Les méthodes de visualisation et de visualisation de vos données dans Kibana qui sont au-delà du champ d’application de cette documentation. Consultez la documentation Kibana pour plus d’informations.

Conditions préalables

  • Les opérateurs Red Hat OpenShift Logging et Elasticsearch doivent être installés.
  • Les modèles d’indice de Kibana doivent exister.
  • L’utilisateur doit avoir le rôle de cluster-admin, le rôle de lecture de cluster, ou les deux rôles pour visualiser les indices infra et d’audit dans Kibana. L’utilisateur par défaut de kubeadmin a les autorisations appropriées pour afficher ces indices.

    Lorsque vous pouvez afficher les pods et logs dans les projets par défaut, kube- et openshift, vous devriez pouvoir accéder à ces indices. La commande suivante vous permet de vérifier si l’utilisateur actuel dispose des autorisations appropriées:

    $ oc auth can-i get pods --subresource log -n <project>
    Copy to Clipboard Toggle word wrap

    Exemple de sortie

    yes
    Copy to Clipboard Toggle word wrap

    Note

    Les journaux d’audit ne sont pas stockés par défaut dans l’instance interne Red Hat OpenShift sur AWS Elasticsearch. Afin d’afficher les journaux d’audit dans Kibana, vous devez utiliser l’API Log Forwarding pour configurer un pipeline qui utilise la sortie par défaut pour les journaux d’audit.

Procédure

Afficher les journaux dans Kibana:

  1. Dans le Red Hat OpenShift Service sur la console AWS, cliquez sur le lanceur d’applications et sélectionnez Logging.
  2. Connectez-vous en utilisant les mêmes informations d’identification que vous utilisez pour vous connecter au service OpenShift Red Hat sur la console AWS.

    L’interface Kibana est lancée.

  3. Dans Kibana, cliquez sur Découvrir.
  4. Choisissez le modèle d’index que vous avez créé dans le menu déroulant dans le coin supérieur gauche: application, audit ou infra.

    Les données du journal s’affichent sous forme de documents horodatés.

  5. Développez l’un des documents chronométrés.
  6. Cliquez sur l’onglet JSON pour afficher l’entrée de journal de ce document.

    Exemple 7.1. Exemple d’entrée de journal d’infrastructure à Kibana

    {
      "_index": "infra-000001",
      "_type": "_doc",
      "_id": "YmJmYTBlNDkZTRmLTliMGQtMjE3NmFiOGUyOWM3",
      "_version": 1,
      "_score": null,
      "_source": {
        "docker": {
          "container_id": "f85fa55bbef7bb783f041066be1e7c267a6b88c4603dfce213e32c1"
        },
        "kubernetes": {
          "container_name": "registry-server",
          "namespace_name": "openshift-marketplace",
          "pod_name": "redhat-marketplace-n64gc",
          "container_image": "registry.redhat.io/redhat/redhat-marketplace-index:v4.7",
          "container_image_id": "registry.redhat.io/redhat/redhat-marketplace-index@sha256:65fc0c45aabb95809e376feb065771ecda9e5e59cc8b3024c4545c168f",
          "pod_id": "8f594ea2-c866-4b5c-a1c8-a50756704b2a",
          "host": "ip-10-0-182-28.us-east-2.compute.internal",
          "master_url": "https://kubernetes.default.svc",
          "namespace_id": "3abab127-7669-4eb3-b9ef-44c04ad68d38",
          "namespace_labels": {
            "openshift_io/cluster-monitoring": "true"
          },
          "flat_labels": [
            "catalogsource_operators_coreos_com/update=redhat-marketplace"
          ]
        },
        "message": "time=\"2020-09-23T20:47:03Z\" level=info msg=\"serving registry\" database=/database/index.db port=50051",
        "level": "unknown",
        "hostname": "ip-10-0-182-28.internal",
        "pipeline_metadata": {
          "collector": {
            "ipaddr4": "10.0.182.28",
            "inputname": "fluent-plugin-systemd",
            "name": "fluentd",
            "received_at": "2020-09-23T20:47:15.007583+00:00",
            "version": "1.7.4 1.6.0"
          }
        },
        "@timestamp": "2020-09-23T20:47:03.422465+00:00",
        "viaq_msg_id": "YmJmYTBlNDktMDMGQtMjE3NmFiOGUyOWM3",
        "openshift": {
          "labels": {
            "logging": "infra"
          }
        }
      },
      "fields": {
        "@timestamp": [
          "2020-09-23T20:47:03.422Z"
        ],
        "pipeline_metadata.collector.received_at": [
          "2020-09-23T20:47:15.007Z"
        ]
      },
      "sort": [
        1600894023422
      ]
    }
    Copy to Clipboard Toggle word wrap

7.4.3. Configuration de Kibana

Il est possible de configurer à l’aide de la console Kibana en modifiant la ressource personnalisée ClusterLogging (CR).

7.4.3.1. Configuration des limites CPU et mémoire

Les composants de journalisation permettent d’ajuster les limites du CPU et de la mémoire.

Procédure

  1. Éditer la ressource personnalisée ClusterLogging (CR) dans le projet openshift-logging:

    $ oc -n openshift-logging edit ClusterLogging instance
    Copy to Clipboard Toggle word wrap
    apiVersion: "logging.openshift.io/v1"
    kind: "ClusterLogging"
    metadata:
      name: "instance"
      namespace: openshift-logging
    
    ...
    
    spec:
      managementState: "Managed"
      logStore:
        type: "elasticsearch"
        elasticsearch:
          nodeCount: 3
          resources: 
    1
    
            limits:
              memory: 16Gi
            requests:
              cpu: 200m
              memory: 16Gi
          storage:
            storageClassName: "gp2"
            size: "200G"
          redundancyPolicy: "SingleRedundancy"
      visualization:
        type: "kibana"
        kibana:
          resources: 
    2
    
            limits:
              memory: 1Gi
            requests:
              cpu: 500m
              memory: 1Gi
          proxy:
            resources: 
    3
    
              limits:
                memory: 100Mi
              requests:
                cpu: 100m
                memory: 100Mi
          replicas: 2
      collection:
        logs:
          type: "fluentd"
          fluentd:
            resources: 
    4
    
              limits:
                memory: 736Mi
              requests:
                cpu: 200m
                memory: 736Mi
    Copy to Clipboard Toggle word wrap
    1
    Indiquez les limites du CPU et de la mémoire et les demandes pour le log Store au besoin. Dans le cas d’Elasticsearch, vous devez ajuster à la fois la valeur de la demande et la valeur limite.
    2 3
    Indiquez les limites du CPU et de la mémoire et les demandes pour le visualiseur de journal au besoin.
    4
    Indiquez les limites de CPU et de mémoire et les demandes pour le collecteur de journaux au besoin.

Il est possible de mettre à l’échelle le pod qui héberge le visualiseur de log pour la redondance.

Procédure

  1. Éditer la ressource personnalisée ClusterLogging (CR) dans le projet openshift-logging:

    $ oc -n openshift-logging edit ClusterLogging instance
    Copy to Clipboard Toggle word wrap
    $ oc edit ClusterLogging instance
    
    apiVersion: "logging.openshift.io/v1"
    kind: "ClusterLogging"
    metadata:
      name: "instance"
      namespace: openshift-logging
    ....
    
    spec:
      visualization:
        type: "kibana"
        kibana:
          replicas: 1 
    1
    Copy to Clipboard Toggle word wrap
    1
    Indiquez le nombre de nœuds Kibana.
Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat