11.3. Transférer les journaux JSON vers le magasin de journaux Elasticsearch


Pour un magasin de journaux Elasticsearch, si vos entrées de journaux JSON follow different schemas, configurez la ressource personnalisée (CR) ClusterLogForwarder pour regrouper chaque schéma JSON dans une seule définition de sortie. De cette façon, Elasticsearch utilise un index distinct pour chaque schéma.

Important

Étant donné que le transfert de différents schémas vers le même index peut entraîner des conflits de type et des problèmes de cardinalité, vous devez effectuer cette configuration avant de transférer des données vers le magasin Elasticsearch.

Pour éviter les problèmes de performance liés à un trop grand nombre d'indices, il convient de limiter le nombre de schémas possibles en adoptant des schémas communs.

Procédure

  1. Ajoutez l'extrait suivant à votre fichier YAML ClusterLogForwarder CR.

    outputDefaults:
     elasticsearch:
        structuredTypeKey: <log record field>
        structuredTypeName: <name>
    pipelines:
    - inputRefs:
      - application
      outputRefs: default
      parse: json
  2. Facultatif : Utilisez structuredTypeKey pour spécifier l'un des champs de l'enregistrement du journal, comme décrit dans la rubrique précédente, Configuration des données de journal JSON pour Elasticsearch. Sinon, supprimez cette ligne.
  3. Facultatif : Utilisez structuredTypeName pour spécifier un <name>, comme décrit dans la rubrique précédente, Configuration des données de journalisation JSON pour Elasticsearch. Sinon, supprimez cette ligne.

    Important

    Pour analyser les journaux JSON, vous devez définir soit structuredTypeKey ou structuredTypeName, soit structuredTypeKey et structuredTypeName.

  4. Pour inputRefs, spécifiez les types de journaux à transférer en utilisant ce pipeline, par exemple application, infrastructure , ou audit.
  5. Ajouter l'élément parse: json aux pipelines.
  6. Créer l'objet CR :

    oc create -f <nom-de-fichier>.yaml

    Le Red Hat OpenShift Logging Operator redéploie les pods Fluentd. Cependant, s'ils ne se redéploient pas, supprimez les pods Fluentd pour les forcer à se redéployer.

    $ oc delete pod --selector logging-infra=collector
Red Hat logoGithubRedditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez leBlog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

© 2024 Red Hat, Inc.