9.2. Log types de sortie


Les sorties définissent la destination où les journaux sont envoyés à partir d’un transmetteur de journaux. Il est possible de configurer plusieurs types de sorties dans la ressource personnalisée ClusterLogForwarder (CR) pour envoyer des journaux à des serveurs prenant en charge différents protocoles.

9.2.1. Les sorties de transfert de journal prises en charge

Les sorties peuvent être l’un des types suivants:

Expand
Tableau 9.8. Les types de sortie de journal pris en charge
Le type de sortieLe ProtocoleTesté avecJournalisation des versionsLe type de collecteur pris en charge

Elasticsearch v6

HTTP 1.1

6.8.1, 6.8.23

5.6+

Fluentd, vecteur

Elasticsearch v7

HTTP 1.1

7.12.2, 7.17.7, 7.10.1

5.6+

Fluentd, vecteur

Elasticsearch v8

HTTP 1.1

8.4.3, 8.6.1

5.6+

Fluentd [1], Vecteur

Fluent vers l’avant

Fluentd forward v1

Fluentd 1.14.6, Logstash 7.10.1, Fluentd 1.14.5

5.4+

Fluentd

Google Cloud Logging

EST sur HTTPS

Les dernières

5.7+

Le vecteur

HTTP

HTTP 1.1

Fluentd 1.14.6, vecteur 0,21

5.7+

Fluentd, vecteur

Kafka

Kafka 0.11

Kafka 2.4.1, 2.7.0, 3.3.1

5.4+

Fluentd, vecteur

Loki

EST sur HTTP et HTTPS

2.3.0, 2.5.0, 2.7, 2.2.1

5.4+

Fluentd, vecteur

À propos de Splunk

HEC

8.2.9, 9.0.0

5.7+

Le vecteur

Le syslog

LE RFC3164, RFC5424

8.37.0-9.el7, rsyslog-8.39.0

5.4+

Fluentd, Vecteur [2]

Amazon CloudWatch

EST sur HTTPS

Les dernières

5.4+

Fluentd, vecteur

  1. Fluentd ne prend pas en charge Elasticsearch 8 dans la version d’enregistrement 5.6.2.
  2. Le vecteur prend en charge Syslog dans la version de journalisation 5.7 et supérieure.

9.2.2. Descriptions de type de sortie

défaut par défaut

Le magasin de journaux sur le groupe, Red Hat a géré le log store. Il n’est pas nécessaire de configurer la sortie par défaut.

Note

Lorsque vous configurez une sortie par défaut, vous recevez un message d’erreur, car le nom de sortie par défaut est réservé pour référencer le log Store géré par Red Hat.

Loki
Loki, un système d’agrégation de log multi-locataires, évolutif horizontalement, hautement disponible.
Kafka
C’est un courtier Kafka. La sortie kafka peut utiliser une connexion TCP ou TLS.
Elasticsearch
Instance externe Elasticsearch. La sortie de recherche élastique peut utiliser une connexion TLS.
FluentdForward

C’est une solution externe d’agrégation de log qui prend en charge Fluentd. Cette option utilise les protocoles Fluentd forward. La sortie fluentForward peut utiliser une connexion TCP ou TLS et prend en charge l’authentification à clé partagée en fournissant un champ_key partagé dans un secret. L’authentification à clé partagée peut être utilisée avec ou sans TLS.

Important

La sortie fluentdForward n’est prise en charge que si vous utilisez le collecteur Fluentd. Il n’est pas pris en charge si vous utilisez le collecteur vectoriel. Lorsque vous utilisez le collecteur vectoriel, vous pouvez transférer les journaux vers Fluentd en utilisant la sortie http.

le syslog
C’est une solution d’agrégation de journal externe qui prend en charge les protocoles syslog RFC3164 ou RFC5424. La sortie syslog peut utiliser une connexion UDP, TCP ou TLS.
CloudWatch
Amazon CloudWatch, un service de surveillance et de stockage log hébergé par Amazon Web Services (AWS).
cloudlogging
Google Cloud Logging, un service de surveillance et de stockage log hébergé par Google Cloud Platform (GCP).
Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat