4.2. À propos du déploiement de l’enregistrement


Les administrateurs peuvent déployer la journalisation à l’aide de la console Web OpenShift Dedicated ou de l’OpenShift CLI (oc) pour installer les opérateurs de journalisation. Les opérateurs sont responsables du déploiement, de la mise à niveau et de la maintenance de l’enregistrement.

Les administrateurs et les développeurs d’applications peuvent afficher les journaux des projets auxquels ils ont accès.

4.2.1. Journalisation des ressources personnalisées

Il est possible de configurer votre déploiement de journalisation avec des fichiers YAML de ressources personnalisées (CR) implémentés par chaque opérateur.

L’opérateur de journalisation de Red Hat OpenShift:

  • ClusterLogging (CL) - Après l’installation des opérateurs, vous créez une ressource personnalisée ClusterLogging (CR) pour programmer les pods de journalisation et d’autres ressources nécessaires à la prise en charge de la journalisation. Le ClusterLogging CR déploie le collecteur et l’expéditeur, qui sont actuellement tous deux implémentés par un daemonset fonctionnant sur chaque nœud. Le Red Hat OpenShift Logging Operator surveille le ClusterLogging CR et ajuste le déploiement de la journalisation en conséquence.
  • ClusterLogForwarder (CLF) - Génère la configuration du collecteur pour transférer les journaux par configuration utilisateur.

Loki Opérateur:

  • LokiStack - Contrôle le cluster Loki en tant que log store et le proxy Web avec l’intégration d’authentification dédiée OpenShift pour appliquer la multi-tenance.

L’opérateur OpenShift Elasticsearch:

Note

Ces CR sont générés et gérés par l’opérateur OpenShift Elasticsearch. Les modifications manuelles ne peuvent pas être effectuées sans avoir été écrasées par l’opérateur.

  • Elasticsearch - Configurez et déployez une instance Elasticsearch en tant que log store par défaut.
  • Kibana - Configurez et déployez l’instance Kibana pour rechercher, interroger et afficher les journaux.

4.2.2. Exigences en matière d’exploitation forestière

L’hébergement de votre propre pile de journalisation nécessite une grande quantité de ressources de calcul et de stockage, qui peuvent dépendre de votre quota de service cloud. Les besoins en ressources de calcul peuvent commencer à 48 Go ou plus, tandis que l’exigence de stockage peut être aussi grande que 1600 Go ou plus. La pile de journalisation s’exécute sur vos nœuds de travail, ce qui réduit votre ressource de charge de travail disponible. Avec ces considérations, l’hébergement de votre propre pile de journalisation augmente les coûts d’exploitation de votre cluster.

À titre d’information, consultez À propos de la collecte et de la transmission des journaux.

4.2.3. À propos de JSON OpenShift Dedicated Logging

La connexion JSON vous permet de configurer l’API Log Forwarding pour analyser les chaînes JSON dans un objet structuré. Il est possible d’effectuer les tâches suivantes:

  • Analyser les journaux JSON
  • Configurer les données de journal JSON pour Elasticsearch
  • Envoyer les journaux JSON à la boutique de journal Elasticsearch

Le routeur d’événements dédié OpenShift est un pod qui regarde les événements Kubernetes et les enregistre pour la collecte par OpenShift Dedicated Logging. Il faut déployer manuellement le routeur d’événements.

À titre d’information, consultez À propos de la collecte et du stockage des événements Kubernetes.

4.2.5. À propos du dépannage OpenShift Dedicated Logging

Il est possible de résoudre les problèmes de journalisation en effectuant les tâches suivantes:

  • Affichage du statut de journalisation
  • Affichez le statut de log store
  • Comprendre les alertes de journalisation
  • Collecte de données d’enregistrement pour Red Hat Support
  • Dépannage des alertes critiques

4.2.6. À propos des champs d’exportation

Le système d’exploitation forestière exporte des champs. Les champs exportés sont présents dans les registres des journaux et sont disponibles pour la recherche chez Elasticsearch et Kibana.

À titre d’information, voir À propos des champs d’exportation.

4.2.7. À propos du routage des événements

Le routeur d’événements est un pod qui surveille les événements dédiés à OpenShift afin qu’ils puissent être collectés par journalisation. Le routeur de l’événement recueille les événements de tous les projets et les écrit à STDOUT. Fluentd recueille ces événements et les transmet dans l’instance OpenShift Dedicated Elasticsearch. Elasticsearch indexe les événements à l’indice infra.

Il faut déployer manuellement le routeur d’événements.

À titre d’information, voir Collecte et stockage des événements Kubernetes.

Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat