4.2. À propos du déploiement de l’enregistrement
Les administrateurs peuvent déployer la journalisation à l’aide de la console Web OpenShift Dedicated ou de l’OpenShift CLI (oc) pour installer les opérateurs de journalisation. Les opérateurs sont responsables du déploiement, de la mise à niveau et de la maintenance de l’enregistrement.
Les administrateurs et les développeurs d’applications peuvent afficher les journaux des projets auxquels ils ont accès.
4.2.1. Journalisation des ressources personnalisées Copier lienLien copié sur presse-papiers!
Il est possible de configurer votre déploiement de journalisation avec des fichiers YAML de ressources personnalisées (CR) implémentés par chaque opérateur.
L’opérateur de journalisation de Red Hat OpenShift:
- ClusterLogging (CL) - Après l’installation des opérateurs, vous créez une ressource personnalisée ClusterLogging (CR) pour programmer les pods de journalisation et d’autres ressources nécessaires à la prise en charge de la journalisation. Le ClusterLogging CR déploie le collecteur et l’expéditeur, qui sont actuellement tous deux implémentés par un daemonset fonctionnant sur chaque nœud. Le Red Hat OpenShift Logging Operator surveille le ClusterLogging CR et ajuste le déploiement de la journalisation en conséquence.
- ClusterLogForwarder (CLF) - Génère la configuration du collecteur pour transférer les journaux par configuration utilisateur.
Loki Opérateur:
- LokiStack - Contrôle le cluster Loki en tant que log store et le proxy Web avec l’intégration d’authentification dédiée OpenShift pour appliquer la multi-tenance.
L’opérateur OpenShift Elasticsearch:
Ces CR sont générés et gérés par l’opérateur OpenShift Elasticsearch. Les modifications manuelles ne peuvent pas être effectuées sans avoir été écrasées par l’opérateur.
- Elasticsearch - Configurez et déployez une instance Elasticsearch en tant que log store par défaut.
- Kibana - Configurez et déployez l’instance Kibana pour rechercher, interroger et afficher les journaux.
4.2.2. Exigences en matière d’exploitation forestière Copier lienLien copié sur presse-papiers!
L’hébergement de votre propre pile de journalisation nécessite une grande quantité de ressources de calcul et de stockage, qui peuvent dépendre de votre quota de service cloud. Les besoins en ressources de calcul peuvent commencer à 48 Go ou plus, tandis que l’exigence de stockage peut être aussi grande que 1600 Go ou plus. La pile de journalisation s’exécute sur vos nœuds de travail, ce qui réduit votre ressource de charge de travail disponible. Avec ces considérations, l’hébergement de votre propre pile de journalisation augmente les coûts d’exploitation de votre cluster.
À titre d’information, consultez À propos de la collecte et de la transmission des journaux.
4.2.3. À propos de JSON OpenShift Dedicated Logging Copier lienLien copié sur presse-papiers!
La connexion JSON vous permet de configurer l’API Log Forwarding pour analyser les chaînes JSON dans un objet structuré. Il est possible d’effectuer les tâches suivantes:
- Analyser les journaux JSON
- Configurer les données de journal JSON pour Elasticsearch
- Envoyer les journaux JSON à la boutique de journal Elasticsearch
4.2.4. À propos de la collecte et du stockage des événements Kubernetes Copier lienLien copié sur presse-papiers!
Le routeur d’événements dédié OpenShift est un pod qui regarde les événements Kubernetes et les enregistre pour la collecte par OpenShift Dedicated Logging. Il faut déployer manuellement le routeur d’événements.
À titre d’information, consultez À propos de la collecte et du stockage des événements Kubernetes.
4.2.5. À propos du dépannage OpenShift Dedicated Logging Copier lienLien copié sur presse-papiers!
Il est possible de résoudre les problèmes de journalisation en effectuant les tâches suivantes:
- Affichage du statut de journalisation
- Affichez le statut de log store
- Comprendre les alertes de journalisation
- Collecte de données d’enregistrement pour Red Hat Support
- Dépannage des alertes critiques
4.2.6. À propos des champs d’exportation Copier lienLien copié sur presse-papiers!
Le système d’exploitation forestière exporte des champs. Les champs exportés sont présents dans les registres des journaux et sont disponibles pour la recherche chez Elasticsearch et Kibana.
À titre d’information, voir À propos des champs d’exportation.
4.2.7. À propos du routage des événements Copier lienLien copié sur presse-papiers!
Le routeur d’événements est un pod qui surveille les événements dédiés à OpenShift afin qu’ils puissent être collectés par journalisation. Le routeur de l’événement recueille les événements de tous les projets et les écrit à STDOUT. Fluentd recueille ces événements et les transmet dans l’instance OpenShift Dedicated Elasticsearch. Elasticsearch indexe les événements à l’indice infra.
Il faut déployer manuellement le routeur d’événements.
À titre d’information, voir Collecte et stockage des événements Kubernetes.