Chapitre 4. À propos de Logging
En tant qu’administrateur de cluster, vous pouvez déployer l’enregistrement sur un Red Hat OpenShift Service sur AWS cluster, et l’utiliser pour collecter et agréger les journaux d’audit système de nœuds, les journaux de conteneurs d’applications et les journaux d’infrastructure. Il est possible d’envoyer les journaux vers les sorties de journal que vous avez choisies, y compris le stockage de journaux géré par Red Hat. Il est également possible de visualiser les données de votre journal dans le Red Hat OpenShift Service sur la console web AWS ou la console Web Kibana, en fonction de votre solution de stockage de log déployée.
La console Web Kibana est maintenant désapprouvée est prévue pour être supprimée dans une prochaine version de journalisation.
Le service OpenShift de Red Hat sur les administrateurs de cluster AWS peut déployer la journalisation à l’aide d’opérateurs. À titre d’information, voir xref :././observability/logging/cluster-logging-deploying.adoc#cluster-logging-déploying[Installing logging].
Les opérateurs sont responsables du déploiement, de la mise à niveau et de la maintenance de l’enregistrement. Après l’installation des opérateurs, vous pouvez créer une ressource personnalisée ClusterLogging (CR) pour programmer les pods de journalisation et d’autres ressources nécessaires pour prendre en charge la journalisation. Il est également possible de créer un ClusterLogForwarder CR pour spécifier quels journaux sont recueillis, comment ils sont transformés et où ils sont transférés.
Étant donné que le Red Hat OpenShift Service interne sur AWS Elasticsearch log store ne fournit pas de stockage sécurisé pour les journaux d’audit, les journaux d’audit ne sont pas stockés dans l’instance interne Elasticsearch par défaut. Lorsque vous souhaitez envoyer les journaux d’audit dans le journal interne Elasticsearch par défaut, par exemple pour afficher les journaux d’audit dans Kibana, vous devez utiliser l’API Log Forwarding comme décrit dans xref :.././observability/logging/log_storage/logging-config-es-store.adoc#cluster-logging-elasticsearch-audit_logging-config-es-store[Forward les journaux d’audit dans le log store].
4.1. Architecture d’enregistrement Copier lienLien copié sur presse-papiers!
Les principales composantes de l’exploitation forestière sont:
- Collectionneur
Le collectionneur est un daemonset qui déploie des pods dans chaque Red Hat OpenShift Service sur AWS. Il collecte les données de log de chaque nœud, transforme les données et les transmet aux sorties configurées. Il est possible d’utiliser le collectionneur Vecteur ou l’ancien collectionneur Fluentd.
NoteFluentd est déprécié et devrait être retiré dans une version ultérieure. Le Red Hat fournit des corrections de bogues et une prise en charge de cette fonctionnalité pendant le cycle de vie de la version actuelle, mais cette fonctionnalité ne reçoit plus d’améliorations. Comme alternative à Fluentd, vous pouvez utiliser Vector à la place.
- Log Store
Le log store stocke les données de log pour analyse et est la sortie par défaut pour l’expéditeur de journal. Il est possible d’utiliser le log store LokiStack par défaut, l’ancien magasin de journal Elasticsearch ou les journaux vers d’autres magasins de journaux externes.
NoteLa version Logging 5.9 ne contient pas une version mise à jour de l’opérateur OpenShift Elasticsearch. Actuellement, si vous utilisez l’opérateur OpenShift Elasticsearch publié avec Logging 5.8, il continuera à fonctionner avec Logging jusqu’à ce que l’EOL de Logging 5.8. Comme alternative à l’utilisation de l’opérateur OpenShift Elasticsearch pour gérer le stockage de journaux par défaut, vous pouvez utiliser l’opérateur Loki. Consultez Platform Agnostic Operators pour plus d’informations sur les dates du cycle de vie de l’enregistrement.
- La visualisation
Il est possible d’utiliser un composant d’interface utilisateur pour visualiser une représentation visuelle de vos données de journal. L’interface utilisateur fournit une interface graphique pour rechercher, interroger et afficher les journaux stockés. Le Red Hat OpenShift Service sur AWS console Web UI est fourni en activant le Red Hat OpenShift Service sur le plugin de console AWS.
NoteLa console Web Kibana est maintenant désapprouvée est prévue pour être supprimée dans une prochaine version de journalisation.
L’enregistrement collecte les journaux de conteneurs et les journaux de nœuds. Ceux-ci sont classés en types:
- Journaux des applications
- Journaux de conteneurs générés par les applications utilisateur s’exécutant dans le cluster, à l’exception des applications de conteneurs d’infrastructure.
- Journaux de l’infrastructure
- Journaux de conteneurs générés par des espaces de noms d’infrastructure: openshift*, kube* ou par défaut, ainsi que des messages journalisés à partir de nœuds.
- Journaux d’audit
- Journaux générés par audit, le système d’audit des nœuds, qui sont stockés dans le fichier /var/log/audit/audit.log, et les journaux des services audités, kube-apiserver, openshift-apiserver, ainsi que le projet ovn si activé.