Chapitre 10. Journal de stockage
10.1. À propos du stockage des journaux Copier lienLien copié sur presse-papiers!
Il est possible d’utiliser un log Store interne Loki ou Elasticsearch sur votre cluster pour stocker les journaux, ou vous pouvez utiliser une ressource personnalisée ClusterLogForwarder (CR) pour transférer les journaux vers un magasin externe.
10.1.1. Log types de stockage Copier lienLien copié sur presse-papiers!
Loki est un système d’agrégation de log multi-locataires à l’échelle horizontale, hautement disponible, offert en tant que log store GA pour l’enregistrement de Red Hat OpenShift qui peut être visualisé avec l’interface d’observation OpenShift. La configuration Loki fournie par OpenShift Logging est un log store à court terme conçu pour permettre aux utilisateurs d’effectuer un dépannage rapide avec les journaux collectés. À cette fin, l’enregistrement de la configuration Red Hat OpenShift de Loki dispose d’un stockage à court terme et est optimisé pour les requêtes très récentes. Dans le cas d’un stockage ou d’une requête à long terme sur une longue période, les utilisateurs devraient chercher à loger des magasins externes à leur cluster.
Elasticsearch indexe les enregistrements de log entrants complètement pendant l’ingestion. Loki n’indexe que quelques étiquettes fixes lors de l’ingestion et reporte l’analyse plus complexe jusqu’à ce que les journaux aient été stockés. Cela signifie que Loki peut collecter des journaux plus rapidement.
10.1.1.1. À propos de la boutique de journal Elasticsearch Copier lienLien copié sur presse-papiers!
L’instance d’enregistrement Elasticsearch est optimisée et testée pour le stockage à court terme, environ sept jours. Lorsque vous souhaitez conserver vos journaux à plus long terme, il est recommandé de déplacer les données vers un système de stockage tiers.
Elasticsearch organise les données de log de Fluentd en datastores, ou indices, puis subdivise chaque index en plusieurs morceaux appelés shards, qu’il diffuse à travers un ensemble de nœuds Elasticsearch dans un cluster Elasticsearch. Il est possible de configurer Elasticsearch pour faire des copies des fragments, appelés répliques, qu’Elasticsearch diffuse également à travers les nœuds Elasticsearch. La ressource personnalisée ClusterLogging (CR) vous permet de spécifier comment les fragments sont reproduits pour fournir une redondance des données et une résilience à l’échec. Il est également possible de spécifier combien de temps les différents types de journaux sont conservés à l’aide d’une stratégie de rétention dans le ClusterLogging CR.
Le nombre de fragments primaires pour les modèles d’index est égal au nombre de nœuds de données Elasticsearch.
Le Red Hat OpenShift Logging Operator et son compagnon OpenShift Elasticsearch Operator s’assurent que chaque nœud Elasticsearch est déployé à l’aide d’un déploiement unique qui inclut son propre volume de stockage. Au besoin, vous pouvez utiliser une ressource personnalisée ClusterLogging (CR) pour augmenter le nombre de nœuds Elasticsearch. Consultez la documentation Elasticsearch pour les considérations impliquées dans la configuration du stockage.
L’environnement Elasticsearch hautement disponible nécessite au moins trois nœuds Elasticsearch, chacun sur un hôte différent.
Le contrôle d’accès basé sur les rôles (RBAC) appliqué sur les indices Elasticsearch permet l’accès contrôlé des journaux aux développeurs. Les administrateurs peuvent accéder à tous les journaux et les développeurs ne peuvent accéder qu’aux journaux de leurs projets.
10.1.2. Interroger les magasins de journaux Copier lienLien copié sur presse-papiers!
Il est possible d’interroger Loki en utilisant le langage de requête LogQL.