15.3. Comprendre les alertes du sous-système de journalisation


Toutes les alertes du collecteur de logs sont listées dans l'interface utilisateur Alerting de la console web OpenShift Container Platform.

15.3.1. Visualisation des alertes du collecteur de journalisation

Les alertes sont affichées dans la console web de OpenShift Container Platform, dans l'onglet Alerts de l'interface utilisateur Alerting. Les alertes sont dans l'un des états suivants :

  • Firing. La condition d'alerte est vraie pendant la durée du délai d'attente. Cliquez sur le menu Options à la fin de l'alerte pour obtenir plus d'informations ou faire taire l'alerte.
  • Pending La condition d'alerte est actuellement vraie, mais le délai d'attente n'a pas été atteint.
  • Not Firing. L'alerte n'est pas encore déclenchée.

Procédure

Pour afficher le sous-système de journalisation et d'autres alertes OpenShift Container Platform :

  1. Dans la console OpenShift Container Platform, cliquez sur Observe Alerting.
  2. Cliquez sur l'onglet Alerts. Les alertes sont répertoriées en fonction des filtres sélectionnés.

Ressources complémentaires

15.3.2. À propos de l'enregistrement des alertes du collecteur

Les alertes suivantes sont générées par le collecteur de logs. Vous pouvez voir ces alertes dans la console web de OpenShift Container Platform sur la page Alerts de l'interface utilisateur Alerting.

Tableau 15.1. Alertes Fluentd Prometheus
AlerteMessageDescriptionSévérité

FluentDHighErrorRate

<value> of records have resulted in an error by fluentd <instance>.

Le nombre d'erreurs de sortie de FluentD est élevé, par défaut plus de 10 dans les 15 minutes précédentes.

Avertissement

FluentdNodeDown

Prometheus could not scrape fluentd <instance> for more than 10m.

Fluentd rapporte que Prometheus n'a pas pu scraper une instance spécifique de Fluentd.

Critique

FluentdQueueLengthIncreasing

In the last 12h, fluentd <instance> buffer queue length constantly increased more than 1. Current value is <value>.

Fluentd signale que la taille de la file d'attente augmente.

Critique

FluentDVeryHighErrorRate

<value> of records have resulted in an error by fluentd <instance>.

Le nombre d'erreurs de sortie de FluentD est très élevé, par défaut plus de 25 dans les 15 minutes précédentes.

Critique

15.3.3. À propos des règles d'alerte Elasticsearch

Vous pouvez consulter ces règles d'alerte dans Prometheus.

Tableau 15.2. Règles d'alerte
AlerteDescriptionSévérité

ElasticsearchClusterNotHealthy

L'état de santé de la grappe est ROUGE depuis au moins 2 minutes. Le cluster n'accepte pas les écritures, des shards peuvent être manquants ou le nœud maître n'a pas encore été élu.

Critique

ElasticsearchClusterNotHealthy

L'état de santé du cluster est JAUNE depuis au moins 20 minutes. Certaines répliques de la grappe ne sont pas allouées.

Avertissement

ElasticsearchDiskSpaceRunningLow

Le cluster devrait être à court d'espace disque dans les 6 prochaines heures.

Critique

ElasticsearchHighFileDescriptorUsage

Il est prévu que la grappe soit à court de descripteurs de fichiers dans l'heure qui suit.

Avertissement

ElasticsearchJVMHeapUseHigh

L'utilisation de la mémoire vive de la JVM sur le nœud spécifié est élevée.

Alerte

ElasticsearchNodeDiskWatermarkReached

Le nœud spécifié a atteint le filigrane bas en raison d'un faible espace disque disponible. Il n'est plus possible d'allouer des barrettes à ce nœud. Vous devriez envisager d'ajouter de l'espace disque à ce nœud.

Info

ElasticsearchNodeDiskWatermarkReached

Le nœud spécifié a atteint le filigrane élevé en raison d'un faible espace disque disponible. Certains fichiers seront réattribués à d'autres nœuds si possible. Assurez-vous que plus d'espace disque est ajouté au nœud ou supprimez les anciens index alloués à ce nœud.

Avertissement

ElasticsearchNodeDiskWatermarkReached

Le nœud spécifié a atteint le filigrane d'inondation en raison d'un faible espace disque disponible. Chaque index qui a un bloc alloué sur ce nœud est imposé comme un bloc en lecture seule. Le bloc d'index doit être libéré manuellement lorsque l'utilisation du disque passe en dessous du seuil élevé.

Critique

ElasticsearchJVMHeapUseHigh

L'utilisation de la mémoire vive de la JVM sur le nœud spécifié est trop élevée.

Alerte

ElasticsearchWriteRequestsRejectionJumps

Elasticsearch connaît une augmentation des rejets d'écriture sur le nœud spécifié. Il se peut que ce nœud n'arrive pas à suivre la vitesse d'indexation.

Avertissement

AggregatedLoggingSystemCPUHigh

L'unité centrale utilisée par le système sur le nœud spécifié est trop élevée.

Alerte

ElasticsearchProcessCPUHigh

L'unité centrale utilisée par Elasticsearch sur le nœud spécifié est trop élevée.

Alerte

Red Hat logoGithubRedditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez leBlog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

© 2024 Red Hat, Inc.