15.3. Comprendre les alertes du sous-système de journalisation
Toutes les alertes du collecteur de logs sont listées dans l'interface utilisateur Alerting de la console web OpenShift Container Platform.
15.3.1. Visualisation des alertes du collecteur de journalisation
Les alertes sont affichées dans la console web de OpenShift Container Platform, dans l'onglet Alerts de l'interface utilisateur Alerting. Les alertes sont dans l'un des états suivants :
- Firing. La condition d'alerte est vraie pendant la durée du délai d'attente. Cliquez sur le menu Options à la fin de l'alerte pour obtenir plus d'informations ou faire taire l'alerte.
- Pending La condition d'alerte est actuellement vraie, mais le délai d'attente n'a pas été atteint.
- Not Firing. L'alerte n'est pas encore déclenchée.
Procédure
Pour afficher le sous-système de journalisation et d'autres alertes OpenShift Container Platform :
-
Dans la console OpenShift Container Platform, cliquez sur Observe
Alerting. - Cliquez sur l'onglet Alerts. Les alertes sont répertoriées en fonction des filtres sélectionnés.
Ressources complémentaires
- Pour plus d'informations sur l'interface utilisateur des alertes, voir Gestion des alertes.
15.3.2. À propos de l'enregistrement des alertes du collecteur
Les alertes suivantes sont générées par le collecteur de logs. Vous pouvez voir ces alertes dans la console web de OpenShift Container Platform sur la page Alerts de l'interface utilisateur Alerting.
Alerte | Message | Description | Sévérité |
---|---|---|---|
|
| Le nombre d'erreurs de sortie de FluentD est élevé, par défaut plus de 10 dans les 15 minutes précédentes. | Avertissement |
|
| Fluentd rapporte que Prometheus n'a pas pu scraper une instance spécifique de Fluentd. | Critique |
|
| Fluentd signale que la taille de la file d'attente augmente. | Critique |
|
| Le nombre d'erreurs de sortie de FluentD est très élevé, par défaut plus de 25 dans les 15 minutes précédentes. | Critique |
15.3.3. À propos des règles d'alerte Elasticsearch
Vous pouvez consulter ces règles d'alerte dans Prometheus.
Alerte | Description | Sévérité |
---|---|---|
| L'état de santé de la grappe est ROUGE depuis au moins 2 minutes. Le cluster n'accepte pas les écritures, des shards peuvent être manquants ou le nœud maître n'a pas encore été élu. | Critique |
| L'état de santé du cluster est JAUNE depuis au moins 20 minutes. Certaines répliques de la grappe ne sont pas allouées. | Avertissement |
| Le cluster devrait être à court d'espace disque dans les 6 prochaines heures. | Critique |
| Il est prévu que la grappe soit à court de descripteurs de fichiers dans l'heure qui suit. | Avertissement |
| L'utilisation de la mémoire vive de la JVM sur le nœud spécifié est élevée. | Alerte |
| Le nœud spécifié a atteint le filigrane bas en raison d'un faible espace disque disponible. Il n'est plus possible d'allouer des barrettes à ce nœud. Vous devriez envisager d'ajouter de l'espace disque à ce nœud. | Info |
| Le nœud spécifié a atteint le filigrane élevé en raison d'un faible espace disque disponible. Certains fichiers seront réattribués à d'autres nœuds si possible. Assurez-vous que plus d'espace disque est ajouté au nœud ou supprimez les anciens index alloués à ce nœud. | Avertissement |
| Le nœud spécifié a atteint le filigrane d'inondation en raison d'un faible espace disque disponible. Chaque index qui a un bloc alloué sur ce nœud est imposé comme un bloc en lecture seule. Le bloc d'index doit être libéré manuellement lorsque l'utilisation du disque passe en dessous du seuil élevé. | Critique |
| L'utilisation de la mémoire vive de la JVM sur le nœud spécifié est trop élevée. | Alerte |
| Elasticsearch connaît une augmentation des rejets d'écriture sur le nœud spécifié. Il se peut que ce nœud n'arrive pas à suivre la vitesse d'indexation. | Avertissement |
| L'unité centrale utilisée par le système sur le nœud spécifié est trop élevée. | Alerte |
| L'unité centrale utilisée par Elasticsearch sur le nœud spécifié est trop élevée. | Alerte |