Chapitre 11. Alertes de journalisation
11.1. Alertes de journalisation par défaut Copier lienLien copié sur presse-papiers!
Les alertes de journalisation sont installées dans le cadre de l’installation Red Hat OpenShift Logging Operator. Les alertes dépendent des métriques exportées par la collecte de journaux et les backends de stockage de journaux. Ces métriques sont activées si vous avez sélectionné l’option Activer la surveillance de cluster recommandée par l’opérateur sur cet espace de noms lors de l’installation de l’opérateur de journalisation Red Hat OpenShift.
Les alertes de journalisation par défaut sont envoyées à OpenShift Dedicated Monitoring stack Alertmanager dans l’espace de noms openshift-monitoring, sauf si vous avez désactivé l’instance Alertmanager locale.
11.1.1. Accéder à l’interface utilisateur d’alerte dans les perspectives de l’administrateur et du développeur Copier lienLien copié sur presse-papiers!
L’interface utilisateur d’alerte est accessible par le biais de la perspective administrateur et de la perspective Développeur de la console Web dédiée OpenShift.
-
Dans la perspective de l’administrateur, allez à Observer
Alerter. Les trois pages principales de l’interface utilisateur d’alerte dans cette perspective sont les pages de règles d’alerte, de silence et d’alerte.
-
Dans la perspective Développeur, allez dans Observer
<project_name> Alertes. Dans cette perspective, les alertes, les silences et les règles d’alerte sont tous gérés à partir de la page Alertes. Les résultats affichés dans la page Alertes sont spécifiques au projet sélectionné.
Dans la perspective Développeur, vous pouvez sélectionner parmi les projets clés OpenShift Dédicés et définis par l’utilisateur auxquels vous avez accès dans la liste Projet: <project_name>. Cependant, les alertes, les silences et les règles d’alerte relatives aux principaux projets dédiés à OpenShift ne sont pas affichés si vous n’êtes pas connecté en tant qu’administrateur de cluster.
11.1.2. Alerte de collecteur de journalisation Copier lienLien copié sur presse-papiers!
Dans l’enregistrement des versions 5.8 et ultérieures, les alertes suivantes sont générées par l’opérateur de journalisation Red Hat OpenShift. Ces alertes peuvent être affichées dans la console Web OpenShift Dedicated.
Alerte Nom | Le message | Description | La sévérité |
---|---|---|---|
CollectorNodeDown | Le Prometheus n’a pas pu gratter le composant du collecteur de noms/pod pendant plus de 10 m. | Le collecteur ne peut pas être gratté. | Critique |
CollectorHighErrorRate | la valeur % des enregistrements a entraîné une erreur par composant collecteur d’espace de noms/pod. | les erreurs de composant de collecteur de noms/pods sont élevées. | Critique |
CollectorVeryHighErrorRate | la valeur % des enregistrements a entraîné une erreur par composant collecteur d’espace de noms/pod. | les erreurs de composant de collecteur de noms/pods sont très élevées. | Critique |
11.1.3. Alertes de collecteur de vecteurs Copier lienLien copié sur presse-papiers!
Dans l’enregistrement des versions 5.7 et ultérieures, les alertes suivantes sont générées par le collecteur de vecteurs. Ces alertes peuvent être affichées dans la console Web OpenShift Dedicated.
Alerte | Le message | Description | La sévérité |
---|---|---|---|
|
| Le nombre d’erreurs de sortie vectorielles est élevé, par défaut plus de 10 au cours des 15 minutes précédentes. | Avertissement |
|
| Le vecteur rapporte que Prometheus ne pouvait pas gratter une instance vectorielle spécifique. | Critique |
|
| Le nombre d’erreurs de composants vectoriels est très élevé, par défaut plus de 25 au cours des 15 minutes précédentes. | Critique |
|
| Fluentd rapporte que la taille de la file d’attente augmente. | Avertissement |
11.1.4. Alertes Fluentd collector Copier lienLien copié sur presse-papiers!
Les alertes suivantes sont générées par l’ancien collecteur de journaux Fluentd. Ces alertes peuvent être affichées dans la console Web OpenShift Dedicated.
Alerte | Le message | Description | La sévérité |
---|---|---|---|
|
| Le nombre d’erreurs de sortie FluentD est élevé, par défaut plus de 10 au cours des 15 minutes précédentes. | Avertissement |
|
| Fluentd signale que Prometheus ne pouvait pas gratter une instance Fluentd spécifique. | Critique |
|
| Fluentd rapporte que la taille de la file d’attente augmente. | Avertissement |
|
| Le nombre d’erreurs de sortie FluentD est très élevé, par défaut plus de 25 au cours des 15 minutes précédentes. | Critique |
11.1.5. Elasticsearch règles d’alerte Copier lienLien copié sur presse-papiers!
Ces règles d’alerte sont affichées dans la console Web OpenShift Dedicated.
Alerte | Description | La sévérité |
---|---|---|
| L’état de santé du cluster a été RED depuis au moins 2 minutes. Le cluster n’accepte pas les écrits, les éclats peuvent manquer, ou le nœud maître n’a pas encore été élu. | Critique |
| L’état de santé du cluster a été YELLOW pendant au moins 20 minutes. Certaines répliques de fragments ne sont pas allouées. | Avertissement |
| Le cluster devrait être hors de l’espace disque dans les 6 prochaines heures. | Critique |
| Le cluster devrait être sorti des descripteurs de fichiers dans l’heure suivante. | Avertissement |
| L’utilisation de JVM Heap sur le nœud spécifié est élevée. | Alerte |
| Le nœud spécifié a atteint le filigrane bas en raison d’un faible espace disque libre. Les fragments ne peuvent plus être attribués à ce nœud. Il faut envisager d’ajouter plus d’espace disque au nœud. | Infos |
| Le nœud spécifié a atteint le filigrane élevé en raison d’un faible espace disque libre. Certains fragments seront réaffectés à différents nœuds si possible. Assurez-vous que plus d’espace disque est ajouté au nœud ou déposez les anciens indices alloués à ce nœud. | Avertissement |
| Le nœud spécifié a frappé le filigrane d’inondation en raison d’un faible espace disque libre. Chaque index qui a un fragment alloué sur ce nœud est appliqué un bloc en lecture seule. Le bloc d’index doit être libéré manuellement lorsque l’utilisation du disque tombe sous le filigrane élevé. | Critique |
| L’utilisation de JVM Heap sur le nœud spécifié est trop élevée. | Alerte |
| Elasticsearch connaît une augmentation des rejets d’écriture sur le nœud spécifié. Ce nœud pourrait ne pas suivre la vitesse d’indexation. | Avertissement |
| Le CPU utilisé par le système sur le nœud spécifié est trop élevé. | Alerte |
| Le CPU utilisé par Elasticsearch sur le nœud spécifié est trop élevé. | Alerte |