Chapitre 11. Alertes de journalisation
11.1. Alertes de journalisation par défaut Copier lienLien copié sur presse-papiers!
Les alertes de journalisation sont installées dans le cadre de l’installation Red Hat OpenShift Logging Operator. Les alertes dépendent des métriques exportées par la collecte de journaux et les backends de stockage de journaux. Ces métriques sont activées si vous avez sélectionné l’option Activer la surveillance de cluster recommandée par l’opérateur sur cet espace de noms lors de l’installation de l’opérateur de journalisation Red Hat OpenShift.
Les alertes de journalisation par défaut sont envoyées au service Red Hat OpenShift sur la pile de surveillance AWS Alertmanager dans l’espace de noms de surveillance openshift, à moins que vous n’ayez désactivé l’instance Alertmanager locale.
11.1.1. Accéder à l’interface utilisateur d’alerte du point de vue de l’administrateur Copier lienLien copié sur presse-papiers!
11.1.2. Accéder à l’interface utilisateur d’alerte du point de vue du développeur Copier lienLien copié sur presse-papiers!
L’interface utilisateur d’alerte est accessible via la perspective Développeur du Red Hat OpenShift Service sur la console web AWS.
-
Du point de vue de l’administrateur, allez à Observer
Alerter. Les trois pages principales de l’interface utilisateur d’alerte dans cette perspective sont les pages de règles d’alerte, de silence et d’alerte.
- Du point de vue Développeur, allez à Observer et allez à l’onglet Alertes.
- Choisissez le projet pour lequel vous souhaitez gérer les alertes dans la liste Projet:
Dans cette perspective, les alertes, les silences et les règles d’alerte sont tous gérés à partir de l’onglet Alertes. Les résultats affichés dans l’onglet Alertes sont spécifiques au projet sélectionné.
Dans la perspective Développeur, vous pouvez sélectionner à partir du service Core Red Hat OpenShift sur AWS et les projets définis par l’utilisateur auxquels vous avez accès dans la liste Projet: <project_name>. Cependant, les alertes, les silences et les règles d’alerte relatives au service Core Red Hat OpenShift sur les projets AWS ne sont pas affichés si vous n’êtes pas connecté en tant qu’administrateur de cluster.
11.1.3. Alerte de collecteur de journalisation Copier lienLien copié sur presse-papiers!
Dans l’enregistrement des versions 5.8 et ultérieures, les alertes suivantes sont générées par l’opérateur de journalisation Red Hat OpenShift. Ces alertes sont affichées dans le service OpenShift Red Hat sur la console web AWS.
Alerte Nom | Le message | Description | La sévérité |
---|---|---|---|
CollectorNodeDown | Le Prometheus n’a pas pu gratter le composant du collecteur de noms/pod pendant plus de 10 m. | Le collecteur ne peut pas être gratté. | Critique |
CollectorHighErrorRate | la valeur % des enregistrements a entraîné une erreur par composant collecteur d’espace de noms/pod. | les erreurs de composant de collecteur de noms/pods sont élevées. | Critique |
CollectorVeryHighErrorRate | la valeur % des enregistrements a entraîné une erreur par composant collecteur d’espace de noms/pod. | les erreurs de composant de collecteur de noms/pods sont très élevées. | Critique |
11.1.4. Alertes de collecteur de vecteurs Copier lienLien copié sur presse-papiers!
Dans l’enregistrement des versions 5.7 et ultérieures, les alertes suivantes sont générées par le collecteur de vecteurs. Ces alertes sont affichées dans le service OpenShift Red Hat sur la console web AWS.
Alerte | Le message | Description | La sévérité |
---|---|---|---|
|
| Le nombre d’erreurs de sortie vectorielles est élevé, par défaut plus de 10 au cours des 15 minutes précédentes. | Avertissement |
|
| Le vecteur rapporte que Prometheus ne pouvait pas gratter une instance vectorielle spécifique. | Critique |
|
| Le nombre d’erreurs de composants vectoriels est très élevé, par défaut plus de 25 au cours des 15 minutes précédentes. | Critique |
|
| Fluentd rapporte que la taille de la file d’attente augmente. | Avertissement |
11.1.5. Alertes Fluentd collector Copier lienLien copié sur presse-papiers!
Les alertes suivantes sont générées par l’ancien collecteur de journaux Fluentd. Ces alertes sont affichées dans le service OpenShift Red Hat sur la console web AWS.
Alerte | Le message | Description | La sévérité |
---|---|---|---|
|
| Le nombre d’erreurs de sortie FluentD est élevé, par défaut plus de 10 au cours des 15 minutes précédentes. | Avertissement |
|
| Fluentd signale que Prometheus ne pouvait pas gratter une instance Fluentd spécifique. | Critique |
|
| Fluentd rapporte que la taille de la file d’attente augmente. | Avertissement |
|
| Le nombre d’erreurs de sortie FluentD est très élevé, par défaut plus de 25 au cours des 15 minutes précédentes. | Critique |
11.1.6. Elasticsearch règles d’alerte Copier lienLien copié sur presse-papiers!
Ces règles d’alerte sont affichées dans le Service OpenShift Red Hat sur la console web AWS.
Alerte | Description | La sévérité |
---|---|---|
| L’état de santé du cluster a été RED depuis au moins 2 minutes. Le cluster n’accepte pas les écrits, les éclats peuvent manquer, ou le nœud maître n’a pas encore été élu. | Critique |
| L’état de santé du cluster a été YELLOW pendant au moins 20 minutes. Certaines répliques de fragments ne sont pas allouées. | Avertissement |
| Le cluster devrait être hors de l’espace disque dans les 6 prochaines heures. | Critique |
| Le cluster devrait être sorti des descripteurs de fichiers dans l’heure suivante. | Avertissement |
| L’utilisation de JVM Heap sur le nœud spécifié est élevée. | Alerte |
| Le nœud spécifié a atteint le filigrane bas en raison d’un faible espace disque libre. Les fragments ne peuvent plus être attribués à ce nœud. Il faut envisager d’ajouter plus d’espace disque au nœud. | Infos |
| Le nœud spécifié a atteint le filigrane élevé en raison d’un faible espace disque libre. Certains fragments seront réaffectés à différents nœuds si possible. Assurez-vous que plus d’espace disque est ajouté au nœud ou déposez les anciens indices alloués à ce nœud. | Avertissement |
| Le nœud spécifié a frappé le filigrane d’inondation en raison d’un faible espace disque libre. Chaque index qui a un fragment alloué sur ce nœud est appliqué un bloc en lecture seule. Le bloc d’index doit être libéré manuellement lorsque l’utilisation du disque tombe sous le filigrane élevé. | Critique |
| L’utilisation de JVM Heap sur le nœud spécifié est trop élevée. | Alerte |
| Elasticsearch connaît une augmentation des rejets d’écriture sur le nœud spécifié. Ce nœud pourrait ne pas suivre la vitesse d’indexation. | Avertissement |
| Le CPU utilisé par le système sur le nœud spécifié est trop élevé. | Alerte |
| Le CPU utilisé par Elasticsearch sur le nœud spécifié est trop élevé. | Alerte |