Chapitre 11. Alertes de journalisation


11.1. Alertes de journalisation par défaut

Les alertes de journalisation sont installées dans le cadre de l’installation Red Hat OpenShift Logging Operator. Les alertes dépendent des métriques exportées par la collecte de journaux et les backends de stockage de journaux. Ces métriques sont activées si vous avez sélectionné l’option Activer la surveillance de cluster recommandée par l’opérateur sur cet espace de noms lors de l’installation de l’opérateur de journalisation Red Hat OpenShift.

Les alertes de journalisation par défaut sont envoyées au service Red Hat OpenShift sur la pile de surveillance AWS Alertmanager dans l’espace de noms de surveillance openshift, à moins que vous n’ayez désactivé l’instance Alertmanager locale.

L’interface utilisateur d’alerte est accessible via la perspective Développeur du Red Hat OpenShift Service sur la console web AWS.

  • Du point de vue de l’administrateur, allez à Observer Alerter. Les trois pages principales de l’interface utilisateur d’alerte dans cette perspective sont les pages de règles d’alerte, de silence et d’alerte.
  • Du point de vue Développeur, allez à Observer et allez à l’onglet Alertes.
  • Choisissez le projet pour lequel vous souhaitez gérer les alertes dans la liste Projet:

Dans cette perspective, les alertes, les silences et les règles d’alerte sont tous gérés à partir de l’onglet Alertes. Les résultats affichés dans l’onglet Alertes sont spécifiques au projet sélectionné.

Note

Dans la perspective Développeur, vous pouvez sélectionner à partir du service Core Red Hat OpenShift sur AWS et les projets définis par l’utilisateur auxquels vous avez accès dans la liste Projet: <project_name>. Cependant, les alertes, les silences et les règles d’alerte relatives au service Core Red Hat OpenShift sur les projets AWS ne sont pas affichés si vous n’êtes pas connecté en tant qu’administrateur de cluster.

11.1.3. Alerte de collecteur de journalisation

Dans l’enregistrement des versions 5.8 et ultérieures, les alertes suivantes sont générées par l’opérateur de journalisation Red Hat OpenShift. Ces alertes sont affichées dans le service OpenShift Red Hat sur la console web AWS.

Expand
Alerte NomLe messageDescriptionLa sévérité

CollectorNodeDown

Le Prometheus n’a pas pu gratter le composant du collecteur de noms/pod pendant plus de 10 m.

Le collecteur ne peut pas être gratté.

Critique

CollectorHighErrorRate

la valeur % des enregistrements a entraîné une erreur par composant collecteur d’espace de noms/pod.

les erreurs de composant de collecteur de noms/pods sont élevées.

Critique

CollectorVeryHighErrorRate

la valeur % des enregistrements a entraîné une erreur par composant collecteur d’espace de noms/pod.

les erreurs de composant de collecteur de noms/pods sont très élevées.

Critique

11.1.4. Alertes de collecteur de vecteurs

Dans l’enregistrement des versions 5.7 et ultérieures, les alertes suivantes sont générées par le collecteur de vecteurs. Ces alertes sont affichées dans le service OpenShift Red Hat sur la console web AWS.

Expand
Tableau 11.1. Alertes de collecteur de vecteurs
AlerteLe messageDescriptionLa sévérité

CollectorHighErrorRate

<value> des enregistrements ont entraîné une erreur par vecteur <instance>.

Le nombre d’erreurs de sortie vectorielles est élevé, par défaut plus de 10 au cours des 15 minutes précédentes.

Avertissement

CollectorNodeDown

Le Prométhée n’a pas pu gratter le vecteur <instance> pendant plus de 10m.

Le vecteur rapporte que Prometheus ne pouvait pas gratter une instance vectorielle spécifique.

Critique

CollectorVeryHighErrorRate

<value> des enregistrements ont entraîné une erreur par vecteur <instance>.

Le nombre d’erreurs de composants vectoriels est très élevé, par défaut plus de 25 au cours des 15 minutes précédentes.

Critique

FluentdQueueLength Augmentation

Au cours de la dernière 1h, la longueur de file d’attente du tampon a constamment augmenté de plus de 1. La valeur actuelle est <valeur>.

Fluentd rapporte que la taille de la file d’attente augmente.

Avertissement

11.1.5. Alertes Fluentd collector

Les alertes suivantes sont générées par l’ancien collecteur de journaux Fluentd. Ces alertes sont affichées dans le service OpenShift Red Hat sur la console web AWS.

Expand
Tableau 11.2. Alertes Fluentd collector
AlerteLe messageDescriptionLa sévérité

FluentDHighErrorRate

<valeur> des enregistrements ont entraîné une erreur par fluentd <instance>.

Le nombre d’erreurs de sortie FluentD est élevé, par défaut plus de 10 au cours des 15 minutes précédentes.

Avertissement

FluentdNodeDown

Le Prométhée ne pouvait pas gratter couramment <instance> pendant plus de 10m.

Fluentd signale que Prometheus ne pouvait pas gratter une instance Fluentd spécifique.

Critique

FluentdQueueLength Augmentation

Au cours de la dernière 1h, la longueur de file d’attente du tampon a constamment augmenté de plus de 1. La valeur actuelle est <valeur>.

Fluentd rapporte que la taille de la file d’attente augmente.

Avertissement

FluentDVeryHighErrorRate

<valeur> des enregistrements ont entraîné une erreur par fluentd <instance>.

Le nombre d’erreurs de sortie FluentD est très élevé, par défaut plus de 25 au cours des 15 minutes précédentes.

Critique

11.1.6. Elasticsearch règles d’alerte

Ces règles d’alerte sont affichées dans le Service OpenShift Red Hat sur la console web AWS.

Expand
Tableau 11.3. Les règles d’alerte
AlerteDescriptionLa sévérité

ElasticsearchClusterNotHealthy

L’état de santé du cluster a été RED depuis au moins 2 minutes. Le cluster n’accepte pas les écrits, les éclats peuvent manquer, ou le nœud maître n’a pas encore été élu.

Critique

ElasticsearchClusterNotHealthy

L’état de santé du cluster a été YELLOW pendant au moins 20 minutes. Certaines répliques de fragments ne sont pas allouées.

Avertissement

ElasticsearchDiskSpaceRunningLow

Le cluster devrait être hors de l’espace disque dans les 6 prochaines heures.

Critique

ElasticsearchHighFileDescriptorUsage

Le cluster devrait être sorti des descripteurs de fichiers dans l’heure suivante.

Avertissement

ElasticsearchJVMHeapUseHigh

L’utilisation de JVM Heap sur le nœud spécifié est élevée.

Alerte

ElasticsearchNodeDiskWatermarkReached

Le nœud spécifié a atteint le filigrane bas en raison d’un faible espace disque libre. Les fragments ne peuvent plus être attribués à ce nœud. Il faut envisager d’ajouter plus d’espace disque au nœud.

Infos

ElasticsearchNodeDiskWatermarkReached

Le nœud spécifié a atteint le filigrane élevé en raison d’un faible espace disque libre. Certains fragments seront réaffectés à différents nœuds si possible. Assurez-vous que plus d’espace disque est ajouté au nœud ou déposez les anciens indices alloués à ce nœud.

Avertissement

ElasticsearchNodeDiskWatermarkReached

Le nœud spécifié a frappé le filigrane d’inondation en raison d’un faible espace disque libre. Chaque index qui a un fragment alloué sur ce nœud est appliqué un bloc en lecture seule. Le bloc d’index doit être libéré manuellement lorsque l’utilisation du disque tombe sous le filigrane élevé.

Critique

ElasticsearchJVMHeapUseHigh

L’utilisation de JVM Heap sur le nœud spécifié est trop élevée.

Alerte

ElasticsearchWriteRequestsRejectionJumps

Elasticsearch connaît une augmentation des rejets d’écriture sur le nœud spécifié. Ce nœud pourrait ne pas suivre la vitesse d’indexation.

Avertissement

AggregatedLoggingSystemCPUHigh

Le CPU utilisé par le système sur le nœud spécifié est trop élevé.

Alerte

ElasticsearchProcessCPUHigh

Le CPU utilisé par Elasticsearch sur le nœud spécifié est trop élevé.

Alerte

Retour au début
Red Hat logoGithubredditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance. Découvrez nos récentes mises à jour.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez le Blog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

Theme

© 2025 Red Hat