1.27. Enregistrement 5.4


Les avis suivants sont disponibles pour la journalisation 5.4 : Sous-système de journalisation pour Red Hat OpenShift version 5.4

1.27.1. Aperçus technologiques

Important

Vector est une fonctionnalité d'aperçu technologique uniquement. Les fonctionnalités de l'aperçu technologique ne sont pas prises en charge par les accords de niveau de service (SLA) de production de Red Hat et peuvent ne pas être complètes sur le plan fonctionnel. Red Hat ne recommande pas de les utiliser en production. Ces fonctionnalités offrent un accès anticipé aux fonctionnalités des produits à venir, ce qui permet aux clients de tester les fonctionnalités et de fournir un retour d'information pendant le processus de développement.

Pour plus d'informations sur la portée de l'assistance des fonctionnalités de l'aperçu technologique de Red Hat, voir Portée de l'assistance des fonctionnalités de l'aperçu technologique.

1.27.2. À propos de Vector

Vector est un collecteur de journaux proposé en tant qu'alternative technique au collecteur par défaut du sous-système de journalisation.

Les sorties suivantes sont prises en charge :

  • elasticsearch. Une instance Elasticsearch externe. La sortie elasticsearch peut utiliser une connexion TLS.
  • kafka. Un courtier Kafka. La sortie kafka peut utiliser une connexion non sécurisée ou TLS.
  • loki. Loki, un système d'agrégation de logs horizontalement extensible, hautement disponible et multi-tenant.

1.27.2.1. Vecteur d'habilitation

Vector n'est pas activé par défaut. Suivez les étapes suivantes pour activer Vector sur votre cluster OpenShift Container Platform.

Important

Vector ne prend pas en charge les clusters compatibles FIPS.

Conditions préalables

  • OpenShift Container Platform : 4.12
  • Sous-système de journalisation pour Red Hat OpenShift : 5.4
  • FIPS désactivé

Procédure

  1. Modifiez la ressource personnalisée (CR) ClusterLogging dans le projet openshift-logging:

    $ oc -n openshift-logging edit ClusterLogging instance
  2. Ajouter une annotation logging.openshift.io/preview-vector-collector: enabled à la ressource personnalisée (CR) ClusterLogging.
  3. Ajouter vector comme type de collection à la ressource personnalisée (CR) ClusterLogging.
  apiVersion: "logging.openshift.io/v1"
  kind: "ClusterLogging"
  metadata:
    name: "instance"
    namespace: "openshift-logging"
    annotations:
      logging.openshift.io/preview-vector-collector: enabled
  spec:
    collection:
      logs:
        type: "vector"
        vector: {}

Ressources complémentaires

Important

Loki Operator est une fonctionnalité d'aperçu technologique uniquement. Les fonctionnalités de l'aperçu technologique ne sont pas prises en charge par les accords de niveau de service (SLA) de production de Red Hat et peuvent ne pas être complètes sur le plan fonctionnel. Red Hat ne recommande pas de les utiliser en production. Ces fonctionnalités offrent un accès anticipé aux fonctionnalités des produits à venir, permettant aux clients de tester les fonctionnalités et de fournir un retour d'information au cours du processus de développement.

Pour plus d'informations sur la portée de l'assistance des fonctionnalités de l'aperçu technologique de Red Hat, voir Portée de l'assistance des fonctionnalités de l'aperçu technologique.

1.27.3. À propos de Loki

Loki est un système d'agrégation de journaux horizontalement extensible, hautement disponible et multi-tenant, actuellement proposé comme alternative à Elasticsearch en tant que magasin de journaux pour le sous-système de journalisation.

Ressources complémentaires

1.27.3.1. Déploiement du Lokistack

Vous pouvez utiliser la console web d'OpenShift Container Platform pour installer l'opérateur Loki.

Conditions préalables

  • OpenShift Container Platform : 4.12
  • Sous-système de journalisation pour Red Hat OpenShift : 5.4

Pour installer l'opérateur Loki à l'aide de la console web d'OpenShift Container Platform :

  1. Installer l'opérateur Loki :

    1. Dans la console web d'OpenShift Container Platform, cliquez sur Operators OperatorHub.
    2. Choisissez Loki Operator dans la liste des opérateurs disponibles et cliquez sur Install.
    3. Sous Installation Mode, sélectionnez All namespaces on the cluster.
    4. Sous Installed Namespace, sélectionnez openshift-operators-redhat.

      Vous devez spécifier l'espace de noms openshift-operators-redhat. L'espace de noms openshift-operators peut contenir des Community Operators, qui ne sont pas fiables et qui pourraient publier une métrique avec le même nom qu'une métrique OpenShift Container Platform, ce qui causerait des conflits.

    5. Sélectionnez Enable operator recommended cluster monitoring on this namespace.

      Cette option définit l'étiquette openshift.io/cluster-monitoring: "true" dans l'objet Namespace. Vous devez sélectionner cette option pour vous assurer que la surveillance des clusters récupère l'espace de noms openshift-operators-redhat.

    6. Sélectionnez un site Approval Strategy.

      • La stratégie Automatic permet à Operator Lifecycle Manager (OLM) de mettre automatiquement à jour l'opérateur lorsqu'une nouvelle version est disponible.
      • La stratégie Manual exige qu'un utilisateur disposant des informations d'identification appropriées approuve la mise à jour de l'opérateur.
    7. Cliquez sur Install.
    8. Vérifiez que vous avez installé Loki Operator. Visitez la page Operators Installed Operators et cherchez \N "Loki Operator.\N"
    9. Assurez-vous que Loki Operator est listé dans tous les projets dont Status est Succeeded.

1.27.4. Bug fixes

  • Avant cette mise à jour, le site cluster-logging-operator utilisait des rôles et des liaisons à l'échelle du cluster pour établir des autorisations permettant au compte de service Prometheus d'analyser les mesures. Ces autorisations étaient créées lors du déploiement de l'opérateur à l'aide de l'interface de la console, mais n'existaient pas lors du déploiement à partir de la ligne de commande. Cette mise à jour corrige le problème en faisant en sorte que les rôles et les liaisons soient définis par l'espace de noms.(LOG-2286)
  • Avant cette mise à jour, une modification antérieure visant à corriger la réconciliation du tableau de bord a introduit un champ ownerReferences dans la ressource à travers les espaces de noms. En conséquence, la carte de configuration et le tableau de bord n'ont pas été créés dans l'espace de noms. Avec cette mise à jour, la suppression du champ ownerReferences résout le problème et le tableau de bord OpenShift Logging est disponible dans la console.(LOG-2163)
  • Avant cette mise à jour, les modifications apportées aux tableaux de bord de mesure n'étaient pas déployées car cluster-logging-operator ne comparait pas correctement les cartes de configuration existantes et modifiées contenant le tableau de bord. Avec cette mise à jour, l'ajout d'une valeur de hachage unique aux étiquettes d'objets résout le problème.(LOG-2071)
  • Avant cette mise à jour, le tableau de bord OpenShift Logging n'affichait pas correctement les pods et namespaces dans le tableau qui affiche les conteneurs les plus productifs collectés au cours des dernières 24 heures. Avec cette mise à jour, les pods et namespaces sont affichés correctement.(LOG-2069)
  • Avant cette mise à jour, lorsque le site ClusterLogForwarder était configuré avec Elasticsearch OutputDefault et que les sorties Elasticsearch n'avaient pas de clés structurées, la configuration générée contenait des valeurs incorrectes pour l'authentification. Cette mise à jour corrige le secret et les certificats utilisés.(LOG-2056)
  • Avant cette mise à jour, le tableau de bord OpenShift Logging affichait un graphique CPU vide en raison d'une référence à une métrique invalide. Avec cette mise à jour, le point de données correct a été sélectionné, ce qui résout le problème.(LOG-2026)
  • Avant cette mise à jour, l'image du conteneur Fluentd incluait des outils de construction qui n'étaient pas nécessaires à l'exécution. Cette mise à jour supprime ces outils de l'image.(LOG-1927)
  • Avant cette mise à jour, un changement de nom du collecteur déployé dans la version 5.3 entraînait la génération de l'alerte FluentdNodeDown par le collecteur de journalisation. Cette mise à jour résout le problème en corrigeant le nom du travail pour l'alerte Prometheus.(LOG-1918)
  • Avant cette mise à jour, le collecteur de logs collectait ses propres logs en raison d'une refonte du changement de nom du composant. Cela conduisait à une boucle de rétroaction potentielle du collecteur traitant ses propres journaux, ce qui pouvait entraîner des problèmes de mémoire et de taille des messages de journaux. Cette mise à jour résout le problème en excluant les journaux du collecteur de la collecte.(LOG-1774)
  • Avant cette mise à jour, Elasticsearch générait l'erreur Unable to create PersistentVolumeClaim due to forbidden: exceeded quota: infra-storage-quota. si le PVC existait déjà. Avec cette mise à jour, Elasticsearch vérifie les PVC existants, ce qui résout le problème.(LOG-2131)
  • Avant cette mise à jour, Elasticsearch ne pouvait pas revenir à l'état prêt lorsque le secret elasticsearch-signing était supprimé. Avec cette mise à jour, Elasticsearch est en mesure de revenir à l'état prêt après la suppression de ce secret.(LOG-2171)
  • Avant cette mise à jour, la modification du chemin à partir duquel le collecteur lit les journaux de conteneurs entraînait la transmission de certains enregistrements aux mauvais index. Avec cette mise à jour, le collecteur utilise maintenant la configuration correcte pour résoudre le problème.(LOG-2160)
  • Avant cette mise à jour, les clusters comportant un grand nombre d'espaces de noms empêchaient Elasticsearch de servir les requêtes car la liste des espaces de noms atteignait la limite de taille maximale de l'en-tête. Avec cette mise à jour, les en-têtes n'incluent qu'une liste de noms d'espaces de noms, ce qui résout le problème.(LOG-1899)
  • Avant cette mise à jour, le tableau de bord OpenShift Container Platform Logging affichait un nombre de shards 'x' fois supérieur à la valeur réelle lorsque Elasticsearch avait 'x' nœuds. Ce problème était dû au fait que le tableau de bord imprimait tous les shards primaires pour chaque pod Elasticsearch et calculait une somme, alors que la sortie était toujours pour l'ensemble du cluster Elasticsearch. Avec cette mise à jour, le nombre de shards est maintenant correctement calculé.(LOG-2156)
  • Avant cette mise à jour, les secrets kibana et kibana-proxy n'étaient pas recréés s'ils étaient supprimés manuellement. Avec cette mise à jour, elasticsearch-operator surveillera les ressources et les recréera automatiquement si elles sont supprimées.(LOG-2250)
  • Avant cette mise à jour, le réglage de la taille du bloc de la mémoire tampon pouvait entraîner la génération d'un avertissement par le collecteur concernant la taille du bloc dépassant la limite d'octets pour le flux d'événements. Avec cette mise à jour, vous pouvez également régler la limite de ligne de lecture, ce qui résout le problème.(LOG-2379)
  • Avant cette mise à jour, le lien de la console de journalisation dans la console web d'OpenShift n'était pas supprimé avec le CR ClusterLogging. Avec cette mise à jour, la suppression de la CR ou la désinstallation de Cluster Logging Operator supprime le lien.(LOG-2373)
  • Avant cette mise à jour, une modification du chemin d'accès aux journaux des conteneurs faisait que la métrique de collecte était toujours égale à zéro avec les anciennes versions configurées avec le chemin d'accès d'origine. Avec cette mise à jour, le plugin qui expose les métriques sur les journaux collectés prend en charge la lecture à partir de l'un ou l'autre chemin pour résoudre le problème.(LOG-2462)

1.27.5. CVE

Red Hat logoGithubRedditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez leBlog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

© 2024 Red Hat, Inc.