1.12. Notes de version pour Red Hat OpenShift Serverless 1.20.0


OpenShift Serverless 1.20.0 est maintenant disponible. Les nouvelles fonctionnalités, les changements et les problèmes connus qui concernent OpenShift Serverless sur OpenShift Container Platform sont inclus dans cette rubrique.

1.12.1. Nouvelles fonctionnalités

  • OpenShift Serverless utilise désormais Knative Serving 0.26.
  • OpenShift Serverless utilise désormais Knative Eventing 0.26.
  • OpenShift Serverless utilise désormais Kourier 0.26.
  • OpenShift Serverless utilise désormais Knative (kn) CLI 0.26.
  • OpenShift Serverless utilise désormais Knative Kafka 0.26.
  • Le plugin CLI kn func utilise désormais func 0.20.
  • Le courtier Kafka est désormais disponible en tant qu'aperçu technologique.

    Important

    Le courtier Kafka, qui est actuellement en avant-première technologique, n'est pas pris en charge par FIPS.

  • Le plugin kn event est désormais disponible en tant qu'aperçu technologique.
  • Les drapeaux --min-scale et --max-scale de la commande kn service create sont obsolètes. Utilisez plutôt les drapeaux --scale-min et --scale-max.

1.12.2. Problèmes connus

  • OpenShift Serverless déploie les services Knative avec une adresse par défaut qui utilise HTTPS. Lors de l'envoi d'un événement à une ressource à l'intérieur du cluster, l'expéditeur n'a pas l'autorité de certification (CA) du cluster configurée. Cela entraîne l'échec de la livraison de l'événement, à moins que le cluster n'utilise des certificats globalement acceptés.

    Par exemple, la livraison d'un événement à une adresse accessible au public fonctionne :

    $ kn event send --to-url https://ce-api.foo.example.com/

    En revanche, cette livraison échoue si le service utilise une adresse publique avec un certificat HTTPS délivré par une autorité de certification personnalisée :

    $ kn event send --to Service:serving.knative.dev/v1:event-display

    L'envoi d'un événement à d'autres objets adressables, tels que les courtiers ou les canaux, n'est pas concerné par ce problème et fonctionne comme prévu.

  • Le courtier Kafka ne fonctionne pas actuellement sur un cluster avec le mode Federal Information Processing Standards (FIPS) activé.
  • Si vous créez un répertoire de projet de fonction Springboot avec la commande kn func create, l'exécution ultérieure de la commande kn func build échoue avec ce message d'erreur :

    [analyzer] no stack metadata found at path ''
    [analyzer] ERROR: failed to : set API for buildpack 'paketo-buildpacks/ca-certificates@3.0.2': buildpack API version '0.7' is incompatible with the lifecycle

    Pour contourner le problème, vous pouvez remplacer la propriété builder par gcr.io/paketo-buildpacks/builder:base dans le fichier de configuration de la fonction func.yaml.

  • Le déploiement d'une fonction à l'aide du registre gcr.io échoue avec ce message d'erreur :

    Error: failed to get credentials: failed to verify credentials: status code: 404

    Pour contourner le problème, utilisez un registre différent de celui de gcr.io, tel que quay.io ou docker.io.

  • Les fonctions TypeScript créées avec le modèle http ne se déploient pas sur le cluster.

    Pour contourner le problème, remplacez la section suivante dans le fichier func.yaml:

    buildEnvs: []

    avec ceci :

    buildEnvs:
    - name: BP_NODE_RUN_SCRIPTS
      value: build
  • Dans func version 0.20, certains runtimes peuvent être incapables de construire une fonction en utilisant podman. Vous pouvez voir un message d'erreur similaire au suivant :

    ERROR: failed to image: error during connect: Get "http://%2Fvar%2Frun%2Fdocker.sock/v1.40/info": EOF
    • La solution suivante permet de résoudre ce problème :

      1. Mettez à jour le service podman en ajoutant --time=0 à la définition du service ExecStart:

        Exemple de configuration de service

        ExecStart=/usr/bin/podman $LOGGING system service --time=0

      2. Redémarrez le service podman en exécutant les commandes suivantes :

        $ systemctl --user daemon-reload
        $ systemctl restart --user podman.socket
    • Vous pouvez également exposer l'API podman en utilisant TCP :

      $ podman system service --time=0 tcp:127.0.0.1:5534 &
      export DOCKER_HOST=tcp://127.0.0.1:5534
Red Hat logoGithubRedditYoutubeTwitter

Apprendre

Essayez, achetez et vendez

Communautés

À propos de la documentation Red Hat

Nous aidons les utilisateurs de Red Hat à innover et à atteindre leurs objectifs grâce à nos produits et services avec un contenu auquel ils peuvent faire confiance.

Rendre l’open source plus inclusif

Red Hat s'engage à remplacer le langage problématique dans notre code, notre documentation et nos propriétés Web. Pour plus de détails, consultez leBlog Red Hat.

À propos de Red Hat

Nous proposons des solutions renforcées qui facilitent le travail des entreprises sur plusieurs plates-formes et environnements, du centre de données central à la périphérie du réseau.

© 2024 Red Hat, Inc.