第6章 解決された問題
Red Hat OpenShift AI 2.25 では、次の重要な問題が解決されました。Red Hat OpenShift AI 2.25 のセキュリティー更新、バグ修正、機能拡張は、非同期エラータとしてリリースされます。すべての OpenShift AI エラータアドバイザリーは Red Hat カスタマーポータル で公開されています。
6.1. Red Hat OpenShift AI 2.25 で解決された問題 リンクのコピーリンクがクリップボードにコピーされました!
RHOAIENG-9418 - 大文字のパラメーターを使用すると Elyra でエラーが発生する
以前は、大文字のパラメーターを使用したパイプラインを実行しようとすると、Elyra はエラーを発生していました。この問題は解決されています。
RHOAIENG-30493 - Kueue 対応プロジェクトでワークベンチを作成するときにエラーが発生する
以前は、ダッシュボードを使用して Kueue 対応プロジェクトでワークベンチを作成する場合、クラスターで Kueue が無効になっているか、選択したハードウェアプロファイルが LocalQueue に関連付けられていない場合は、作成に失敗していました。この場合、必要な LocalQueue を参照できず、アドミッション Webhook の検証に失敗し、エラーメッセージが表示されました。この問題は解決されています。
RHOAIENG-32942 - パイプラインストアが Kubernetes の場合、Elyra は REST API でサポートされていないフィルターを必要とする
この更新前は、パイプラインストアが Kubernetes を使用するように設定されていた場合、Elyra では REST API でサポートされていない等価 (eq) フィルターが必要でした。このモードでは、サブ文字列フィルターのみがサポートされていました。その結果、ワークベンチから Elyra を介して作成および送信されたパイプラインは正常に実行できませんでした。この問題は解決されています。
RHOAIENG-32897 - Kubernetes API で定義されたパイプラインと無効な platformSpec が UI に表示されないか実行されない
この更新前は、Kubernetes API で定義されたパイプラインバージョンに空または無効な spec.platformSpec フィールド (例: {} または kubernetes キーがない) が含まれている場合、システムはそのフィールドをパイプライン仕様として誤って識別していました。その結果、REST API は pipelineSpec を省略し、パイプラインのバージョンが UI に表示されず、実行もされなくなりました。この問題は解決されています。
RHOAIENG-31386 - authenticationRef を使用した推論サービスのデプロイ中にエラーが発生する
この更新前は、外部メトリクスで authenticationRef を使用して InferenceService をデプロイすると、authenticationRef フィールドが削除されていました。この問題は解決されています。
RHOAIENG-33914 - LM-Eval Tier2 タスクテストに失敗する
以前は、Massive Multitask Language Understanding Symbol Replacement (MMLUSR) タスクが壊れていたため、LM-Eval Tier2 タスクテストで失敗する可能性がありました。この問題は、trustyai-service-operator の最新バージョンで解決されています。
RHOAIENG-35532 - HardwareProfiles と GPU を使用してモデルをデプロイできない
この更新前は、モデルのデプロイメントに GPU を使用する HardwareProfile が機能しなくなっていました。この問題は解決されています。
RHOAIENG-4570 - 既存の Argo Workflows インストールがインストールまたはアップグレードと競合する
以前は、既存の Argo Workflows インスタンスがすでに含まれているクラスターに OpenShift AI をインストールまたはアップグレードすると、Data Science Pipelines によってデプロイされた組み込み Argo コンポーネントとの競合が発生する可能性がありました。この問題は解決されています。既存の Argo Workflows インスタンスを使用するように OpenShift AI を設定できるようになり、すでに Argo Workflows を実行しているクラスターを競合することなく Data Science Pipelines と統合できるようになりました。
RHOAIENG-35623 - ハードウェアプロファイルを使用するとモデルのデプロイメントが失敗する
以前は、InferenceService リソースを手動で作成するときに、Red Hat OpenShift AI Operator がハードウェアプロファイルから tolerations、nodeSelector、または identifiers を基礎となる InferenceService に注入しなかったため、ハードウェアプロファイルを使用したモデルのデプロイメントは失敗していました。その結果、モデルデプロイメント Pod を適切なノードにスケジュールすることができず、デプロイメントが準備完了状態になりません。この問題は解決されています。