第 6 章 已解决的问题
以下显著问题在 Red Hat OpenShift AI 2.25 中解决。Red Hat OpenShift AI 2.25 的安全更新、程序错误修正和增强将会以异步勘误的形式发布。所有 OpenShift AI 勘误公告都发布 在红帽客户门户上。
6.1. 在 Red Hat OpenShift AI 2.25 中解决的问题 复制链接链接已复制到粘贴板!
RHOAIENG-941 8- Elyra 当您使用大写的参数时引发错误
在以前的版本中,当您试图运行使用大写参数的管道时,Elyra 引发错误。这个问题现已解决。
RHOAIENG-30493 - 在启用了 Kueue 的项目中创建工作台时出错
在以前的版本中,当使用仪表板在启用了 Kue-enabled 的项目中创建工作台时,如果集群中禁用了 Kueue,或者所选硬件配置集没有与 LocalQueue 关联,则创建会失败。在这种情况下,无法引用所需的 LocalQueue,准入 Webhook 验证会失败,并显示错误消息。这个问题已解决。
RHOAIENG-32942 - 当管道存储是 Kubernetes 时,Elyra 需要 REST API 上的不支持的过滤器
在此次更新之前,当管道存储配置为使用 Kubernetes 时,Elyra 需要相同的功能(eq)过滤器,这些过滤器不受 REST API 支持的。此模式中只支持子字符串过滤器。因此,通过 Elyra 从工作台创建并提交的管道可能无法成功运行。这个问题已解决。
RHOAIENG-32897 - Pipelines 使用 Kubernetes API 定义,无效的 platformSpec 不会出现在 UI 或运行时
在此次更新之前,当使用 Kubernetes API 定义的管道版本包括空或无效的 spec.platformSpec 字段(例如 {} 或缺少 kubernetes 键),系统会错误地识别字段作为管道规格。因此,REST API 省略了 pipelineSpec,这会阻止管道版本显示在 UI 中并运行。这个问题现已解决。
RHOAIENG-31386 - 使用 authenticationRef部署 Inference Service 时出错
在此次更新之前,当在外部指标下部署带有 authenticationRef 的 InferenceService 时,authenticationRef 字段已被删除。这个问题现已解决。
RHOAIENG-33914 - LM-Eval Tier2 任务测试失败
在以前的版本中,LM-Eval Tier2 任务测试可能会失败,因为 Masive Multitask Language Understanding Symbol Replacement (MMLUSR)任务无法正常工作。这个问题已解决,witih 是 trustyai-service-operator 的最新版本。
RHOAIENG-35532 - 无法使用 HardwareProfiles 和 GPU 部署模型
在此次更新之前,在模型部署中使用 GPU 的 HardwareProfile 已停止工作。这个问题现已解决。
RHOAIENG-4570 - 现有 Argo 工作流与安装或升级冲突
在以前的版本中,在已包含现有 Argo 工作流实例的集群上安装或升级 OpenShift AI 可能会导致与 Data Science Pipelines 部署的嵌入式 Argo 组件冲突。这个问题已解决。现在,您可以将 OpenShift AI 配置为使用现有的 Argo Workflows 实例,使已在运行 Argo 工作流的集群能够在不冲突的情况下与 Data Science Pipelines 集成。
使用硬件配置集时,RHOAIENG-35623 - Model 部署会失败
在以前的版本中,使用硬件配置集的模型部署会失败,因为 Red Hat OpenShift AI Operator 在手动创建 InferenceService 资源时,不会将来自硬件配置集 的容限、nodeSelector 或 标识符 注入到底层 中。因此,模型部署 pod 无法调度到适当的节点,部署无法进入就绪状态。这个问题现已解决。
InferenceService