第 6 章 已解决的问题


以下显著问题在 Red Hat OpenShift AI 2.22 中解决了。Red Hat OpenShift AI 2.22 的安全更新、程序错误修正和增强将会以异步勘误的形式发布。所有 OpenShift AI 勘误公告都发布 在红帽客户门户上

6.1. 在 Red Hat OpenShift AI 2.22 中解决的问题

RHOAIENG-2653 7- 在安装 OpenShift AI 2.21 后无法访问仪表板

在新集群中安装 OpenShift AI 2.21 并创建了 DataScienceCluster 后,您无法访问仪表板,因为在没有默认组配置的情况下创建 Auth 自定义资源。这个问题现已解决。

RHOAIENG-26464 64- InstructLab training phase1 pod 在使用默认值时重启,因为 RHOAI 2.21 中的内存不足

当您使用 training _memory_per_worker 输入参数的默认值(100 GiB)运行 InstructLab 管道时,由于 pod 内存不足,phase1 培训任务会失败。这个问题现已解决。

在更改工作台或模型部署的硬件配置集时,RHOAIENG- 26263- 节点选择器不会清除

如果您编辑了现有的工作台或模型部署,将硬件配置集从包含节点选择器的节点配置集更改为没有一样的,则无法删除之前的节点放置设置。在这个版本中,这个问题已解决。

RHOAIENG-26099 - 环境变量 HTTP_PROXY 和 HTTPS_PROXY 添加到笔记本

在以前的版本中,笔记本控制器将集群范围的 OpenShift Proxy 配置注入所有新创建和重启的工作台。在这个版本中,除非集群管理员通过 ConfigMap 启用代理配置,否则不会注入代理配置。

要启用代理配置,请运行以下命令:

$ oc create configmap notebook-controller-setting-config --from-literal=INJECT_CLUSTER_PROXY_ENV=true -n redhat-ods-applications
Copy to Clipboard Toggle word wrap
重要

只有重新创建 odh-notebook-controller pod 后,对配置映射 INJECT_CLUSTER_PROXY_ENV 键的任何更改才会传播。要更新行为,您需要删除相关的 pod 或执行部署推出部署。

要删除 pod,请运行以下命令:

$ oc delete pod -l app=odh-notebook-controller -A
Copy to Clipboard Toggle word wrap

要执行部署推出部署,请运行以下命令:

$ oc rollout restart -n redhat-ods-applications deployment/odh-notebook-controller-manager
Copy to Clipboard Toggle word wrap

在断开连接的环境中的 IBM Power RHOAIENG-23475 - Inference 请求会失败,并显示超时错误

在以前的版本中,当您使用 IBM Power 架构向 inference 服务发送超过 100 个输入令牌时,没有来自 inference 服务的响应。在这个版本中,这个问题已解决。

在定义 http_proxy 环境变量时,RHOAIENG-20595 - Pipelines 任务无法运行

如果您试图在管道任务中设置 http_proxyhttps_proxy 环境变量,管道任务将无法运行。在这个版本中,这个问题已解决。

RHOAIENG-16568 - Unable to download notebook as a PDF from JupyterLab Workbenches

在以前的版本中,您无法在 Jupyter 中下载笔记本作为 PDF 文件。在这个版本中,这个问题已解决。

当在带有 Jupyter 笔记本的 Ray 集群中使用不同的 Python 版本时,会出现 RHOAIENG-14271 - 兼容性错误

在以前的版本中,当在 Jupyter 笔记本中使用 Python 版本 3.11 时,然后创建了 Ray 集群,集群默认为包含 Ray 版本 2.35 和 Python 版本 3.9 的工作台镜像,这会导致兼容性错误。在这个版本中,这个问题已解决。

在 KServe 中的查询过程中,RHOAIENG- 7947- Model serving 会失败

在以前的版本中,如果您最初安装 ModelMesh 组件并启用多模式服务平台,但稍后安装了 KServe 组件并启用单model服务平台,则对在单模式服务平台上部署的模型的请求可能会失败。这个问题不再发生。

RHOAIENG-580 (以前称为 RHODS-9412)- 如果具有编辑权限的用户创建了工作台,Elyra pipeline 将无法运行

如果您被授予项目的编辑权限并创建了项目工作台,您会看到以下行为:

  • 在工作台创建过程中,您会收到与创建 Kubernetes 角色绑定相关的 Error Create workbench 消息。
  • 尽管前面的错误消息,OpenShift AI 仍然创建工作台。但是,错误消息意味着您无法使用工作台来运行 Elyra 数据科学管道。
  • 如果您尝试使用工作台运行 Elyra 管道,Jupyter 会显示一个 Error making request 信息,它描述了失败的初始化。

    在这个版本中,这些问题已解决。

RHOAIENG-2468 2- [vLLM-Cuda] Unable to deploy model on enabled FIPS

在以前的版本中,如果您在启用了 FIPS 的集群上使用 vLLM NVIDIA GPU ServingRuntime for KServevLLM ServingRuntime Multi-Node for KServe 运行时部署了模型,则部署可能会失败。这个问题现已解决。

RHOAIENG-23596 - IBM Power 上的 Inference 请求,在较长的提示中提示对 inference 服务失败,并显示超时错误

在以前的版本中,当使用 IBM Power 架构向 inference 服务发送超过 100 个输入令牌时,没有来自 inference 服务的响应。这个问题不再发生。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat