第 6 章 已解决的问题
以下显著问题在 Red Hat OpenShift AI 2.22 中解决了。Red Hat OpenShift AI 2.22 的安全更新、程序错误修正和增强将会以异步勘误的形式发布。所有 OpenShift AI 勘误公告都发布 在红帽客户门户上。
6.1. 在 Red Hat OpenShift AI 2.22 中解决的问题 复制链接链接已复制到粘贴板!
RHOAIENG-2653 7- 在安装 OpenShift AI 2.21 后无法访问仪表板
在新集群中安装 OpenShift AI 2.21 并创建了 DataScienceCluster
后,您无法访问仪表板,因为在没有默认组配置的情况下创建 Auth
自定义资源。这个问题现已解决。
RHOAIENG-26464 64- InstructLab training phase1 pod 在使用默认值时重启,因为 RHOAI 2.21 中的内存不足
当您使用 training _memory_per_worker
输入参数的默认值(100 GiB)运行 InstructLab 管道时,由于 pod 内存不足,phase1 培训任务会失败。这个问题现已解决。
在更改工作台或模型部署的硬件配置集时,RHOAIENG- 26263- 节点选择器不会清除
如果您编辑了现有的工作台或模型部署,将硬件配置集从包含节点选择器的节点配置集更改为没有一样的,则无法删除之前的节点放置设置。在这个版本中,这个问题已解决。
RHOAIENG-26099 - 环境变量 HTTP_PROXY 和 HTTPS_PROXY 添加到笔记本
在以前的版本中,笔记本控制器将集群范围的 OpenShift Proxy 配置注入所有新创建和重启的工作台。在这个版本中,除非集群管理员通过 ConfigMap 启用代理配置,否则不会注入代理配置。
要启用代理配置,请运行以下命令:
oc create configmap notebook-controller-setting-config --from-literal=INJECT_CLUSTER_PROXY_ENV=true -n redhat-ods-applications
$ oc create configmap notebook-controller-setting-config --from-literal=INJECT_CLUSTER_PROXY_ENV=true -n redhat-ods-applications
只有重新创建 odh-notebook-controller
pod 后,对配置映射 INJECT_CLUSTER_PROXY_ENV
键的任何更改才会传播。要更新行为,您需要删除相关的 pod 或执行部署推出部署。
要删除 pod,请运行以下命令:
oc delete pod -l app=odh-notebook-controller -A
$ oc delete pod -l app=odh-notebook-controller -A
要执行部署推出部署,请运行以下命令:
oc rollout restart -n redhat-ods-applications deployment/odh-notebook-controller-manager
$ oc rollout restart -n redhat-ods-applications deployment/odh-notebook-controller-manager
在断开连接的环境中的 IBM Power RHOAIENG-23475 - Inference 请求会失败,并显示超时错误
在以前的版本中,当您使用 IBM Power 架构向 inference 服务发送超过 100 个输入令牌时,没有来自 inference 服务的响应。在这个版本中,这个问题已解决。
在定义 http_proxy
环境变量时,RHOAIENG-20595 - Pipelines 任务无法运行
如果您试图在管道任务中设置 http_proxy
或 https_proxy
环境变量,管道任务将无法运行。在这个版本中,这个问题已解决。
RHOAIENG-16568 - Unable to download notebook as a PDF from JupyterLab Workbenches
在以前的版本中,您无法在 Jupyter 中下载笔记本作为 PDF 文件。在这个版本中,这个问题已解决。
当在带有 Jupyter 笔记本的 Ray 集群中使用不同的 Python 版本时,会出现 RHOAIENG-14271 - 兼容性错误
在以前的版本中,当在 Jupyter 笔记本中使用 Python 版本 3.11 时,然后创建了 Ray 集群,集群默认为包含 Ray 版本 2.35 和 Python 版本 3.9 的工作台镜像,这会导致兼容性错误。在这个版本中,这个问题已解决。
在 KServe 中的查询过程中,RHOAIENG- 7947- Model serving 会失败
在以前的版本中,如果您最初安装 ModelMesh 组件并启用多模式服务平台,但稍后安装了 KServe 组件并启用单model服务平台,则对在单模式服务平台上部署的模型的请求可能会失败。这个问题不再发生。
RHOAIENG-580 (以前称为 RHODS-9412)- 如果具有编辑权限的用户创建了工作台,Elyra pipeline 将无法运行
如果您被授予项目的编辑权限并创建了项目工作台,您会看到以下行为:
-
在工作台创建过程中,您会收到与创建 Kubernetes 角色绑定相关的
Error Create workbench
消息。 - 尽管前面的错误消息,OpenShift AI 仍然创建工作台。但是,错误消息意味着您无法使用工作台来运行 Elyra 数据科学管道。
如果您尝试使用工作台运行 Elyra 管道,Jupyter 会显示一个
Error making request
信息,它描述了失败的初始化。在这个版本中,这些问题已解决。
RHOAIENG-2468 2- [vLLM-Cuda] Unable to deploy model on enabled FIPS
在以前的版本中,如果您在启用了 FIPS 的集群上使用 vLLM NVIDIA GPU ServingRuntime for KServe 或 vLLM ServingRuntime Multi-Node for KServe 运行时部署了模型,则部署可能会失败。这个问题现已解决。
RHOAIENG-23596 - IBM Power 上的 Inference 请求,在较长的提示中提示对 inference 服务失败,并显示超时错误
在以前的版本中,当使用 IBM Power 架构向 inference 服务发送超过 100 个输入令牌时,没有来自 inference 服务的响应。这个问题不再发生。