5.3. 删除的功能
5.3.1. Microsoft SQL Server 命令行工具删除 复制链接链接已复制到粘贴板!
从 OpenShift AI 2.24 开始,Microsoft SQL Server 命令行工具(sqlcmd, bcp)已从工作台中删除。您无法再使用预安装的命令行客户端管理 Microsoft SQL Server。
5.3.2. 对 registry ML Metadata (MLMD)服务器删除模型 复制链接链接已复制到粘贴板!
从 OpenShift AI 2.23 开始,MLS 元数据(MLMD)服务器已从模型 registry 组件中删除。现在,模型 registry 使用现有的模型 registry API 和数据库架构直接与底层数据库交互。这个变化简化了总体架构,并通过从 ml-metadata
组件转换到模型 registry 本身中直接访问数据库来确保模型 registry 的长期可维护性和效率。
如果您为模型 registry 部署看到以下错误,这意味着您的数据库 schema 迁移失败:
error: error connecting to datastore: Dirty database version {version}. Fix and force version.
error: error connecting to datastore: Dirty database version {version}. Fix and force version.
您可以通过在流量路由到 pod 前手动将数据库从脏状态更改为 0 来解决此问题。执行以下步骤:
查找模型 registry 数据库 pod 的名称,如下所示:
kubectl get pods -n <your-namespace> | grep model-registry-db
将
<your-namespace
> 替换为部署模型 registry 的命名空间。使用
kubectl exec
在模型 registry 数据库 pod 上运行查询,如下所示:kubectl exec -n <your-namespace> <your-db-pod-name> -c mysql -- mysql -u root -p"$MYSQL_ROOT_PASSWORD" -e "USE <your-db-name>; UPDATE schema_migrations SET dirty = 0;"
将
<your-namespace
> 替换为您的模型 registry 命名空间,将 <your-db
-pod-name> 替换为您在上一步中找到的 pod 名称。将<your-db-name
> 替换为您的模型 registry 数据库名称。这将在数据库中重置脏状态,允许模型 registry 正确启动。
5.3.3. Anaconda 删除 复制链接链接已复制到粘贴板!
Anaconda 是 Python 和 R 编程语言的开源分发。从 OpenShift AI 版本 2.18 开始,Anaconda 不再包含在 OpenShift AI 中,Anaconda 资源不再受到 OpenShift AI 的支持或管理。
如果您之前从 OpenShift AI 安装 Anaconda,集群管理员必须从 OpenShift 命令行界面中完成以下步骤来删除与 Anaconda 相关的工件:
删除包含 Anaconda 密码的 secret:
oc delete secret -n redhat-ods-applications anaconda-ce-access
删除 Anaconda 验证 cronjob 的
ConfigMap
:oc delete configmap -n redhat-ods-applications anaconda-ce-validation-result
删除 Anaconda 镜像流:
oc delete imagestream -n redhat-ods-applications s2i-minimal-notebook-anaconda
删除验证镜像下载的 Anaconda 作业:
oc delete job -n redhat-ods-applications anaconda-ce-periodic-validator-job-custom-run
删除与 Anaconda cronjob 运行相关的 pod:
oc get pods n redhat-ods-applications --no-headers=true | awk '/anaconda-ce-periodic-validator-job-custom-run*/'
5.3.4. 数据科学项目 v1 支持已删除 复制链接链接已复制到粘贴板!
在以前的版本中,OpenShift AI 中的数据科学管道基于 KubeFlow Pipelines v1。数据科学管道现在基于 KubeFlow Pipelines v2,它使用不同的工作流引擎。在 OpenShift AI 中默认启用和部署数据科学管道 2.0。
Data Science pipelines 1.0 资源不再受到 OpenShift AI 的支持或管理。无法再从仪表板或 KFP API 服务器部署、查看或编辑基于数据科学管道 1.0 的管道详情。
OpenShift AI 不会自动将现有数据科学管道 1.0 实例迁移到 2.0。如果要在升级 OpenShift AI 后将现有管道和工作台与数据科学管道 2.0 搭配使用,您必须更新工作台以使用 2024.1 workbench 镜像版本,然后手动将管道从数据科学管道 1.0 迁移到 2.0。如需更多信息,请参阅 迁移到数据科学管道 2.0。
Data Science pipelines 2.0 包含 Argo 工作流的安装。红帽不支持直接客户使用这个 Argo 工作流实例。要安装或升级到带有数据科学管道 2.0 的 OpenShift AI,请确保在集群中没有 Argo 工作流安装。
5.3.5. 在 Elyra 管道中运行的 Python 脚本的管道日志不再存储在 S3 中 复制链接链接已复制到粘贴板!
对于在 Elyra 管道中运行的 Python 脚本,日志不再存储在 S3 兼容存储中。在 OpenShift AI 版本 2.11 中,您可以在 OpenShift AI 仪表板的管道日志查看这些日志。
要使此更改生效,您必须使用 2024.1 或更高版本的工作台镜像中提供的 Elyra 运行时镜像。
如果您有一个旧的工作台镜像版本,请将 Version 选择 字段更新为兼容工作台镜像版本,例如 2024.1,如 更新项目工作台 中所述。
更新工作台镜像版本会清除管道的任何现有运行时镜像选择。在更新了工作台版本后,打开工作台 IDE 并更新管道的属性以选择运行时镜像。
5.3.6. NVIDIA GPU Operator 替换 NVIDIA GPU 附加组件 复制链接链接已复制到粘贴板!
在以前的版本中,要启用图形处理单元(GPU)来帮助计算密集型工作负载,您要安装 NVIDIA GPU 附加组件。OpenShift AI 不再支持此附加组件。
现在,要启用 GPU 支持,您必须安装 NVIDIA GPU Operator。要了解如何安装 GPU Operator,请参阅 Red Hat OpenShift Container Platform (external)上的 NVIDIA GPU Operator。
5.3.7. Kubeflow Notebook Controller 替换 JupyterHub 复制链接链接已复制到粘贴板!
在 OpenShift AI 1.15 及更早版本中,JupyterHub 用于创建和启动基本工作台。在 OpenShift AI 1.16 及更高版本中,JupyterHub 不再包含,其功能由 Kubeflow Notebook Controller 替代。
这个更改有以下优点:
- 用户现在可以立即取消请求,进行更改并重试请求,而不是等待 5+ 分钟,以便初始请求超时。这意味着,当请求失败时,用户不会等待,例如当基本工作台无法正确启动时。
- 架构不再阻止单个用户有多个基本工作台会话,从而扩展了将来的功能可能。
- 删除 PostgreSQL 数据库要求允许在 OpenShift AI 中未来的扩展环境支持。
但是,此次更新还会创建以下行为更改:
- 对于集群管理员,基本工作台的管理界面目前不允许登录数据科学家用户工作台。计划在以后的版本中添加。
- 对于数据科学家,JupyterHub 接口 URL 不再有效。更新书签以指向 OpenShift AI 仪表板。
JupyterLab 接口保持不变,数据科学家可以继续使用 JupyterLab 与 Jupyter 笔记本文件一起工作。
5.3.8. HabanaAI workbench 镜像删除 复制链接链接已复制到粘贴板!
删除了对 HabanaAI 1.10 工作台镜像的支持。来自 2.14 版本的新 OpenShift AI 安装不包括 HabanaAI workbench 镜像。但是,如果您从以前的版本升级 OpenShift AI,则 HabanaAI workbench 镜像仍然可用,现有的 HabanaAI workbench 镜像将继续正常工作。