第 1 章 OpenShift AI Self-Managed 的架构
Red Hat OpenShift AI Self-Managed 是一个在自助管理环境中提供的 Operator,如 Red Hat OpenShift Container Platform 或 Red Hat OpenShift Container Platform,如 Red Hat OpenShift Dedicated (具有 AWS 或 GCP 的 Customer Cloud Subscription)、Red Hat OpenShift Service on Amazon Web Services (ROSA Classic 或 ROSA HCP)或 Microsoft Azure Red Hat OpenShift。
OpenShift AI 集成了以下组件和服务:
在服务层:
- OpenShift AI 仪表板
- 此面向客户的仪表板会显示 OpenShift AI 环境的可用和已安装的应用程序,以及学习资源,如教程、快速启动示例和文档等。管理用户可以访问管理用户、集群、笔记本镜像、硬件配置集和模型运行时的功能。数据科学家可以使用控制面板创建项目来整理其数据科学工作。
- 模型服务
- 数据科学家可以部署受培训的机器学习模型,为生产环境中的智能应用程序提供服务。部署后,应用程序可以使用其部署的 API 端点向模型发送请求。
- 数据科学项目(data Science)管道
- 数据科学家可以使用 Docker 容器构建带有数据科学管道 2.0 的可移植机器学习(ML)工作流。通过数据科学管道,数据科学家可以在开发其数据科学模型时自动化工作流。
- Jupyter (自助管理的)
- 一个自我管理的应用程序,允许数据科学家自行配置笔记本服务器环境并在 JupyterLab 中开发机器学习模型。
- 分布式工作负载
- 数据科学家可以并行使用多个节点来更迅速地培训机器学习模型或处理数据。这种方法可显著减少任务完成时间,并允许使用更大的数据集和更复杂的模型。
在管理层:
- Red Hat OpenShift AI Operator
- 一个 meta-operator,它部署和维护属于 OpenShift AI 的所有组件和子 Operator。
在 OpenShift 集群中安装 Red Hat OpenShift AI Operator 时,会创建以下新项目:
-
redhat-ods-operator项目包含 Red Hat OpenShift AI Operator。 -
redhat-ods-applications项目将安装仪表板和 OpenShift AI 的其他必要组件。 -
rhods-notebooks项目是默认部署笔记本环境的位置。
您或您的数据科学家必须为将使用机器学习模式的应用创建额外的项目。
不要在与 OpenShift AI 关联的命名空间中安装独立软件供应商 (ISV) 的应用程序。