Red Hat OpenShift AI Cloud Service 简介
OpenShift AI 是人工智能和机器学习(AI/ML)应用程序的数据科学家和开发人员的平台
摘要
第 1 章 OpenShift AI 概述 复制链接链接已复制到粘贴板!
Red Hat OpenShift AI 是人工智能和机器学习(AI/ML)应用程序的数据科学家和开发人员的平台。
OpenShift AI 提供了一个环境,以便在内部或云中开发、培训、服务、测试和监控 AI/ML 模型和应用程序。
对于数据科学家,OpenShift AI 包括 Jupyter 和默认工作台镜像集合,使用模型开发所需的工具和库以及 TensorFlow 和 PyTorch 框架进行优化。部署并托管您的模型、将模型集成到外部应用程序中,并在任何混合云环境中导出模型以托管它们。您可以使用 Docker 容器构建带有数据科学项目的可移植机器学习(ML)工作流来增强 OpenShift AI 上的数据科学项目。您还可以使用图形处理单元(GPU)和 Intel Gaudi AI Accelerators 来加快数据科学试验。
对于管理员,OpenShift AI 在现有 Red Hat OpenShift 或 ROSA 环境中启用数据科学工作负载。使用您现有的 OpenShift 身份提供程序来管理用户,并管理可供工作台使用的资源,以确保数据科学家具有创建、培训和主机模型所需的内容。使用加速器降低成本并允许数据科学家使用图形处理单元(GPU)和 Intel Gaudi AI 加速器提高其端到端数据科学工作流的性能。
OpenShift AI 有两个部署选项:
您可以在内部或云中安装 自我管理的软件。您可以在自我管理的环境中(如 OpenShift Container Platform)或 Red Hat OpenShift Dedicated (具有 AWS 或 GCP 客户云订阅)、Red Hat OpenShift Service on Amazon Web Services (ROSA 类或 ROSA HCP)或 Microsoft Azure Red Hat OpenShift OpenShift 安装 OpenShift AI Self-Managed。
有关在连接的或断开连接的环境中的 OpenShift 集群上作为自我管理的软件的信息,请参阅 Red Hat OpenShift AI Self-Managed 产品文档。
- 受管云服务,作为 Red Hat OpenShift Dedicated 中的附加组件安装(具有 AWS 或 GCP 的客户云订阅)或 Red Hat OpenShift Service on Amazon Web Services (ROSA classic)。
有关 OpenShift AI 支持的软件平台、组件和依赖项的详情,请查看 Red Hat OpenShift AI: 支持的配置 知识库文章。
有关发行生命周期的详细视图,包括完全支持阶段窗口,请参阅 Red Hat OpenShift AI Cloud Service 生命周期 知识库文章。
第 2 章 产品特性 复制链接链接已复制到粘贴板!
Red Hat OpenShift AI 为数据科学家和 OpenShift 集群管理员提供了一些功能。
2.1. 数据科学家的功能 复制链接链接已复制到粘贴板!
- 容器
- 虽然 JupyterLab 等工具已经为数据科学家在其机器上开发模型提供了直观的方法,但存在与协作和共享工作相关的固有复杂性。此外,当您需要自行购买和维护时,使用专用的硬件(如强大的 GPU)可能会非常昂贵。OpenShift AI 中包含的 Jupyter 环境可让您在需要它的任何地方使用开发环境。由于所有工作负载都作为容器运行,协作也会像与团队成员共享镜像一样容易,甚至将其添加到他们可以使用的默认容器列表中。因此,GPU 和大量内存更易于访问,因为您不再受笔记本电脑支持的限制。
- 与第三方机器学习工具集成
- 我们在我们最喜欢的工具或服务之间无法很好地运行。OpenShift AI 在设计时具有灵活性。您可以在 OpenShift AI 中使用广泛的开源和第三方工具。这些工具支持完整的机器学习生命周期,从数据工程和功能提取到模型部署和管理。
- Jupyter 笔记本与 Git 的协作
- 使用 Jupyter 的 Git 界面与他人协作,并跟踪对您的代码的更改。
- 安全构建的工作台镜像
- 从一组默认的工作台镜像中进行选择,该镜像使用模型开发所需的工具和库预先配置。软件堆栈,特别是机器学习中涉及的软件堆栈,往往是复杂的系统。Python 生态系统中有许多模块和库可以使用,因此确定要使用哪个库的版本可能非常困难。OpenShift AI 包含许多打包的工作台镜像,它们通过数据科学家和推荐引擎的见解而构建。您可以在右面上快速启动新项目,而无需担心从随机上游存储库下载未验证且可能不安全的镜像。
- 自定义工作台镜像
- 除了由红帽和独立软件供应商(ISV)提供和支持的工作台镜像外,您还可以配置针对项目特定要求的自定义工作台镜像。
- 数据科学项目(data Science)管道
- OpenShift AI 和数据科学管道 2.0 提供了运行数据科学工作负载的有效方法。您可以标准化和自动化机器学习工作流,以便您开发和部署数据科学模型。
- 模型服务
- 作为数据科学家,您现在可以部署经过培训的计算机学习模型,为生产环境中的智能应用程序提供服务。模型的功能作为服务端点提供,可用于测试或集成到应用程序中。您对此服务的执行方式有更多控制。
- 使用加速器优化数据科学模型
- 如果使用大型数据集,您可以使用 NVIDIA 图形处理单元(GPU)或 Intel Gaudi AI 加速器优化 OpenShift AI 中数据科学模型的性能。加速器使您能够扩展工作、缩短延迟并提高生产力。
2.2. OpenShift 集群管理员的功能 复制链接链接已复制到粘贴板!
- 使用身份提供程序管理用户
- OpenShift AI 使用与 OpenShift 集群相同的身份验证系统。默认情况下,OpenShift AI 可以被身份提供程序中列出的所有用户访问,这些用户不需要单独的凭据集来访问 OpenShift AI。另外,您可以通过创建指定用户子集的 OpenShift 组来限制有权访问的用户集合。您还可以创建一个 OpenShift 组,用于标识具有 OpenShift AI 管理员访问权限的用户列表。
- 使用 OpenShift 管理资源
- 使用您现有的 OpenShift 知识来为您的 OpenShift AI 用户配置和管理资源。
- 控制红帽使用数据收集
- 选择是否允许红帽收集有关集群中 OpenShift AI 使用的数据。在 OpenShift 集群上安装 OpenShift AI 时,默认启用数据收集。
- 将自动扩展应用到集群以降低使用量成本
- 使用集群自动扩展来调整集群的大小,以满足其当前需求并优化成本。
- 通过停止闲置工作台来管理资源使用情况
- 通过自动停止闲置一段时间的工作台来减少 OpenShift AI 部署中的资源使用量。
- 实施 model-serving 运行时
- OpenShift AI 支持模型服务运行时。模型运行时提供与指定模型服务器和它支持的模型框架集成。默认情况下,OpenShift AI 包含 OpenVINO Model Server 运行时。但是,如果此运行时不满足您的需要(例如,如果不支持特定的模型框架),您可以添加自己的自定义运行时。
- 在断开连接的环境中安装
- OpenShift AI 自我管理支持在断开连接的环境中安装。断开连接的集群位于受限网络中,通常在防火墙后面,无法访问互联网。在这种情况下,集群无法访问红帽提供的 OperatorHub 源所在的远程 registry。在这种情况下,您可以使用您在其中镜像(copied)相关镜像的私有 registry 将 OpenShift AI Operator 部署到断开连接的环境中。
- 管理加速器
- 在 OpenShift AI 中启用 NVIDIA 图形处理单元(GPU)或 Intel Gaudi AI 加速器,并允许数据科学家使用计算密集型工作负载。
第 3 章 试用 复制链接链接已复制到粘贴板!
数据科学家和开发人员可在 Red Hat Developer Sandbox 环境中尝试 OpenShift AI 和访问教程和活动。
OpenShift 集群管理员可以通过 60 天产品试用试用 您自己的集群中的 OpenShift AI。
第 4 章 获取它 复制链接链接已复制到粘贴板!
- 受管云服务
您有以下选项用于订阅 OpenShift AI 作为受管服务:
- 对于 OpenShift Dedicated,请订阅红帽。
- 对于 Red Hat OpenShift Service on Amazon Web Services (ROSA),通过红帽订阅或通过 AWS Marketplace 订阅。
- 自我管理的软件
- 要让 Red Hat OpenShift AI 作为自我管理的软件,请与您的红帽客户团队一起注册。