Red Hat OpenShift AI Cloud Service 简介


Red Hat OpenShift AI Cloud Service 1

OpenShift AI 是人工智能和机器学习(AI/ML)应用程序的数据科学家和开发人员的平台

摘要

Red Hat OpenShift AI 是人工智能和机器学习应用程序的数据科学家和开发人员的平台。

第 1 章 OpenShift AI 概述

Red Hat OpenShift AI 是人工智能和机器学习(AI/ML)应用程序的数据科学家和开发人员的平台。

OpenShift AI 提供了一个环境,以便在内部或云中开发、培训、服务、测试和监控 AI/ML 模型和应用程序。

对于数据科学家,OpenShift AI 包括 Jupyter 和默认工作台镜像集合,使用模型开发所需的工具和库以及 TensorFlow 和 PyTorch 框架进行优化。部署并托管您的模型、将模型集成到外部应用程序中,并在任何混合云环境中导出模型以托管它们。您可以使用 Docker 容器构建带有数据科学项目的可移植机器学习(ML)工作流来增强 OpenShift AI 上的数据科学项目。您还可以使用图形处理单元(GPU)和 Intel Gaudi AI Accelerators 来加快数据科学试验。

对于管理员,OpenShift AI 在现有 Red Hat OpenShift 或 ROSA 环境中启用数据科学工作负载。使用您现有的 OpenShift 身份提供程序来管理用户,并管理可供工作台使用的资源,以确保数据科学家具有创建、培训和主机模型所需的内容。使用加速器降低成本并允许数据科学家使用图形处理单元(GPU)和 Intel Gaudi AI 加速器提高其端到端数据科学工作流的性能。

OpenShift AI 有两个部署选项:

  • 您可以在内部或云中安装 自我管理的软件。您可以在自我管理的环境中(如 OpenShift Container Platform)或 Red Hat OpenShift Dedicated (具有 AWS 或 GCP 客户云订阅)、Red Hat OpenShift Service on Amazon Web Services (ROSA 类或 ROSA HCP)或 Microsoft Azure Red Hat OpenShift OpenShift 安装 OpenShift AI Self-Managed。

    有关在连接的或断开连接的环境中的 OpenShift 集群上作为自我管理的软件的信息,请参阅 Red Hat OpenShift AI Self-Managed 产品文档

  • 受管云服务,作为 Red Hat OpenShift Dedicated 中的附加组件安装(具有 AWS 或 GCP 的客户云订阅)或 Red Hat OpenShift Service on Amazon Web Services (ROSA classic)。

有关 OpenShift AI 支持的软件平台、组件和依赖项的详情,请查看 Red Hat OpenShift AI: 支持的配置 知识库文章。

有关发行生命周期的详细视图,包括完全支持阶段窗口,请参阅 Red Hat OpenShift AI Cloud Service 生命周期 知识库文章。

第 2 章 产品特性

Red Hat OpenShift AI 为数据科学家和 OpenShift 集群管理员提供了一些功能。

2.1. 数据科学家的功能

容器
虽然 JupyterLab 等工具已经为数据科学家在其机器上开发模型提供了直观的方法,但存在与协作和共享工作相关的固有复杂性。此外,当您需要自行购买和维护时,使用专用的硬件(如强大的 GPU)可能会非常昂贵。OpenShift AI 中包含的 Jupyter 环境可让您在需要它的任何地方使用开发环境。由于所有工作负载都作为容器运行,协作也会像与团队成员共享镜像一样容易,甚至将其添加到他们可以使用的默认容器列表中。因此,GPU 和大量内存更易于访问,因为您不再受笔记本电脑支持的限制。
与第三方机器学习工具集成
我们在我们最喜欢的工具或服务之间无法很好地运行。OpenShift AI 在设计时具有灵活性。您可以在 OpenShift AI 中使用广泛的开源和第三方工具。这些工具支持完整的机器学习生命周期,从数据工程和功能提取到模型部署和管理。
Jupyter 笔记本与 Git 的协作
使用 Jupyter 的 Git 界面与他人协作,并跟踪对您的代码的更改。
安全构建的工作台镜像
从一组默认的工作台镜像中进行选择,该镜像使用模型开发所需的工具和库预先配置。软件堆栈,特别是机器学习中涉及的软件堆栈,往往是复杂的系统。Python 生态系统中有许多模块和库可以使用,因此确定要使用哪个库的版本可能非常困难。OpenShift AI 包含许多打包的工作台镜像,它们通过数据科学家和推荐引擎的见解而构建。您可以在右面上快速启动新项目,而无需担心从随机上游存储库下载未验证且可能不安全的镜像。
自定义工作台镜像
除了由红帽和独立软件供应商(ISV)提供和支持的工作台镜像外,您还可以配置针对项目特定要求的自定义工作台镜像。
数据科学项目(data Science)管道
OpenShift AI 和数据科学管道 2.0 提供了运行数据科学工作负载的有效方法。您可以标准化和自动化机器学习工作流,以便您开发和部署数据科学模型。
模型服务
作为数据科学家,您现在可以部署经过培训的计算机学习模型,为生产环境中的智能应用程序提供服务。模型的功能作为服务端点提供,可用于测试或集成到应用程序中。您对此服务的执行方式有更多控制。
使用加速器优化数据科学模型
如果使用大型数据集,您可以使用 NVIDIA 图形处理单元(GPU)或 Intel Gaudi AI 加速器优化 OpenShift AI 中数据科学模型的性能。加速器使您能够扩展工作、缩短延迟并提高生产力。

2.2. OpenShift 集群管理员的功能

使用身份提供程序管理用户
OpenShift AI 使用与 OpenShift 集群相同的身份验证系统。默认情况下,OpenShift AI 可以被身份提供程序中列出的所有用户访问,这些用户不需要单独的凭据集来访问 OpenShift AI。另外,您可以通过创建指定用户子集的 OpenShift 组来限制有权访问的用户集合。您还可以创建一个 OpenShift 组,用于标识具有 OpenShift AI 管理员访问权限的用户列表。
使用 OpenShift 管理资源
使用您现有的 OpenShift 知识来为您的 OpenShift AI 用户配置和管理资源。
控制红帽使用数据收集
选择是否允许红帽收集有关集群中 OpenShift AI 使用的数据。在 OpenShift 集群上安装 OpenShift AI 时,默认启用数据收集。
将自动扩展应用到集群以降低使用量成本
使用集群自动扩展来调整集群的大小,以满足其当前需求并优化成本。
通过停止闲置工作台来管理资源使用情况
通过自动停止闲置一段时间的工作台来减少 OpenShift AI 部署中的资源使用量。
实施 model-serving 运行时
OpenShift AI 支持模型服务运行时。模型运行时提供与指定模型服务器和它支持的模型框架集成。默认情况下,OpenShift AI 包含 OpenVINO Model Server 运行时。但是,如果此运行时不满足您的需要(例如,如果不支持特定的模型框架),您可以添加自己的自定义运行时。
在断开连接的环境中安装
OpenShift AI 自我管理支持在断开连接的环境中安装。断开连接的集群位于受限网络中,通常在防火墙后面,无法访问互联网。在这种情况下,集群无法访问红帽提供的 OperatorHub 源所在的远程 registry。在这种情况下,您可以使用您在其中镜像(copied)相关镜像的私有 registry 将 OpenShift AI Operator 部署到断开连接的环境中。
管理加速器
在 OpenShift AI 中启用 NVIDIA 图形处理单元(GPU)或 Intel Gaudi AI 加速器,并允许数据科学家使用计算密集型工作负载。

第 3 章 试用

数据科学家和开发人员可在 Red Hat Developer Sandbox 环境中尝试 OpenShift AI 和访问教程和活动。

OpenShift 集群管理员可以通过 60 天产品试用试用 您自己的集群中的 OpenShift AI。

第 4 章 获取它

受管云服务

您有以下选项用于订阅 OpenShift AI 作为受管服务:

  • 对于 OpenShift Dedicated,请订阅红帽。
  • 对于 Red Hat OpenShift Service on Amazon Web Services (ROSA),通过红帽订阅或通过 AWS Marketplace 订阅。
自我管理的软件
要让 Red Hat OpenShift AI 作为自我管理的软件,请与您的红帽客户团队一起注册。

法律通告

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat