第 5 章 后续步骤


以下产品文档提供了有关如何使用 OpenShift AI 开发、测试和部署数据科学解决方案的更多信息。

试用端到端教程

OpenShift AI 教程 - Fraud 检测示例

逐步指导,使用示例 fraud 检测模型完成以下任务:

  • 使用 Jupyter 笔记本探索预遍历的欺诈检测模型。
  • 使用 OpenShift AI 模型服务部署模型。
  • 使用自动化管道优化并培训模型。
在工作台 IDE 中开发和培训模型

在数据科学 IDE 中使用

了解如何访问工作台 IDE (JupyterLab、code-server 或 RStudio 服务器)。

对于 JupyterLab IDE,了解以下任务:

  • 创建并导入笔记本
  • 使用 Git 合作笔记本
  • 查看并安装 Python 软件包
  • 常见问题故障排除
使用管道自动化 ML 工作流

使用数据科学项目管道

通过使用 Docker 容器构建带有数据科学管道的可移植机器学习(ML)工作流,提高 OpenShift AI 上的数据科学项目。使用管道来持续重新培训并根据新收到的数据更新模型。

部署并测试模型

服务模型

在 OpenShift 集群上部署 ML 模型以测试并将其集成到智能应用程序中。当您部署模型时,它可作为服务使用 API 调用来访问。您可以根据通过 API 调用提供的数据输入返回预测。

监控和管理模型

服务模型

Red Hat OpenShift AI 服务包括在 Red Hat OpenShift Dedicated 或 Red Hat Openshift Service on AWS 上托管模型的模型部署选项,用于集成到外部应用程序中。

添加加速器以优化性能

使用加速器

如果使用大型数据集,您可以使用加速器,如 NVIDIA GPU、AMD GPU 和 Intel Gaudi AI 加速器,以优化 OpenShift AI 中数据科学模型的性能。通过加速器,您可以扩展工作、缩短延迟并提高生产效率。

实施分布式工作负载以提高性能

使用分布式工作负载

实施分布式工作负载,以并行方式使用多个集群节点,实现更快速、高效的数据处理和模型培训。

探索扩展

使用连接的应用程序

使用集成的第三方应用程序扩展您的核心 OpenShift AI 解决方案。一些领先的 AI/ML 软件技术合作伙伴,包括 Starburst、Intel AI Tools、Anaconda 和 IBM 可通过 Red Hat Marketplace 提供。

5.1. 其他资源

除了产品文档外,红帽还为 OpenShift AI 及支持的应用程序提供一组丰富的学习资源。

在 OpenShift AI 仪表板的 Resources 页面中,您可以使用 category 链接来过滤数据科学工作流的不同阶段的资源。例如,点 Model serving 类别来显示各种部署模型方法的资源。点 All items 显示所有类别的资源。

对于所选类别,您可以应用附加选项来过滤可用资源。例如,您可以根据类型进行过滤,如文章、快速启动或教程等;这些资源提供了常见问题的答案。

有关 Red Hat OpenShift AI 支持要求和限制的详情,请参考 Red Hat OpenShift AI: 支持的配置

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat