第 5 章 后续步骤
以下产品文档提供了有关如何使用 OpenShift AI 开发、测试和部署数据科学解决方案的更多信息。
- 试用端到端教程
逐步指导,使用示例 fraud 检测模型完成以下任务:
- 使用 Jupyter 笔记本探索预遍历的欺诈检测模型。
- 使用 OpenShift AI 模型服务部署模型。
- 使用自动化管道优化并培训模型。
- 在工作台 IDE 中开发和培训模型
了解如何访问工作台 IDE (JupyterLab、code-server 或 RStudio 服务器)。
对于 JupyterLab IDE,了解以下任务:
- 创建并导入笔记本
- 使用 Git 合作笔记本
- 查看并安装 Python 软件包
- 常见问题故障排除
- 使用管道自动化 ML 工作流
通过使用 Docker 容器构建带有数据科学管道的可移植机器学习(ML)工作流,提高 OpenShift AI 上的数据科学项目。使用管道来持续重新培训并根据新收到的数据更新模型。
- 部署并测试模型
在 OpenShift 集群上部署 ML 模型以测试并将其集成到智能应用程序中。当您部署模型时,它可作为服务使用 API 调用来访问。您可以根据通过 API 调用提供的数据输入返回预测。
- 监控和管理模型
Red Hat OpenShift AI 服务包括在 Red Hat OpenShift Dedicated 或 Red Hat Openshift Service on AWS 上托管模型的模型部署选项,用于集成到外部应用程序中。
- 添加加速器以优化性能
如果使用大型数据集,您可以使用加速器,如 NVIDIA GPU、AMD GPU 和 Intel Gaudi AI 加速器,以优化 OpenShift AI 中数据科学模型的性能。通过加速器,您可以扩展工作、缩短延迟并提高生产效率。
- 实施分布式工作负载以提高性能
实施分布式工作负载,以并行方式使用多个集群节点,实现更快速、高效的数据处理和模型培训。
- 探索扩展
使用集成的第三方应用程序扩展您的核心 OpenShift AI 解决方案。一些领先的 AI/ML 软件技术合作伙伴,包括 Starburst、Intel AI Tools、Anaconda 和 IBM 可通过 Red Hat Marketplace 提供。
5.1. 其他资源 复制链接链接已复制到粘贴板!
除了产品文档外,红帽还为 OpenShift AI 及支持的应用程序提供一组丰富的学习资源。
在 OpenShift AI 仪表板的 Resources 页面中,您可以使用 category 链接来过滤数据科学工作流的不同阶段的资源。例如,点 Model serving 类别来显示各种部署模型方法的资源。点 All items 显示所有类别的资源。
对于所选类别,您可以应用附加选项来过滤可用资源。例如,您可以根据类型进行过滤,如文章、快速启动或教程等;这些资源提供了常见问题的答案。
有关 Red Hat OpenShift AI 支持要求和限制的详情,请参考 Red Hat OpenShift AI: 支持的配置。