1.2. 了解 Red Hat OpenShift AI
Red Hat OpenShift AI 是一个全面的 MLOps 平台,旨在简化跨混合云环境和边缘的智能和机器学习(AI/ML)开发和操作。它促进了数据科学家和开发人员之间的协作,同时确保 IT 部门能够高效构建、培训、微调和部署预测和基础 AI 模型。
OpenShift AI 在 Red Hat OpenShift 的稳定基础之上提供自我管理或云服务,为在跨公共云、内部和边缘环境中大规模部署 AI 的应用程序和 ML 模型提供可靠的平台。
通过利用广泛的技术生态系统,Red Hat OpenShift AI 加速了 AI/ML 创新,确保运营一致性、提高混合云灵活性并保持透明度、选择和责任 AI 实践。
1.2.1. OpenShift AI 的主要优势。 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
- 简化 AI 采用 :降低构建和交付 AI 模型及应用程序(准确、可靠且安全)的复杂性。
- 企业就绪的开源工具 :提供完全支持、安全的开源 AI 工具的企业级版本,确保无缝集成和互操作性。
- 加速创新 :为组织提供最新 AI 技术的访问权限,帮助他们在快速发展的市场中保持竞争。
- 广泛的合作伙伴生态系统 :使组织能够选择来自认证 AI 生态系统的最佳技术,从而提高灵活性和选择。
1.2.2. 数据科学家、开发人员和 MLOps 工程师的功能 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
- 集成开发环境(IDE) :提供对 IDE 的访问,如 JupyterLab,使用 TensorFlow、PyTy 和 Scikit-learn 等预配置库。
- 数据科学项目:使用容器化管道 编配支持端到端 ML 工作流。
- 加速计算 :对 GPU 和 Intel Gaudi AI 加速器的集成支持,加快模型的培训和认证。
- 模型部署和服务 :在各种环境中部署模型,并使用 API 将它们集成到应用程序中。
1.2.3. IT 操作管理员的功能 复制链接链接已复制到粘贴板!
复制链接链接已复制到粘贴板!
- 无缝 OpenShift 集成 :利用 OpenShift 身份提供商和资源分配工具,实现安全、高效的用户管理。
- 加速器管理 :为 GPU 和 AI 加速器使用启用有效的资源调度。
- 灵活的部署 :作为自助管理解决方案,或作为 Red Hat OpenShift Dedicated 和 Red Hat OpenShift Service on AWS (ROSA)的托管服务提供。
- 可扩展性和安全性 :为 AI 工作负载提供企业级安全功能和管理控制。