第 1 章 将 Red Hat OpenShift AI 与 MicroShift 搭配使用


了解如何在 MicroShift 边缘部署上提供智能和机器学习(AI/ML)模型。

重要

Red Hat OpenShift AI 只是一个技术预览功能。技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。

有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

1.1. Red Hat OpenShift AI 在 MicroShift 中的工作方式

边缘部署是数据的发生位置,需要做出决策。您可以使用 Red Hat OpenShift AI (Red Hat OpenShift AI Self-Managed)将 MicroShift 驱动的边缘设备集合集成到人工智能和机器学习(AI/ML)操作周期中。MicroShift 与基于 Kubernetes 的 KServe 组件的单一模型服务平台兼容。KServe 是一个编配模型服务的平台。

Red Hat OpenShift AI Self-Managed 是数据科学家和 AI/ML 应用程序开发人员的平台。首先,使用云或数据中心中的 Red Hat OpenShift AI Self-Managed 来开发、培训和测试 AI 模型。然后,在 MicroShift 上的边缘部署中运行您的模型。

部署 AI 模型后,应用程序数据可以发送到模型可在无需人工用户的情况下做出数据驱动决策的模型。这是与管理员交互的边缘应用程序的理想场景。

使用 KServe 实现
KServe 组件包括实现各种模型服务器的加载的模型运行时。这些运行时配置有自定义资源(CR)。KServe 自定义资源定义(CRD)还定义部署对象、存储访问和网络设置的生命周期。
使用 Red Hat OpenShift AI Self-Managed with MicroShift 的具体信息

作为边缘优化 Kubernetes 部署,MicroShift 在使用 Red Hat OpenShift AI Self-Managed 时有以下限制:

  • MicroShift 上的 AI 模型服务仅在 x86_64 架构中可用。
  • MicroShift 支持 Red Hat OpenShift AI Self-Managed Operator 组件的子集。
  • 作为单节点 Kubernetes 发行版本,MicroShift 不支持多型号部署。您必须使用单模式服务平台。
  • 您必须开发要在云或数据中心的 MicroShift 模型平台中运行的 AI 模型。不支持将 MicroShift 用作 AI 模型的开发平台。
  • 您必须计划提供 AI 模型所需的额外 RAM、磁盘空间和存储配置。
  • 不是所有模型服务器都支持 IPv6 网络协议。检查每个模型服务器的文档,以验证支持您的网络配置。
  • 您必须保护公开的模型服务器端点,例如使用 OAUTH2。
  • ClusterServingRuntimes CRD 不支持 Red Hat OpenShift AI Self-Managed,这意味着您必须将 microshift-ai-model-serving RPM 中提供的 ServingRuntime CR 复制到您的工作负载命名空间中。
  • 要在 MicroShift 上管理模型服务,您必须使用 CLI。不支持 Red Hat OpenShift AI Self-Managed 仪表板。
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat