第 6 章 在 OpenShift Container Platform 上部署 Ansible Lightspeed 智能助手


作为系统管理员,您可以在 OpenShift Container Platform 上的 Ansible Automation Platform 2.6 上部署 Ansible Lightspeed 智能助手。

6.1. 概述

您可以在 OpenShift Container Platform 上的 Ansible Automation Platform 2.6 上安装和使用 Ansible Lightspeed 智能助手。Ansible Lightspeed 智能助手是一个嵌入在 Ansible Automation Platform 中的直观的聊天接口,使用常规化人工智能(AI)来回答有关 Ansible Automation Platform 的问题。

Ansible Lightspeed 智能助手以英语的形式与用户进行交互,并使用大型语言模型(LLM)生成快速、准确和个性化的响应。这些响应使 Ansible 用户能够更有效地工作,从而提高工作效率和整体工作质量。

Ansible Lightspeed 智能助手需要以下配置:

  • 在 Red Hat OpenShift Container Platform 上安装 Ansible Automation Platform 2.6
  • 由 Red Hat AI 平台或第三方 AI 平台提供的 LLM 供应商部署。要了解可以使用的 LLM 提供程序,请参阅 LLM provider
重要

红帽不会从与 Ansible Lightspeed 智能助手的交互中收集任何遥测数据。

从 Ansible Automation Platform 2.5 升级到 2.6.1 或 2.6.1,默认为 Ansible Lightspeed API 和 Ansible Lightspeed 智能助手 pod 间的内部通信启用 HTTPS 和 TLS。在升级到 Ansible Automation Platform 2.6.1 后,智能助手将在 pod 重启时大约提供 60 秒。

6.1.1. 与 MCP 服务器集成

Ansible Lightspeed 智能助手与模型上下文协议(MCP)服务器集成作为技术预览提供。此集成通过向查询提供相关的动态数据源的数据结果来提高用户体验。

MCP 是一个开放协议,用于标准化应用程序如何为 LLM 提供上下文。使用协议时,MCP 服务器提供了一种标准化的方法,使 LLM 通过从外部资源请求和接收实时信息来增加上下文。与 MCP 服务器集成可让 Ansible Lightspeed 智能助手通过向查询提供相关的动态源数据结果来提供增强的用户体验。您可以在 chatbot 配置 secret 中配置 MCP 服务器。如需更多信息,请参阅创建聊天配置 secret

注意

技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围

6.1.2. Ansible Automation Platform 2.6 要求

  • 您已在 OpenShift Container Platform 环境中安装了 Ansible Automation Platform 2.6。
  • 具有 Ansible Automation Platform 的管理员特权。
  • 您已置备了安装了 Operator Lifecycle Management 的 OpenShift 集群。

6.1.3. 大型语言模型(LLM)供应商要求

您必须已经配置了部署 Ansible Lightspeed 智能助手前要使用的 LLM 供应商。

LLM 是可以解释和生成类类语言的机器学习模型。当 LLM 与 Ansible Lightspeed 智能助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。

Ansible Lightspeed 智能助手可以依赖以下 LLM 提供程序:

  • Red Hat LLM provider:

    • Red Hat Enterprise Linux AI

      您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。因为 Red Hat Enterprise Linux 位于与 Ansible Lightspeed 部署不同的环境中,模型部署必须允许使用安全连接进行访问。如需更多信息,请参阅 可选:允许从安全端点访问模型

      Ansible Lightspeed 智能助手支持 vLLM 服务器。当使用 Red Hat Enterprise Linux AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。

    • Red Hat OpenShift AI

      您必须在使用 Virtual Large Language Model (vLLM)运行时的 Red Hat OpenShift AI single-model 服务平台上部署 LLM。如果模型部署位于与 Ansible Lightspeed 部署不同的 OpenShift 环境中,请包含一个路由来公开集群外的模型部署。如需更多信息 ,请参阅关于单模式服务平台

      Ansible Lightspeed 智能助手支持 vLLM 服务器。当使用 Red Hat OpenShift AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。

      注意

      对于使用 Red Hat Enterprise Linux AI 或 Red Hat OpenShift AI 的配置,您必须托管自己的 LLM 供应商,而不是使用 SaaS LLM 供应商。

    • Red Hat AI Inference Server

      您可以使用 Red Hat AI Inference Server 作为您的 inference 运行时部署 LLM。红帽 AI Inference 服务器支持 vLLM 运行时以实现高效的模型服务,并可配置为使用 Ansible Lightspeed 智能助手。如需更多信息,请参阅 Red Hat AI Inference Server 文档

      如果红帽 AI Inference 服务器部署位于与 Ansible Lightspeed 部署不同的环境中,请确保模型部署允许使用安全连接并配置适当的网络路由。

      Ansible Lightspeed 智能助手支持 vLLM Server,当将红帽 AI Inference Server 作为 inference 引擎进行自我托管时。

  • 第三方 LLM 供应商:

    • OpenAI

      要将 OpenAI 与 Ansible Lightspeed 智能助手一起使用,您需要访问 OpenAI API 平台

    • Microsoft Azure OpenAI

      要将 Microsoft Azure 与 Ansible Lightspeed 智能助手一起使用,您需要访问 Microsoft Azure OpenAI 产品页面。

执行以下任务,以在 OpenShift Container Platform 环境中的 Ansible Automation Platform 实例中设置和使用 Ansible Lightspeed 智能助手:

Expand
任务描述

在 OpenShift Container Platform 上部署 Ansible Lightspeed 智能助手

希望为机构中所有 Ansible 用户部署 Ansible Lightspeed 智能助手的 Ansible Automation Platform 管理员。

执行以下任务:

  1. 创建 chatbot 配置机密
  2. 更新 Ansible Automation Platform 的 YAML 文件,以使用 chatbot 连接 secret
  3. 可选: 在部署 Red Hat Ansible Lightspeed 后,如果要使用不同的 LLM 供应商,请更改 您的 LLM 模型

访问并使用 Ansible Lightspeed 智能助手

所有想要使用智能助手的 Ansible 用户获得他们有关 Ansible Automation Platform 问题的回答。如需了解更多详细信息,请参阅使用 Ansible Lightspeed 智能助手

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部