Share Feedback to help us keep improving.
第 6 章 在 OpenShift Container Platform 上部署 Ansible Lightspeed 智能助手
作为系统管理员,您可以在 OpenShift Container Platform 上的 Ansible Automation Platform 2.6 上部署 Ansible Lightspeed 智能助手。
6.1. 概述 复制链接链接已复制到粘贴板!
您可以在 OpenShift Container Platform 上的 Ansible Automation Platform 2.6 上安装和使用 Ansible Lightspeed 智能助手。Ansible Lightspeed 智能助手是一个嵌入在 Ansible Automation Platform 中的直观的聊天接口,使用常规化人工智能(AI)来回答有关 Ansible Automation Platform 的问题。
Ansible Lightspeed 智能助手以英语的形式与用户进行交互,并使用大型语言模型(LLM)生成快速、准确和个性化的响应。这些响应使 Ansible 用户能够更有效地工作,从而提高工作效率和整体工作质量。
Ansible Lightspeed 智能助手需要以下配置:
- 在 Red Hat OpenShift Container Platform 上安装 Ansible Automation Platform 2.6
- 由 Red Hat AI 平台或第三方 AI 平台提供的 LLM 供应商部署。要了解可以使用的 LLM 提供程序,请参阅 LLM provider。
红帽不会从与 Ansible Lightspeed 智能助手的交互中收集任何遥测数据。
从 Ansible Automation Platform 2.5 升级到 2.6.1 或 2.6.1,默认为 Ansible Lightspeed API 和 Ansible Lightspeed 智能助手 pod 间的内部通信启用 HTTPS 和 TLS。在升级到 Ansible Automation Platform 2.6.1 后,智能助手将在 pod 重启时大约提供 60 秒。
6.1.1. 与 MCP 服务器集成 复制链接链接已复制到粘贴板!
Ansible Lightspeed 智能助手与模型上下文协议(MCP)服务器集成作为技术预览提供。此集成通过向查询提供相关的动态数据源的数据结果来提高用户体验。
MCP 是一个开放协议,用于标准化应用程序如何为 LLM 提供上下文。使用协议时,MCP 服务器提供了一种标准化的方法,使 LLM 通过从外部资源请求和接收实时信息来增加上下文。与 MCP 服务器集成可让 Ansible Lightspeed 智能助手通过向查询提供相关的动态源数据结果来提供增强的用户体验。您可以在 chatbot 配置 secret 中配置 MCP 服务器。如需更多信息,请参阅创建聊天配置 secret。
技术预览功能不受红帽产品服务等级协议(SLA)支持,且功能可能并不完整。红帽不推荐在生产环境中使用它们。这些技术预览功能可以使用户提早试用新的功能,并有机会在开发阶段提供反馈意见。有关红帽技术预览功能支持范围的更多信息,请参阅技术预览功能支持范围。
6.1.2. Ansible Automation Platform 2.6 要求 复制链接链接已复制到粘贴板!
- 您已在 OpenShift Container Platform 环境中安装了 Ansible Automation Platform 2.6。
- 具有 Ansible Automation Platform 的管理员特权。
- 您已置备了安装了 Operator Lifecycle Management 的 OpenShift 集群。
6.1.3. 大型语言模型(LLM)供应商要求 复制链接链接已复制到粘贴板!
您必须已经配置了部署 Ansible Lightspeed 智能助手前要使用的 LLM 供应商。
LLM 是可以解释和生成类类语言的机器学习模型。当 LLM 与 Ansible Lightspeed 智能助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。
Ansible Lightspeed 智能助手可以依赖以下 LLM 提供程序:
Red Hat LLM provider:
Red Hat Enterprise Linux AI
您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。因为 Red Hat Enterprise Linux 位于与 Ansible Lightspeed 部署不同的环境中,模型部署必须允许使用安全连接进行访问。如需更多信息,请参阅 可选:允许从安全端点访问模型。
Ansible Lightspeed 智能助手支持 vLLM 服务器。当使用 Red Hat Enterprise Linux AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。
Red Hat OpenShift AI
您必须在使用 Virtual Large Language Model (vLLM)运行时的 Red Hat OpenShift AI single-model 服务平台上部署 LLM。如果模型部署位于与 Ansible Lightspeed 部署不同的 OpenShift 环境中,请包含一个路由来公开集群外的模型部署。如需更多信息 ,请参阅关于单模式服务平台。
Ansible Lightspeed 智能助手支持 vLLM 服务器。当使用 Red Hat OpenShift AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。
注意对于使用 Red Hat Enterprise Linux AI 或 Red Hat OpenShift AI 的配置,您必须托管自己的 LLM 供应商,而不是使用 SaaS LLM 供应商。
Red Hat AI Inference Server
您可以使用 Red Hat AI Inference Server 作为您的 inference 运行时部署 LLM。红帽 AI Inference 服务器支持 vLLM 运行时以实现高效的模型服务,并可配置为使用 Ansible Lightspeed 智能助手。如需更多信息,请参阅 Red Hat AI Inference Server 文档。
如果红帽 AI Inference 服务器部署位于与 Ansible Lightspeed 部署不同的环境中,请确保模型部署允许使用安全连接并配置适当的网络路由。
Ansible Lightspeed 智能助手支持 vLLM Server,当将红帽 AI Inference Server 作为 inference 引擎进行自我托管时。
第三方 LLM 供应商:
OpenAI
要将 OpenAI 与 Ansible Lightspeed 智能助手一起使用,您需要访问 OpenAI API 平台。
Microsoft Azure OpenAI
要将 Microsoft Azure 与 Ansible Lightspeed 智能助手一起使用,您需要访问 Microsoft Azure OpenAI 产品页面。
6.1.4. 配置和使用 Ansible Lightspeed 智能助手的过程 复制链接链接已复制到粘贴板!
执行以下任务,以在 OpenShift Container Platform 环境中的 Ansible Automation Platform 实例中设置和使用 Ansible Lightspeed 智能助手:
| 任务 | 描述 |
|---|---|
| 在 OpenShift Container Platform 上部署 Ansible Lightspeed 智能助手 | 希望为机构中所有 Ansible 用户部署 Ansible Lightspeed 智能助手的 Ansible Automation Platform 管理员。 执行以下任务:
|
| 访问并使用 Ansible Lightspeed 智能助手 | 所有想要使用智能助手的 Ansible 用户获得他们有关 Ansible Automation Platform 问题的回答。如需了解更多详细信息,请参阅使用 Ansible Lightspeed 智能助手。 |