关于
第 1 章 关于 OpenShift Lightspeed 复制链接链接已复制到粘贴板!
以下主题提供了 Red Hat OpenShift Lightspeed 概述并讨论功能要求。
1.1. OpenShift Lightspeed 概述 复制链接链接已复制到粘贴板!
Red Hat OpenShift Lightspeed 是为 OpenShift Container Platform 提供的生成式人工智能支持的虚拟助手。OpenShift Lightspeed 功能使用 OpenShift Web 控制台中的自然语言接口来回答您询问的产品的问题。
1.1.1. 关于产品覆盖范围 复制链接链接已复制到粘贴板!
Red Hat OpenShift Lightspeed 根据 OpenShift Container Platform 产品文档中的内容生成响应。
1.1.1.1. 产品例外 复制链接链接已复制到粘贴板!
OpenShift Container Platform 产品文档不包括红帽产品组合中所有产品的信息。因此,Red Hat OpenShift Lightspeed 服务使用您提供的大型语言模型(LLM)来为以下产品或组件生成输出:
- 为 Red Hat OpenShift 构建
- Red Hat Advanced Cluster Security for Kubernetes
- Red Hat Advanced Cluster Management for Kubernetes
- Red Hat CodeReady Workspaces
- Red Hat OpenShift GitOps
- Red Hat OpenShift Pipelines
- Red Hat OpenShift Serverless
- Red Hat OpenShift Service Mesh 3.x
- Red Hat Quay
1.2. OpenShift 要求 复制链接链接已复制到粘贴板!
OpenShift Lightspeed 需要 OpenShift Container Platform 4.16 或更高版本在 x86 硬件上运行。只要集群是 4.16+ 和基于 x86 的,则代表支持任何安装类型或部署架构。
默认情况下,Telemetry 在 OpenShift Container Platform 集群上启用。
- 如果集群启用了遥测功能,OpenShift Lightspeed 服务默认向红帽发送对话和反馈。
- 如果集群禁用了遥测功能,OpenShift Lightspeed 服务不会向红帽发送对话和反馈。
- 如果集群启用了遥测功能,并且不希望 OpenShift Lightspeed 服务向红帽发送对话和反馈,则必须禁用遥测。
1.3. 大型语言模型(LLM)要求 复制链接链接已复制到粘贴板!
大型语言模型(LLM)是一种计算机学习模型,用于解释和生成类类语言。当 LLM 与虚拟助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。
OpenShift Lightspeed 服务必须有权访问 LLM 提供程序。该服务不会为您提供一个 LLM,因此您必须在安装 OpenShift Lightspeed Operator 前配置 LLM。
红帽不提供任何特定模型或提出与模型相关的建议或支持声明的支持。
OpenShift Lightspeed 服务可以依赖以下软件作为服务(SaaS) LLM 供应商:
- OpenAI
- Microsoft Azure OpenAI
- IBM watsonx
如果要自我托管一个模型,您可以使用 Red Hat OpenShift AI 或 Red Hat Enterprise Linux AI 作为模型供应商。
1.3.1. IBM watsonx 复制链接链接已复制到粘贴板!
要将 IBM watsonx 与 Red Hat OpenShift Lightspeed 搭配使用,您需要使用 IBM Cloud watsonx 的帐户。如需更多信息,请参阅 IBM watsonx 的文档作为服务。
1.3.2. Open AI 复制链接链接已复制到粘贴板!
要将 OpenAI 与 Red Hat OpenShift Lightspeed 搭配使用,您需要访问 OpenAI API 平台。如需更多信息,请参阅 OpenAI 开发人员平台 文档。
1.3.3. Microsoft Azure OpenAI 复制链接链接已复制到粘贴板!
要将 Microsoft Azure 与 Red Hat OpenShift Lightspeed 搭配使用,您需要访问 Microsoft Azure OpenAI。如需更多信息,请参阅 Azure OpenAI 文档。
1.3.4. Red Hat Enterprise Linux AI 复制链接链接已复制到粘贴板!
Red Hat Enterprise Linux AI 与 OpenAI API 兼容,并以类似的方式配置 OpenAI 供应商。
您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。
由于 Red Hat Enterprise Linux 位于与 OpenShift Lightspeed 部署不同的环境中,模型部署必须允许使用安全连接进行访问。如需更多信息,请参阅 可选:允许从安全端点访问模型。
OpenShift Lightspeed 版本 1.0 及之后的版本支持 vLLM Server 版本 0.8.4 及更新版本。当使用 Red Hat Enterprise Linux AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。
1.3.5. Red Hat OpenShift AI 复制链接链接已复制到粘贴板!
Red Hat OpenShift AI 与 OpenAI API 兼容,其配置与 OpenAI 供应商相同。
您必须在使用 Virtual Large Language Model (vLLM)运行时的 Red Hat OpenShift AI single-model 服务平台上部署 LLM。如果模型部署位于与 OpenShift Lightspeed 部署不同的 OpenShift 环境中,请包含一个路由来公开集群外的模型部署。如需更多信息 ,请参阅关于单模式服务平台。
OpenShift Lightspeed 版本 1.0 及之后的版本支持 vLLM Server 版本 0.8.4 及更新版本。当使用 Red Hat OpenShift AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。
1.4. OpenShift Lightspeed FIPS 支持 复制链接链接已复制到粘贴板!
Red Hat OpenShift Lightspeed 专为联邦信息处理标准(FIPS)设计。
FIPS 是美国国家标准与技术研究院(NIST)开发的公开宣布标准。商业部门.FIPS 的主要目的是确保美国联邦政府机构及其相关承包商所使用的计算机系统的安全性和互操作性。
当在 FIPS 模式下的 OpenShift Container Platform 上运行时,它使用提交或计划提交的 Red Hat Enterprise Linux 加密库到 NIST for FIPS validation on the x86_64,ppc64le, 和 s390X 架构。有关 NIST 验证程序的更多信息,请参阅 Cryptographic Module Validation Program (NIST)。有关已提交用于验证的 Red Hat Enterprise Linux 加密库的最新 NIST 状态,请参阅 产品合规性。
1.5. 支持的构架 复制链接链接已复制到粘贴板!
OpenShift Lightspeed 仅适用于 OpenShift Container Platform x86_64 架构。
1.6. 关于以断开连接模式运行 OpenShift Lightspeed 复制链接链接已复制到粘贴板!
OpenShift Lightspeed Operator 和 OpenShift Lightspeed 服务在断开连接的环境中工作。断开连接的环境是一个无法完全访问互联网的环境。
在断开连接的环境中,您必须将所需的容器镜像镜像(mirror)到环境中。如需更多信息,请参阅 OpenShift Container Platform 产品文档中的"在断开连接的环境中镜像"。
在断开连接的环境中镜像镜像时,在使用 oc mirror 命令时,您必须列出 OpenShift Lightspeed Operator。
1.7. 关于数据使用 复制链接链接已复制到粘贴板!
Red Hat OpenShift Lightspeed 是一个使用自然语言交互的虚拟助手。使用 OpenShift Lightspeed 接口,您可以发送 OpenShift Lightspeed 转换的 chat 消息,并发送到您为环境配置的 Large Language Model (LLM)供应商。这些消息可以包含有关集群、集群资源或环境其他方面的信息。
OpenShift Lightspeed 服务具有有限的功能,可以过滤或重新处理您提供给 LLM 的信息。不要在您不想发送到 LLM 供应商的 OpenShift Lightspeed 接口中输入信息。
通过将 transcripts 或反馈发送给红帽,您同意红帽可以将数据用于质量保证目的。transcript 记录数据使用 Red Hat Insights 系统的后端,并受到相同的访问限制和其他安全策略。
您可以发送电子邮件 红帽 并请求删除数据。
1.8. 关于数据、遥测、transcript 和反馈收集 复制链接链接已复制到粘贴板!
OpenShift Lightspeed 是一个使用自然语言交互的虚拟助手。与 OpenShift Lightspeed 通信涉及发送聊天消息,其中可能包括有关集群、集群资源或其他环境方面的信息。这些消息发送到 OpenShift Lightspeed,可能会过滤某些内容或红色,然后发送到您配置的 LLM 供应商。
不要在 OpenShift Lightspeed 用户界面中输入您不想发送到 LLM 供应商的任何信息。
transcript 记录数据使用 Red Hat Insights 系统后端,并遵循相同的访问限制,以及 Red Hat Insights 数据和应用程序安全 中描述的其他安全策略。
1.9. 远程健康监控概述 复制链接链接已复制到粘贴板!
红帽产品使用 Telemeter Client 和 Insights Operator 记录基本信息,这通常在 OpenShift 集群中称为 Remote Health Monitoring。远程健康监控的 OpenShift 文档解释了数据收集,并包括了选择不使用的说明。要禁用 transcript 或反馈集合,您必须按照选择不使用远程健康监控的步骤进行操作。如需更多信息,请参阅 OpenShift Container Platform 文档中的"关于远程健康监控"。
1.9.1. Transcript 集合概述 复制链接链接已复制到粘贴板!
默认情况下,transcripts 会每两小时发送给红帽。如果您使用 filter 和 redaction 功能,则会向红帽发送过滤或红色的内容。红帽没有看到原始的非全局内容,在日志中捕获任何内容前,会进行重新操作。
OpenShift Lightspeed 临时日志,并存储用户与虚拟助手的对话的正常操作。这包括以下信息:
- 来自用户的查询。
- 发送到配置的 Large Language Model (LLM)供应商的完整消息,其中包括系统说明、参考文档和用户问题。
- 来自 LLM 提供者的完整响应。
Transcripts 源自集群,并与集群相关联。红帽可以将特定的集群分配给特定的客户帐户。Transcripts 不包含任何有关用户的信息。
1.9.2. 反馈集合概述 复制链接链接已复制到粘贴板!
OpenShift Lightspeed 从参与虚拟助手界面中反馈功能的用户收集反馈。如果用户提交反馈,则会按照与 transcript 集合相同的计划存储并向红帽发送反馈分数(如果输入)、文本反馈(如果输入)、用户查询和发送给红帽。如果您使用 filter 和 redaction 功能,则会向红帽发送过滤或红色的内容。红帽不会看到原始的非全局内容,在日志中捕获任何内容前,红帽会进行重新操作。
反馈与源自的集群相关联,红帽可以将特定集群归类到特定的客户帐户。反馈不包含任何提交反馈的用户的信息,且无法与任何单独用户关联。
1.9.3. 在 OpenShift Lightspeed 服务中禁用数据收集 复制链接链接已复制到粘贴板!
OpenShift Lightspeed 服务收集有关您询问的问题的信息以及您提供的有关服务生成的答案的反馈。您可以通过修改 OLSConfig 自定义资源(CR)文件设置来禁用数据收集。
先决条件
- 您有一个可用于 OpenShift Lightspeed Service 的 LLM 供应商。
- 已安装 OpenShift Lightspeed Operator。
-
您已配置了
OLSConfigCR 文件,该文件会自动部署 OpenShift Lightspeed Service。
流程
运行以下命令,打开 OpenShift Lightspeed
OLSConfigCR 文件:oc edit olsconfig cluster
$ oc edit olsconfig clusterCopy to Clipboard Copied! Toggle word wrap Toggle overflow 修改
spec.ols.userDataCollection字段,以禁用 OpenShift Lightspeed CR 的数据收集。OLSConfigCR 示例Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 保存该文件。