1.3. 大型语言模型(LLM)要求
大型语言模型(LLM)是一种计算机学习模型,用于解释和生成类类语言。当 LLM 与虚拟助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。
OpenShift Lightspeed 服务必须有权访问 LLM 提供程序。该服务不会为您提供一个 LLM,因此您必须在安装 OpenShift Lightspeed Operator 前配置 LLM。
红帽不提供任何特定模型或提出与模型相关的建议或支持声明的支持。
OpenShift Lightspeed 服务可以依赖以下软件作为服务(SaaS) LLM 供应商:
- OpenAI
- Microsoft Azure OpenAI
- IBM watsonx
如果要自我托管一个模型,您可以使用 Red Hat OpenShift AI 或 Red Hat Enterprise Linux AI 作为模型供应商。
1.3.1. IBM watsonx 复制链接链接已复制到粘贴板!
要将 IBM watsonx 与 Red Hat OpenShift Lightspeed 搭配使用,您需要使用 IBM Cloud watsonx 的帐户。如需更多信息,请参阅 IBM watsonx 的文档作为服务。
1.3.2. Open AI 复制链接链接已复制到粘贴板!
要将 OpenAI 与 Red Hat OpenShift Lightspeed 搭配使用,您需要访问 OpenAI API 平台。如需更多信息,请参阅 OpenAI 开发人员平台 文档。
1.3.3. Microsoft Azure OpenAI 复制链接链接已复制到粘贴板!
要将 Microsoft Azure 与 Red Hat OpenShift Lightspeed 搭配使用,您需要访问 Microsoft Azure OpenAI。如需更多信息,请参阅 Azure OpenAI 文档。
1.3.4. Red Hat Enterprise Linux AI 复制链接链接已复制到粘贴板!
Red Hat Enterprise Linux AI 与 OpenAI API 兼容,并以类似的方式配置 OpenAI 供应商。
您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。
由于 Red Hat Enterprise Linux 位于与 OpenShift Lightspeed 部署不同的环境中,模型部署必须允许使用安全连接进行访问。如需更多信息,请参阅 可选:允许从安全端点访问模型。
OpenShift Lightspeed 版本 1.0 及之后的版本支持 vLLM Server 版本 0.8.4 及更新版本。当使用 Red Hat Enterprise Linux AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。
1.3.5. Red Hat OpenShift AI 复制链接链接已复制到粘贴板!
Red Hat OpenShift AI 与 OpenAI API 兼容,其配置与 OpenAI 供应商相同。
您必须在使用 Virtual Large Language Model (vLLM)运行时的 Red Hat OpenShift AI single-model 服务平台上部署 LLM。如果模型部署位于与 OpenShift Lightspeed 部署不同的 OpenShift 环境中,请包含一个路由来公开集群外的模型部署。如需更多信息 ,请参阅关于单模式服务平台。
OpenShift Lightspeed 版本 1.0 及之后的版本支持 vLLM Server 版本 0.8.4 及更新版本。当使用 Red Hat OpenShift AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。