1.3. 大型语言模型(LLM)要求


大型语言模型(LLM)是一种计算机学习模型,用于解释和生成类类语言。当 LLM 与虚拟助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。

OpenShift Lightspeed 服务必须有权访问 LLM 提供程序。该服务不会为您提供一个 LLM,因此您必须在安装 OpenShift Lightspeed Operator 前配置 LLM。

注意

红帽不提供任何特定模型或提出与模型相关的建议或支持声明的支持。

OpenShift Lightspeed 服务可以依赖以下软件作为服务(SaaS) LLM 供应商:

  • OpenAI
  • Microsoft Azure OpenAI
  • IBM watsonx

如果要自我托管一个模型,您可以使用 Red Hat OpenShift AI 或 Red Hat Enterprise Linux AI 作为模型供应商。

1.3.1. IBM watsonx

要将 IBM watsonx 与 Red Hat OpenShift Lightspeed 搭配使用,您需要使用 IBM Cloud watsonx 的帐户。如需更多信息,请参阅 IBM watsonx 的文档作为服务

1.3.2. Open AI

要将 OpenAI 与 Red Hat OpenShift Lightspeed 搭配使用,您需要访问 OpenAI API 平台。如需更多信息,请参阅 OpenAI 开发人员平台 文档。

1.3.3. Microsoft Azure OpenAI

要将 Microsoft Azure 与 Red Hat OpenShift Lightspeed 搭配使用,您需要访问 Microsoft Azure OpenAI。如需更多信息,请参阅 Azure OpenAI 文档

1.3.4. Red Hat Enterprise Linux AI

Red Hat Enterprise Linux AI 与 OpenAI API 兼容,并以类似的方式配置 OpenAI 供应商。

您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。

由于 Red Hat Enterprise Linux 位于与 OpenShift Lightspeed 部署不同的环境中,模型部署必须允许使用安全连接进行访问。如需更多信息,请参阅 可选:允许从安全端点访问模型

OpenShift Lightspeed 版本 1.0 及之后的版本支持 vLLM Server 版本 0.8.4 及更新版本。当使用 Red Hat Enterprise Linux AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。

1.3.5. Red Hat OpenShift AI

Red Hat OpenShift AI 与 OpenAI API 兼容,其配置与 OpenAI 供应商相同。

您必须在使用 Virtual Large Language Model (vLLM)运行时的 Red Hat OpenShift AI single-model 服务平台上部署 LLM。如果模型部署位于与 OpenShift Lightspeed 部署不同的 OpenShift 环境中,请包含一个路由来公开集群外的模型部署。如需更多信息 ,请参阅关于单模式服务平台

OpenShift Lightspeed 版本 1.0 及之后的版本支持 vLLM Server 版本 0.8.4 及更新版本。当使用 Red Hat OpenShift AI 自我托管 LLM 时,您可以使用 vLLM Server 作为 inference 引擎。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat