6.3. 大型语言模型(LLM)供应商要求


您必须已经配置了部署 Ansible Lightspeed 智能助手前要使用的 LLM 供应商。

LLM 是可以解释和生成类类语言的机器学习模型。当 LLM 与 Ansible Lightspeed 智能助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。

作为技术预览版本的一部分,Ansible Lightspeed 智能助手可以依赖以下软件作为服务(SaaS) LLM 供应商:

Red Hat LLM provider

  • Red Hat Enterprise Linux AI

    Red Hat Enterprise Linux AI 与 OpenAI API 兼容,并以类似 OpenAI 供应商的方式进行配置。您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。如需更多信息,请参阅 Red Hat Enterprise Linux AI 产品页面。

  • Red Hat OpenShift AI

    Red Hat OpenShift AI 与 OpenAI API 兼容,并以类似 OpenAI 供应商的方式进行配置。您可以将 Red Hat OpenShift AI 配置为 LLM 供应商。如需更多信息,请参阅 Red Hat OpenShift AI 产品页面。

注意

对于使用 Red Hat Enterprise Linux AI 或 Red Hat OpenShift AI 的配置,您必须托管自己的 LLM 供应商,而不是使用 SaaS LLM 供应商。

第三方 LLM 供应商

  • IBM watsonx.ai

    要将 IBM watsonx 与 Ansible Lightspeed 智能助手一起使用,您需要使用 IBM watsonx.ai 账户。

  • OpenAI

    要将 OpenAI 与 Ansible Lightspeed 智能助手一起使用,您需要访问 OpenAI API 平台

  • Microsoft Azure OpenAI

    要将 Microsoft Azure 与 Ansible Lightspeed 智能助手一起使用,您需要访问 Microsoft Azure OpenAI

    注意

    许多自托管或自我管理模型服务器都声明与 OpenAI 的 API 兼容性。可以配置 Ansible Lightspeed 智能助手 OpenAI 提供程序以指向兼容 API 的模型服务器。如果模型服务器真正兼容 API,尤其是与身份验证相关的,那么它可能可以正常工作。这些配置尚未由红帽测试,与其使用相关的问题超出了技术预览支持范围。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat