6.3. 大型语言模型(LLM)供应商要求
您必须已经配置了部署 Ansible Lightspeed 智能助手前要使用的 LLM 供应商。
LLM 是可以解释和生成类类语言的机器学习模型。当 LLM 与 Ansible Lightspeed 智能助手一起使用时,LLM 可以准确解释问题,并以对话方式提供有用的答案。
作为技术预览版本的一部分,Ansible Lightspeed 智能助手可以依赖以下软件作为服务(SaaS) LLM 供应商:
Red Hat LLM provider
Red Hat Enterprise Linux AI
Red Hat Enterprise Linux AI 与 OpenAI API 兼容,并以类似 OpenAI 供应商的方式进行配置。您可以将 Red Hat Enterprise Linux AI 配置为 LLM 供应商。如需更多信息,请参阅 Red Hat Enterprise Linux AI 产品页面。
Red Hat OpenShift AI
Red Hat OpenShift AI 与 OpenAI API 兼容,并以类似 OpenAI 供应商的方式进行配置。您可以将 Red Hat OpenShift AI 配置为 LLM 供应商。如需更多信息,请参阅 Red Hat OpenShift AI 产品页面。
对于使用 Red Hat Enterprise Linux AI 或 Red Hat OpenShift AI 的配置,您必须托管自己的 LLM 供应商,而不是使用 SaaS LLM 供应商。
第三方 LLM 供应商
IBM watsonx.ai
要将 IBM watsonx 与 Ansible Lightspeed 智能助手一起使用,您需要使用 IBM watsonx.ai 账户。
OpenAI
要将 OpenAI 与 Ansible Lightspeed 智能助手一起使用,您需要访问 OpenAI API 平台。
Microsoft Azure OpenAI
要将 Microsoft Azure 与 Ansible Lightspeed 智能助手一起使用,您需要访问 Microsoft Azure OpenAI。
注意许多自托管或自我管理模型服务器都声明与 OpenAI 的 API 兼容性。可以配置 Ansible Lightspeed 智能助手 OpenAI 提供程序以指向兼容 API 的模型服务器。如果模型服务器真正兼容 API,尤其是与身份验证相关的,那么它可能可以正常工作。这些配置尚未由红帽测试,与其使用相关的问题超出了技术预览支持范围。