4.3. 在 Podman 桌面中配置 LLM
Podman AI lab 扩展可让您使用策展的模型列表中的开源模型,并在您的系统中使用它。
模型生成的代码修复建议取决于模型的功能。通过 Podman AI Lab 部署的模型在修复 MTA 发现的问题时所需的代码更改复杂性不足。您不能在生产环境中使用这些模型。
先决条件
- 在您的系统上安装了 Podman 桌面。
- 您在分析所需的 MTA 的 Red Hat Developer Lightspeed 中完成了初始配置。
流程
- 进入 Podman AI Lab 扩展,再单击 Models 下的目录。
- 下载一个或多个模型。
- 进入 Services,再单击 New Model Service。
- 在 Model 下拉菜单中选择您下载的模型,然后点 Create Service。
- 点部署的 model 服务打开 Service Details 页面。
- 请注意服务器 URL 和模型名称。您必须在 Red Hat Developer Lightspeed 中配置这些规格,以进行 MTA 扩展。
导出 inference 服务器 URL,如下所示:
export OPENAI_API_BASE=<server-url>
export OPENAI_API_BASE=<server-url>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
在用于 MTA 扩展的 Red Hat Developer Lightspeed 中,键入
Open the GenAI model provider 配置文件
,以打开provider-settings.yaml
文件。 输入 Podman 桌面的模型详情。例如,对 Mistral 模型使用以下配置:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注意Podman Desktop 服务端点不需要密码,但 OpenAI 库预期设置
OPENAI_API_KEY
。在这种情况下,OPENAI_API_KEY
变量的值无关紧要。