4.3. 在 Podman 桌面中配置 LLM


Podman AI lab 扩展可让您使用策展的模型列表中的开源模型,并在您的系统中使用它。

模型生成的代码修复建议取决于模型的功能。通过 Podman AI Lab 部署的模型在修复 MTA 发现的问题时所需的代码更改复杂性不足。您不能在生产环境中使用这些模型。

先决条件

  • 在您的系统上安装了 Podman 桌面
  • 您在分析所需的 MTA 的 Red Hat Developer Lightspeed 中完成了初始配置。

流程

  1. 进入 Podman AI Lab 扩展,再单击 Models 下的目录。
  2. 下载一个或多个模型。
  3. 进入 Services,再单击 New Model Service
  4. Model 下拉菜单中选择您下载的模型,然后点 Create Service
  5. 点部署的 model 服务打开 Service Details 页面。
  6. 请注意服务器 URL 和模型名称。您必须在 Red Hat Developer Lightspeed 中配置这些规格,以进行 MTA 扩展。
  7. 导出 inference 服务器 URL,如下所示:

    export OPENAI_API_BASE=<server-url>
    Copy to Clipboard Toggle word wrap
  8. 在用于 MTA 扩展的 Red Hat Developer Lightspeed 中,键入 Open the GenAI model provider 配置文件,以打开 provider-settings.yaml 文件。
  9. 输入 Podman 桌面的模型详情。例如,对 Mistral 模型使用以下配置:

    podman_mistral: &active
        provider: "ChatOpenAI"
         environment:
          OPENAI_API_KEY: "unused value"
        args:
          model: "mistral-7b-instruct-v0-2"
          base_url: "http://localhost:35841/v1"
    Copy to Clipboard Toggle word wrap
    注意

    Podman Desktop 服务端点不需要密码,但 OpenAI 库预期设置 OPENAI_API_KEY。在这种情况下,OPENAI_API_KEY 变量的值无关紧要。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat