4.2. 配置 LLM 供应商设置


Red Hat Developer Lightspeed for Migration Toolkit for Applications is large language model (LLM)与您选择的 LLM 集成。要启用 Red Hat Developer Lightspeed,以便 MTA 访问您的大型语言模型(LLM),您必须在 provider-settings.yaml 中输入 LLM 供应商配置。

provider-settings.yaml 文件包含默认支持的 LLM 供应商列表。每个 LLM 提供程序所需的环境变量都不同。根据您选择的供应商,您可以在 provider-settings.yaml 文件中为模型配置额外的环境变量。您还可以使用所需的环境变量、基础 URL 和模型名称输入新供应商。

供应商设置文件可在 Red Hat Developer Lightspeed for MTA Visual Studio (VS) Code 扩展中找到。

键入 Open the GenAI 模型供应商配置文件,从 VS Code 命令访问 provider -settings.yaml

注意

您可以使用供应商名称中的 &active 定位符从列表中选择一个供应商。要使用另一个供应商的模型,请将 &active 锚移到所需供应商块 之一

对于在 OpenShift AI 中部署名为 "my-model" 的模型,使用 "example-model" 作为服务名称:

models:
  openshift-example-model: &active
    environment:
      CA_BUNDLE: "<Servers CA Bundle path>"
    provider: "ChatOpenAI"
    args:
      model: "my-model"
      configuration:
        baseURL: "https://<serving-name>-<data-science-project-name>.apps.konveyor-ai.example.com/v1"
Copy to Clipboard Toggle word wrap
注意

当您更改 OpenShift AI 中部署的模型时,还必须更改 model 参数和 baseURL 端点。

注意

如果要选择公共 LLM 供应商,您必须将 &active 定位符移到所需的块中,并更改供应商参数。

对于 OpenAI 模型:

OpenAI: &active
    environment:
      OPENAI_API_KEY: "<your-API-key>" # Required
    provider: ChatOpenAI
    args:
      model: gpt-4o # Required
Copy to Clipboard Toggle word wrap

对于 Azure OpenAI:

AzureChatOpenAI: &active
    environment:
      AZURE_OPENAI_API_KEY: "" # Required
    provider: AzureChatOpenAI
    args:
      azureOpenAIApiDeploymentName: "" # Required
      azureOpenAIApiVersion: "" # Required
Copy to Clipboard Toggle word wrap

对于 Amazon Bedrock:

AmazonBedrock: &active
    environment:
      ## May have to use if no global `~/.aws/credentials`
      AWS_ACCESS_KEY_ID: "" # Required if a global ~/.aws/credentials file is not present
      AWS_SECRET_ACCESS_KEY: "" # Required if a global ~/.aws/credentials file is not present
      AWS_DEFAULT_REGION: "" # Required
    provider: ChatBedrock
    args:
      model: meta.llama3-70b-instruct-v1:0 # Required
Copy to Clipboard Toggle word wrap
注意

在进行 provider-settings 配置前,建议使用 AWS CLI 并验证您是否具有命令行访问 AWS 服务。

对于 Google Gemini:

GoogleGenAI: &active
    environment:
      GOOGLE_API_KEY: "" # Required
    provider: ChatGoogleGenerativeAI
    args:
      model: gemini-2.5-pro # Required
Copy to Clipboard Toggle word wrap

对于 Ollama:

models:
  ChatOllama: &active
    provider: "ChatOllama"
    args:
      model: "granite-code:8b-instruct"
      baseUrl: "127.0.0.1:11434" # example URL
Copy to Clipboard Toggle word wrap
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat