4.2. LLM プロバイダー設定の指定


Red Hat Developer Lightspeed for migration toolkit for applications は、特定の大規模言語モデル (LLM) に依存せず、任意の LLM と統合できます。Red Hat Developer Lightspeed for MTA による大規模言語モデル (LLM) へのアクセスを可能にするには、provider-settings.yaml ファイルに LLM プロバイダー設定を入力する必要があります。

provider-settings.yaml ファイルには、デフォルトでサポートされている LLM プロバイダーのリストが含まれています。LLM プロバイダーごとに必須の環境変数が異なります。provider-settings.yaml ファイルで、選択したプロバイダーに応じて、モデルの追加の環境変数を設定できます。必要な環境変数、ベース URL、モデル名を使用して新しいプロバイダーを入力することもできます。

プロバイダー設定ファイルは、Red Hat Developer Lightspeed for MTA Visual Studio (VS) Code 拡張機能で利用できます。

Open the GenAI model provider configuration file と入力して、VS Code コマンドパレットから provider-settings.yaml にアクセスします。

注記

プロバイダーの名前に &active アンカーを使用することで、リストから 1 つのプロバイダーを選択できます。別のプロバイダーのモデルを使用するには、&active アンカーを目的のプロバイダーブロックの いずれか 1 つ に移動します。

OpenShift AI に "example-model" というサービング名でデプロイされた "my-model" という名前のモデルの場合:

models:
  openshift-example-model: &active
    environment:
      CA_BUNDLE: "<Servers CA Bundle path>"
    provider: "ChatOpenAI"
    args:
      model: "my-model"
      configuration:
        baseURL: "https://<serving-name>-<data-science-project-name>.apps.konveyor-ai.example.com/v1"
Copy to Clipboard Toggle word wrap
注記

OpenShift AI にデプロイされた model を変更する場合は、model 引数と baseURL エンドポイントも変更する必要があります。

注記

パブリック LLM プロバイダーを選択する場合は、&active アンカーを目的のブロックに移動し、プロバイダー引数を変更する必要があります。

OpenAI モデルの場合:

OpenAI: &active
    environment:
      OPENAI_API_KEY: "<your-API-key>" # Required
    provider: ChatOpenAI
    args:
      model: gpt-4o # Required
Copy to Clipboard Toggle word wrap

Azure OpenAI の場合:

AzureChatOpenAI: &active
    environment:
      AZURE_OPENAI_API_KEY: "" # Required
    provider: AzureChatOpenAI
    args:
      azureOpenAIApiDeploymentName: "" # Required
      azureOpenAIApiVersion: "" # Required
Copy to Clipboard Toggle word wrap

Amazon Bedrock の場合:

AmazonBedrock: &active
    environment:
      ## May have to use if no global `~/.aws/credentials`
      AWS_ACCESS_KEY_ID: "" # Required if a global ~/.aws/credentials file is not present
      AWS_SECRET_ACCESS_KEY: "" # Required if a global ~/.aws/credentials file is not present
      AWS_DEFAULT_REGION: "" # Required
    provider: ChatBedrock
    args:
      model: meta.llama3-70b-instruct-v1:0 # Required
Copy to Clipboard Toggle word wrap
注記

provider-settings の設定に進む前に、AWS CLI を使用して AWS サービスへのコマンドラインアクセス権があることを確認することを推奨します。

Google Gemini の場合:

GoogleGenAI: &active
    environment:
      GOOGLE_API_KEY: "" # Required
    provider: ChatGoogleGenerativeAI
    args:
      model: gemini-2.5-pro # Required
Copy to Clipboard Toggle word wrap

Ollama の場合:

models:
  ChatOllama: &active
    provider: "ChatOllama"
    args:
      model: "granite-code:8b-instruct"
      baseUrl: "127.0.0.1:11434" # example URL
Copy to Clipboard Toggle word wrap
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat