第3章 ソリューションサーバーの設定


ソリューションサーバーは、Red Hat Developer Lightspeed for MTA が、組織内で実行されたすべての分析に基づくソースコード変更の集合的なメモリーを構築することを可能にするコンポーネントです。ユーザーが Visual Studio (VS) Code で問題に対するコード修正を要求すると、ソリューションサーバーは、現在のファイル内の問題に類似する問題を解決するために行われた過去のソースコード変更のパターン (解決済み事例とも呼ばれます) を拡張し、過去の解決策から導き出される信頼度の高い解決策を提案します。ユーザーが提案されたコード修正を承認すると、ソリューションサーバーは大規模言語モデル (LLM) と連携して、問題に関するヒントを改善します。この改善されたヒントはコンテキストの一部となります。コンテキストが改善されると、LLM は将来のケースでより信頼性の高いコード修正の提案を生成できるようになります。

ソリューションサーバーは、ユーザーに 2 つの主な利点をもたらします。

  • コンテキストヒント: 成功したユーザー変更や承認された修正など、移行に関する過去の解決策の例をすくい上げ、困難な移行問題やこれまで解決できなかった移行問題に対する実用的なヒントを提供します。
  • 移行の成功メトリクス: 実際の使用状況データから得られた、各移行ルールの詳細な成功メトリクスを明らかにします。これらのメトリクスを IDE または自動化ツールで使用すると、Red Hat Developer Lightspeed for MTA により特定のコードセグメントを正常に移行できる “信頼性の度合い” または確率をユーザーに提示できます。

Solution Server は、Red Hat Developer Lightspeed for MTA のオプションコンポーネントです。コードの解決策をリクエストするには、事前に次の設定を完了する必要があります。

重要

ソリューションサーバーは、テクノロジープレビュー機能です。テクノロジープレビュー機能は、Red Hat 製品のサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではないことがあります。Red Hat は、実稼働環境でこれらを使用することを推奨していません。テクノロジープレビュー機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行い、フィードバックを提供していただくことを目的としています。

Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。

Expand
表3.1 Tackle カスタムリソース内の設定可能な大規模言語モデルとプロバイダー
LLM プロバイダー (Tackle CR の値)Tackle CR 設定の大規模言語モデルの例

OpenShift AI プラットフォーム

Open AI 互換 API を使用してアクセスできる OpenShift AI クラスターにデプロイされたモデル

Open AI (openai)

gpt-4gpt-4ogpt-4o-minigpt-3.5-turbo

Azure OpenAI (azure_openai)

gpt-4gpt-35-turbo

Amazon Bedrock (bedrock)

anthropic.claude-3-5-sonnet-20241022-v2:0meta.llama3-1-70b-instruct-v1:0

Google Gemini (google)

gemini-2.0-flash-expgemini-1.5-pro

Ollama (ollama)

llama3.1codellamamistral

3.1. モデルのシークレットキーの設定

MTA Operator をインストールした Red Hat OpenShift プロジェクトで、大規模な言語モデル(LLM)プロバイダーの Kubernetes シークレットを設定する必要があります。

注記

次のコマンドの oc は、kubectl に置き換えることができます。

注記

Solution Server に必要なリソースを生成するには、OpenShift クラスターに LLM API キーシークレットを作成する必要があります。LLM API キーシークレットを設定しない場合、MTA の Red Hat Developer Lightspeed は、Solution Server の実行に必要なリソースを作成しません。

手順

  1. openshift-mta プロジェクトに kai-api-keys という名前の認証情報シークレットを作成します。

    1. プロバイダーとして Amazon Bedrock を使用する場合は、次のように入力します。

      oc create secret generic aws-credentials \
       --from-literal=AWS_ACCESS_KEY_ID=<YOUR_AWS_ACCESS_KEY_ID> \
       --from-literal=AWS_SECRET_ACCESS_KEY=<YOUR_AWS_SECRET_ACCESS_KEY>
      Copy to Clipboard Toggle word wrap
    2. プロバイダーとして Azure OpenAI を使用する場合は、次のように入力します。

      oc create secret generic kai-api-keys -n openshift-mta \
       --from-literal=AZURE_OPENAI_API_KEY='<YOUR_AZURE_OPENAI_API_KEY>'
      Copy to Clipboard Toggle word wrap
    3. プロバイダーとして Google を使用する場合は、次のように入力します。

      oc create secret generic kai-api-keys -n openshift-mta \
       --from-literal=GEMINI_API_KEY='<YOUR_GOOGLE_API_KEY>'
      Copy to Clipboard Toggle word wrap
    4. OpenAI 互換プロバイダーの場合は、次のように入力します。

      oc create secret generic kai-api-keys -n openshift-mta \
       --from-literal=OPENAI_API_BASE='https://example.openai.com/v1' \
       --from-literal=OPENAI_API_KEY='<YOUR_OPENAI_KEY>'
      Copy to Clipboard Toggle word wrap
      注記

      ベース URL を Tackle カスタムリソースの kai_llm_baseurl 変数として設定することもできます。

  2. (オプション) MTA Operator がすぐにシークレットを取得するように、強制的にリコンサイルします。

    kubectl patch tackle tackle -n openshift-mta --type=merge -p \
    '{"metadata":{"annotations":{"konveyor.io/force-reconcile":"'"$(date +%s)"'"}}}'
    Copy to Clipboard Toggle word wrap
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat