第2章 Red Hat Developer Lightspeed for MTA のスタートガイド


このスタートガイドセクションには、Red Hat Developer Lightspeed for Migration Toolkit for Applications をそのように活用するかの判断に役立つ、前提条件、永続ボリューム要件、インストール、ワークフローの情報が含まれています。

注記

Red Hat Developer Lightspeed for MTA の機能のサポートを受けるには、Red Hat Advanced Developer Suite (RHADS) のサブスクリプションが必要です。

2.1. 前提条件

このセクションでは、Red Hat Developer Lightspeed for MTA Visual Studio (VS) Code 拡張機能の生成 AI 機能を正常に使用するために必要な前提条件を示します。

Red Hat Developer Lightspeed for MTA をインストールする前に、次の手順を行う必要があります。

  • Language Support for Java™ by Red Hat extension のインストール
  • Java v17 以降のインストール
  • Maven v3.9.9 以降のインストール
  • Git のインストールと $PATH 変数への追加
  • MTA Operator 8.0.0 のインストール

    ソリューションサーバーが大規模言語モデル (LLM) と連携してコード変更を生成できるようにする場合は、MTA Operator が必須です。これにより、openshift-mta プロジェクトへのログインが可能になりまる。ログイン後、Tackle カスタムリソース (CR) でソリューションサーバーを有効にする必要があります。

  • LLM 用の API キーの作成

    MTA VS Code プラグインで生成 AI 設定を有効にするために、Tackle CR にプロバイダー値とモデル名を入力する必要があります。

    Expand
    表2.1 設定可能な大規模言語モデルとプロバイダー
    LLM プロバイダー (Tackle CR の値)Tackle CR 設定の大規模言語モデルの例

    OpenShift AI プラットフォーム

    Open AI 互換 API を使用してアクセスできる、OpenShift AI クラスターにデプロイされたモデル。

    Open AI (openai)

    gpt-4gpt-4ogpt-4o-minigpt-3.5-turbo

    Azure OpenAI (azure_openai)

    gpt-4gpt-35-turbo

    Amazon Bedrock (bedrock)

    anthropic.claude-3-5-sonnet-20241022-v2:0meta.llama3-1-70b-instruct-v1:0

    Google Gemini (google)

    gemini-2.0-flash-expgemini-1.5-pro

    Ollama (ollama)

    llama3.1codellamamistral

注記

公開 LLM モデルの可用性は、それぞれの LLM プロバイダーによって維持されます。

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat