1.3. 大規模言語モデル (LLM) の要件


テクノロジープレビューリリースの一部として、OpenShift Lightspeed は次の Software as a Service (SaaS) 大規模言語モデル (LLM) プロバイダーに依存できます。

  • OpenAI
  • Microsoft Azure OpenAI
  • IBM WatsonX
注記

多くの自己ホスト型または自己管理型のモデルサーバーは、OpenAI との API 互換性を主張しています。OpenShift Lightspeed OpenAI プロバイダーは、API 互換のモデルサーバーを指すように設定できます。特に認証関係など、モデルが実際に API との互換性がある場合には、機能する可能性があります。これらの設定は Red Hat がテストしておらず、その使用に関連する問題はテクノロジープレビューサポートの範囲外です。

Red Hat OpenShift AI を使用した OpenShift Lightspeed 設定の場合、独自の LLM プロバイダーをホストする必要があります。

1.3.1. OpenAI について

OpenAI を Red Hat OpenShift Lightspeed で使用するには、OpenAI API プラットフォーム へのアクセス権が必要です。

1.3.2. Azure OpenAI について

Microsoft Azure を Red Hat OpenShift Lightspeed で使用するには、Microsoft Azure OpenAI にアクセスできる必要があります。

1.3.3. WatsonX について

Red Hat OpenShift Lightspeed で IBM WatsonX を使用するには、IBM Cloud の WatsonX のアカウントが必要です。

1.3.4. Red Hat Enterprise Linux AI について

Red Hat Enterprise Linux AI は OpenAI API と互換性があり、OpenAI プロバイダーと同様の方法で設定されます。

Red Hat Enterprise Linux AI を (大規模言語モデル) LLM プロバイダーとして設定できます。

Red Hat Enterprise Linux は OpenShift Lightspeed デプロイメントとは異なる環境にあるため、モデルデプロイメントでは安全な接続を使用したアクセスを許可する必要があります。詳細は、オプション: 保護されたエンドポイントからモデルへのアクセスを許可する を参照してください。

1.3.5. Red Hat OpenShift AI について

Red Hat OpenShift AI は OpenAI API と互換性があり、OpenAI プロバイダーとほぼ同じように設定されています。

仮想大規模言語モデル (vLLM) ランタイムを使用して、Red Hat OpenShift AI の単一のモデル提供プラットフォームにデプロイされた大規模言語モデル (LLM) が必要です。モデルのデプロイメントが OpenShift Lightspeed デプロイメントとは異なる OpenShift 環境にある場合、モデルのデプロイメントにはクラスター外部に公開するためのルートが含まれている必要があります。詳細は、シングルモデルサービングプラットフォームについて を参照してください。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.