1.3. 大規模言語モデル (LLM) の要件
大規模言語モデル (LLM) は、人間のような言語を解釈して生成する機械学習モデルの一種です。LLM を仮想アシスタントと併用すると、LLM は質問を正確に解釈し、会話形式で役立つ回答を提供できます。
OpenShift Lightspeed サービスは LLM プロバイダーにアクセスできる必要があります。このサービスでは LLM は提供されないため、OpenShift Lightspeed Operator をインストールする前に LLM を設定する必要があります。
Red Hat は、特定のモデルに対するサポートの提供、モデルに関する提案、またはサポートステートメントは行っておりません。
OpenShift Lightspeed サービスは、次の Software as a Service (SaaS) LLM プロバイダーに対応しています。
- OpenAI
- Microsoft Azure OpenAI
- IBM watsonx
モデルをセルフホストする場合は、モデルプロバイダーとして Red Hat OpenShift AI または Red Hat Enterprise Linux AI を使用できます。
1.3.1. IBM watsonx リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Lightspeed で IBM watsonx を使用するには、IBM Cloud watsonx のアカウントが必要です。詳細は、IBM watsonx as a Service のドキュメント を参照してください。
1.3.2. Open AI リンクのコピーリンクがクリップボードにコピーされました!
OpenAI を Red Hat OpenShift Lightspeed で使用するには、OpenAI API プラットフォーム へのアクセス権が必要です。詳細は、OpenAI 開発者プラットフォーム のドキュメントを参照してください。
1.3.3. Microsoft Azure OpenAI リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Lightspeed で Microsoft Azure を使用するには、Microsoft Azure OpenAI にアクセスする必要があります。詳細は、Azure OpenAI のドキュメント を参照してください。
1.3.4. Red Hat Enterprise Linux AI リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI は OpenAI API と互換性があり、OpenAI プロバイダーと同様の方法で設定されます。
Red Hat Enterprise Linux AI を LLM プロバイダーとして設定できます。
Red Hat Enterprise Linux は OpenShift Lightspeed デプロイメントとは異なる環境にあるため、モデルデプロイメントでは安全な接続を使用したアクセスを許可する必要があります。詳細は、オプション: 保護されたエンドポイントからモデルへのアクセスを許可する を参照してください。
OpenShift Lightspeed バージョン 1.0 以降では、vLLM Server バージョン 0.8.4 以降がサポートされます。Red Hat Enterprise Linux AI を使用して LLM をセルフホストする場合、vLLM Server を推論エンジンとして使用できます。
1.3.5. Red Hat OpenShift AI リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift AI は OpenAI API と互換性があり、OpenAI プロバイダーとほぼ同じように設定されています。
Virtual Large Language Model (vLLM) ランタイムを使用する Red Hat OpenShift AI シングルモデルサービングプラットフォームに LLM をデプロイする必要があります。モデルデプロイメントが OpenShift Lightspeed デプロイメントとは異なる OpenShift 環境に存在する場合は、モデルデプロイメントをクラスター外部に公開するためのルートを含めます。詳細は、シングルモデルサービングプラットフォームについて を参照してください。
OpenShift Lightspeed バージョン 1.0 以降では、vLLM Server バージョン 0.8.4 以降がサポートされます。Red Hat OpenShift AI を使用して LLM をセルフホストする場合、vLLM Server を推論エンジンとして使用できます。