第1章 OpenShift Lightspeed のインストール
Red Hat OpenShift Lightspeed のインストールプロセスは、OpenShift Lightspeed Operator のインストールと、大規模言語モデル (LLM) プロバイダーと対話するための OpenShift Lightspeed サービスの設定という 2 つの主なタスクで設定されます。
1.1. 大規模言語モデル (LLM) の概要 リンクのコピーリンクがクリップボードにコピーされました!
大規模言語モデル (LLM) は、膨大な量のデータでトレーニングされた人工知能プログラムの一種です。OpenShift Lightspeed Service は LLM と対話して質問への回答を生成します。
Red Hat Enterprise Linux AI または Red Hat OpenShift AI を OpenShift Lightspeed Service の LLM プロバイダーとして設定できます。どちらの LLM プロバイダーも、推論クエリーを処理するサーバーまたは推論サービスを使用できます。
または、OpenShift Lightspeed Service を、IBM watsonx、OpenAI、Microsoft Azure OpenAI などの公開されている LLM プロバイダーに接続することもできます。
OpenShift Lightspeed Operator をインストールしても、LLM プロバイダーはインストールされません。OpenShift Lightspeed Operator をインストールする前に、LLM プロバイダーが使用可能になっている必要があります。
1.1.1. OpenShift Lightspeed と連携した Red Hat Enterprise Linux AI リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Enterprise Linux AI を使用して LLM をホストできます。
詳細は、RHEL AI を使用したカスタム LLM の生成 を参照してください。
1.1.2. OpenShift Lightspeed と連携した Red Hat OpenShift AI リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift AI を使用して LLM をホストできます。
詳細は、単一モデルサービングプラットフォーム を参照してください。
1.1.3. OpenShift Lightspeed と連携した IBM watsonx リンクのコピーリンクがクリップボードにコピーされました!
IBM watsonx を LLM プロバイダーとして設定するには、IBM watsonx にアクセスできる IBM Cloud プロジェクトが必要です。また、IBM watsonx API キーも必要です。
詳細は、公式の IBM watsonx の 製品ドキュメント を参照してください。
1.1.4. OpenShift Lightspeed と連携した OpenAI リンクのコピーリンクがクリップボードにコピーされました!
OpenAI を OpenShift Lightspeed で LLM プロバイダーとして設定するには、設定プロセスで OpenAI API キーまたは OpenAI プロジェクト名のいずれかが必要です。
OpenAI サービスには、プロジェクトとサービスアカウントの機能があります。OpenShift Lightspeed の使用状況を正確に追跡できるように、専用プロジェクトでサービスアカウントを使用できます。
詳細は、公式の OpenAI の 製品ドキュメント を参照してください。
1.1.5. OpenShift Lightspeed と連携した Microsoft Azure OpenAI リンクのコピーリンクがクリップボードにコピーされました!
Microsoft Azure OpenAI を LLM プロバイダーとして設定するには、Microsoft Azure OpenAI サービスインスタンスが必要です。そのインスタンスには、Microsoft Azure OpenAI Studio に少なくとも 1 つのモデルデプロイメントが必要です。
詳細は、公式の Microsoft Azure OpenAI 製品ドキュメント を参照してください。