1장. OpenShift Lightspeed 설치
Red Hat OpenShift Lightspeed 설치 프로세스는 Lightspeed Operator 설치 및 대용량 언어 모델(LLM) 공급자와 상호 작용하도록 Lightspeed 서비스 구성의 두 가지 주요 작업으로 구성됩니다.
1.1. LLM(Large Language Model) 개요 링크 복사링크가 클립보드에 복사되었습니다!
LLM(Large Language Model)은 대량의 데이터를 학습한 인공 지능 프로그램의 한 유형입니다. OpenShift Lightspeed 서비스는 Cryostat와 상호 작용하여 질문에 대한 답변을 생성합니다.
Red Hat Enterprise Linux AI 또는 Red Hat OpenShift AI를 OpenShift Lightspeed 서비스의 Cryostat 공급자로 구성할 수 있습니다. Cryostat 공급자는 유추 쿼리를 처리하는 서버 또는 유추 서비스를 사용할 수 있습니다.
또는 IBM watsonx, OpenAI 또는 Microsoft Azure OpenAI와 같은 공개적으로 사용 가능한 Cryostat 공급자에 OpenShift Lightspeed 서비스를 연결할 수 있습니다.
OpenShift Lightspeed Operator를 설치하기 전에 Cryostat 공급자를 구성합니다. Operator를 설치해도 Cryostat 공급자를 설치하지 않습니다.
1.1.1. OpenShift Lightspeed를 사용한 Red Hat Enterprise Linux AI 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI를 사용하여 Cryostat를 호스팅할 수 있습니다.
자세한 내용은 RHEL AI를 사용하여 사용자 지정 Cryostat 생성 을 참조하십시오.
1.1.2. OpenShift Lightspeed를 사용한 Red Hat OpenShift AI 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat OpenShift AI를 사용하여 Cryostat를 호스팅할 수 있습니다.
자세한 내용은 단일 모델 제공 플랫폼을 참조하십시오.
1.1.3. IBM watsonx with OpenShift Lightspeed 링크 복사링크가 클립보드에 복사되었습니다!
IBM watsonx를 Cryostat 공급자로 구성하려면 IBM watsonx에 액세스할 수 있는 IBM Cloud 프로젝트가 필요합니다. IBM watsonx API 키도 필요합니다.
자세한 내용은 공식 IBM watsonx 제품 설명서를 참조하십시오.
1.1.4. OpenShift Lightspeed를 사용한 OpenAI 링크 복사링크가 클립보드에 복사되었습니다!
OpenShift Lightspeed를 사용하여 OpenAI 공급자를 구성하려면 구성 프로세스 중에 OpenAI API 키 또는 OpenAI 프로젝트 이름이 필요합니다.
OpenAI Service에는 프로젝트 및 서비스 계정의 기능이 있습니다. OpenShift Lightspeed 사용량을 정확하게 추적할 수 있도록 전용 프로젝트에서 서비스 계정을 사용할 수 있습니다.
자세한 내용은 OpenAI 제품 설명서 를 참조하십시오.
1.1.5. OpenShift Lightspeed를 사용한 Microsoft Azure OpenAI 링크 복사링크가 클립보드에 복사되었습니다!
Microsoft Azure OpenAI를 Cryostat 공급자로 구성하려면 Microsoft Azure OpenAI Service 인스턴스가 필요합니다. 해당 인스턴스에 대해 Microsoft Azure OpenAI Studio에 하나 이상의 모델 배포가 있어야 합니다.
자세한 내용은 공식 Microsoft Azure OpenAI 제품 설명서를 참조하십시오.