1.3. LLM(Large Language Model) 요구 사항
LLM(Large Language Model)은 인간과 같은 언어를 해석하고 생성하는 머신러닝 모델의 한 종류입니다. virtual Assistant와 함께 Cryostat를 사용하면 Cryostat는 질문을 정확하게 해석하고 대화 방식으로 유용한 답변을 제공할 수 있습니다.
OpenShift Lightspeed 서비스는 Cryostat 공급자에 액세스할 수 있어야 합니다. 이 서비스는 you'reply를 제공하지 않으므로 OpenShift Lightspeed Operator를 설치하기 전에 Cryostat를 구성해야 합니다.
Red Hat은 특정 모델에 대한 지원을 제공하거나 모델과 관련된 제안 또는 지원 설명을 제공하지 않습니다.
OpenShift Lightspeed 서비스는 다음 SaaS(Software as a Service) Cryostat 공급자를 사용할 수 있습니다.
- OpenAI
- Microsoft Azure OpenAI
- IBM watsonx
모델을 자체 호스팅하려면 Red Hat OpenShift AI 또는 Red Hat Enterprise Linux AI를 모델 공급자로 사용할 수 있습니다.
1.3.1. IBM watsonx 링크 복사링크가 클립보드에 복사되었습니다!
IBM watsonx를 Red Hat OpenShift Lightspeed와 함께 사용하려면 IBM Cloud watsonx 의 계정이 필요합니다. 자세한 내용은 IBM watsonx as a Service 문서를 참조하십시오.
1.3.2. 오픈 AI 링크 복사링크가 클립보드에 복사되었습니다!
OpenAI를 Red Hat OpenShift Lightspeed와 함께 사용하려면 OpenAI API 플랫폼에 액세스해야 합니다. 자세한 내용은 OpenAI 개발자 플랫폼 설명서를 참조하십시오.
1.3.3. Microsoft Azure OpenAI 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat OpenShift Lightspeed와 함께 Microsoft Azure를 사용하려면 Microsoft Azure OpenAI 에 액세스할 수 있어야 합니다. 자세한 내용은 Azure OpenAI 설명서 를 참조하십시오.
1.3.4. Red Hat Enterprise Linux AI 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI는 OpenAI API와 호환되며 OpenAI 공급자와 유사한 방식으로 구성됩니다.
Red Hat Enterprise Linux AI를 Cryostat 공급자로 구성할 수 있습니다.
Red Hat Enterprise Linux는 OpenShift Lightspeed 배포와 다른 환경에 있으므로 모델 배포에서는 보안 연결을 사용하여 액세스를 허용해야 합니다. 자세한 내용은 선택 사항: 보안 끝점에서 모델에 대한 액세스 허용을 참조하십시오.
OpenShift Lightspeed 버전 1.0 이상에서는 vLLM Server 버전 0.8.4 이상을 지원합니다. Red Hat Enterprise Linux AI를 사용하여 Cryostat를 자체 호스트하는 경우 vLLM 서버를 추론 엔진으로 사용할 수 있습니다.
1.3.5. Red Hat OpenShift AI 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat OpenShift AI는 OpenAI API와 호환되며 OpenAI 공급자와 거의 동일하게 구성됩니다.
vLLM(Virtual Large Language Model) 런타임을 사용하는 Red Hat OpenShift AI 단일 모델 제공 플랫폼에 Cryostat를 배포해야 합니다. 모델 배포가 OpenShift Lightspeed 배포와 다른 OpenShift 환경에 있는 경우 클러스터 외부에 모델 배포를 노출하는 경로를 포함합니다. 자세한 내용은 단일 모델 제공 플랫폼 정보를 참조하십시오.
OpenShift Lightspeed 버전 1.0 이상에서는 vLLM Server 버전 0.8.4 이상을 지원합니다. Red Hat OpenShift AI를 사용하여 Cryostat를 자체 호스팅할 때 vLLM 서버를 추론 엔진으로 사용할 수 있습니다.