2장. OpenShift AI 설치 및 배포
Red Hat OpenShift AI는 데이터 과학자 및 AI(인공 지능) 애플리케이션 개발자를 위한 플랫폼입니다. 완전히 지원되는 환경을 제공하므로 온프레미스 및/또는 퍼블릭 클라우드에서 머신러닝 모델을 신속하게 개발, 교육, 테스트 및 배포할 수 있습니다.
OpenShift AI는 Red Hat OpenShift용 관리형 클라우드 서비스 애드온 또는 온프레미스 또는 OpenShift의 퍼블릭 클라우드에 설치할 수 있는 자체 관리 소프트웨어로 제공됩니다.
연결된 또는 연결이 끊긴 환경의 OpenShift 클러스터에 OpenShift AI를 자체 관리 소프트웨어로 설치하는 방법에 대한 자세한 내용은 Red Hat OpenShift AI Self-Managed 제품 설명서 를 참조하십시오.
데이터 사이언스 파이프라인 2.0에는 Argo Workflows 설치가 포함되어 있습니다. Red Hat은 이 Argo 워크플로우 인스턴스를 직접 사용하는 것을 지원하지 않습니다. 데이터 사이언스 파이프라인 2.0을 사용하여 OpenShift AI를 설치하려면 클러스터에 별도의 Argo Workflow 인스턴스가 없는지 확인합니다.
관리형 클라우드 서비스 애드온으로 Red Hat OpenShift AI에 대한 배포 옵션은 다음 두 가지가 있습니다.
Amazon Web Services 또는 Google Cloud Platform에서 고객 클라우드 서브스크립션이 있는 OpenShift Dedicated
OpenShift Dedicated는 클라우드 서비스로 제공되는 완전한 OpenShift Container Platform 클러스터이며 고가용성을 위해 구성되며 단일 고객 전용으로 구성됩니다. OpenShift Dedicated는 Red Hat에서 관리하며 AWS(Amazon Web Services) 또는 GCP(Google Cloud Platform)에서 호스팅됩니다. CCO(고객 클라우드 서브스크립션) 모델을 통해 Red Hat은 고객의 AWS 또는 GCP 계정에 클러스터를 배포하고 관리할 수 있습니다. CCS를 통해 OpenShift Dedicated를 얻으려면 Red Hat 계정 관리자에게 문의하십시오.
Red Hat OpenShift Service on AWS(ROSA 클래식)
ROSA는 애플리케이션을 구축하고 배포하여 고객에게 가치를 제공하는 데 집중할 수 있는 완전한 턴키 애플리케이션 플랫폼입니다. AWS 계정에서 직접 서비스에 등록합니다.
관리형 클라우드 서비스로 OpenShift AI를 설치하려면 다음과 같은 상위 수준 작업이 포함됩니다.
- OpenShift 클러스터가 모든 요구 사항을 충족하는지 확인합니다.
- OpenShift 클러스터의 ID 공급자를 구성합니다.
- OpenShift 클러스터의 관리 사용자를 추가합니다.
Red Hat OpenShift AI 애드온에 가입하십시오.
AWS 또는 GCP용 CCS를 사용하는 OpenShift Dedicated의 경우 Red Hat을 통해 서브스크립션을 받으십시오.
ROSA 클래식의 경우 AWS Marketplace를 통해 서브스크립션을 받으십시오.
- Red Hat OpenShift AI 애드온을 설치합니다.
- OpenShift AI 대시보드에 액세스합니다.
- 선택적으로 OpenShift AI에서 액셀러레이터를 구성하고 활성화하여 데이터 과학자가 모델에서 컴퓨팅 집약적인 워크로드를 사용할 수 있도록 합니다. 가속기 활성화를 참조하십시오.
2.1. OpenShift AI 요구사항 링크 복사링크가 클립보드에 복사되었습니다!
ROSA(Amazon Web Services) 클러스터에서 Red Hat OpenShift Dedicated 또는 Red Hat OpenShift Service에 OpenShift AI를 설치하려면 먼저 다음 요구 사항을 충족해야 합니다.
Red Hat OpenShift Dedicated 서브스크립션 또는 ROSA 서브스크립션
AWS에서 Customer Cloud 서브스크립션을 사용하거나 GCP 모델의 Customer Cloud Subscription을 사용하여 AWS(Amazon Web Services) 또는 GCP(Google Cloud Platform) 계정에 Red Hat OpenShift Dedicated를 배포할 수 있습니다. https://docs.redhat.com/en/documentation/openshift_dedicated/4/html/planning_your_environment/gcp-ccs Red Hat은 Red Hat 클라우드 계정에 OpenShift Dedicated를 설치하는 옵션을 제공하지만 OpenShift AI를 설치하려면 자체 클라우드 계정에 OpenShift Dedicated를 설치해야 합니다.
새 Red Hat OpenShift Dedicated 서브스크립션을 구매하려면 Red Hat 계정 관리자에게 문의하십시오. 계정 관리자가 아직 없는 경우 https://cloud.redhat.com/products/dedicated/contact/ 에서 양식을 작성하여 요청할 수 있습니다.
AWS 계정에서 직접 또는 Red Hat 계정 관리자에게 문의하여 AWS의 Red Hat OpenShift Service(ROSA 클래식)를 구독할 수 있습니다.
Red Hat 고객 계정
OpenShift Cluster Manager(http://console.redhat.com/openshift)로 이동하여 새 계정에 로그인하거나 등록합니다.
OpenShift 클러스터에 대한 클러스터 관리자 액세스
클러스터 관리자 액세스 권한이 있는 OpenShift 클러스터가 있어야 합니다. 기존 클러스터를 사용하거나 관련 문서의 단계에 따라 클러스터를 생성합니다.
- 다음 요구 사항을 충족하는 OpenShift Dedicated 또는 ROSA 클러스터 구성
추가 기능을 설치할 때 OpenShift AI에서 사용할 수 있는 CPU 8개 이상 및 32GiB RAM이 있는 작업자 노드 2개 이상 이 요구 사항이 충족되지 않으면 설치 프로세스가 시작되지 않고 오류가 표시됩니다.
새 클러스터를 생성할 때 컴퓨터 노드 인스턴스 유형에 대해 m6a.2xlarge 를 선택하여 요구 사항을 충족합니다.
기존 ROSA 클래식 클러스터의 경우 다음 명령을 사용하여 컴퓨팅 노드 인스턴스 유형을 가져올 수 있습니다.
rosa list machinepools --cluster=cluster-name클러스터의 컴퓨팅 노드 인스턴스 유형을 변경할 수는 없지만 추가 머신 풀을 추가하거나 최소 요구 사항을 충족하도록 기본 풀을 수정할 수 있습니다. 그러나 최소 리소스 요구 사항은 클러스터의 단일 시스템 풀에서 충족해야 합니다.
자세한 내용은 관련 설명서를 참조하십시오.
ROSA 클러스터의 경우 액세스 관리 전략을 선택합니다.
ROSA 클래식 클러스터에 OpenShift AI를 설치하기 위해 AWS STS(Security Token Service)를 사용하는 ROSA 클러스터에 설치할지 아니면 AWS Identity and Access Management(IAM) 인증 정보를 사용하는 ROSA 클러스터에 설치할지 여부를 결정합니다. AWS STS를 사용하거나 사용하지 않고 ROSA 클러스터를 배포하는 방법에 대한 자세한 내용은 ROSA 클래식 클러스터 설치를 참조하십시오.
KServe 종속 항목 설치
- 단일 모델 제공 플랫폼에서 대규모 모델을 제공하는 데 사용하는 KServe 구성 요소를 지원하려면 Red Hat OpenShift Serverless 및 Red Hat OpenShift Service Mesh용 Operator도 설치하고 추가 구성을 수행해야 합니다. 자세한 내용은 단일 모델 제공 플랫폼 정보를 참조하십시오.
-
단일 모델 서비스 플랫폼에 대한 권한 부여 공급자를 추가하려면
Red Hat - AuthorinoOperator를 설치해야 합니다. 자세한 내용은 단일 모델 제공 플랫폼에 대한 권한 부여 공급자 추가를 참조하십시오.
RAG 종속 항목 설치
L#178a Stack을 사용하여 RG(Retrieval-Augmented Generation) 워크로드를 배포하려면 다음 요구 사항을 충족해야 합니다.
- 클러스터에 GPU 지원 노드를 사용할 수 있으며 Node Feature Discovery Operator 및 NVIDIA GPU Operator를 설치했습니다. 자세한 내용은 Node Feature Discovery Operator 설치 및 NVIDIA GPU 활성화를 참조하십시오.
- 모델 아티팩트를 위한 스토리지에 액세스할 수 있습니다.
- KServe 설치 사전 요구 사항을 충족했습니다.
오브젝트 스토리지에 대한 액세스
- OpenShift AI의 구성 요소는 AWS S3, MinIO, Ceph 또는 IBM Cloud Storage와 같은 S3 호환 오브젝트 스토리지를 요구하거나 사용할 수 있습니다. 오브젝트 저장소는 사용자가 오브젝트 또는 파일로 데이터에 액세스할 수 있는 데이터 스토리지 메커니즘입니다. S3 API는 오브젝트 스토리지 서비스에 대한 HTTP 기반 액세스에 대해 인식된 표준입니다.
다음 구성 요소에는 오브젝트 스토리지가 필요합니다.
- 저장된 모델을 배포하기 위한 단일 모델 또는 다중 모델 제공 플랫폼. 단일 모델 서비스 플랫폼에 모델 배포 또는 다중 모델 서비스 플랫폼을 사용하여 모델 배포를 참조하십시오.
- 데이터 사이언스 파이프라인, 아티팩트, 로그 및 중간 결과를 저장합니다. 파이프라인 서버 구성 및 파이프라인 로그 정보를 참조하십시오.
오브젝트 스토리지는 다음 구성 요소에서 사용할 수 있습니다.
- 대규모 데이터 집합에 액세스하기 위한 워크벤치. 데이터 과학 프로젝트에 연결 추가를 참조하십시오.
- 분산 워크로드 - 입력 데이터를 가져와서 결과를 내보낼 수 있습니다. 데이터 사이언스 파이프라인의 분산 데이터 사이언스 워크로드 실행을 참조하십시오.
- 파이프라인 내에서 실행되는 코드입니다. 예를 들어 결과 모델을 오브젝트 스토리지에 저장하려면 다음을 수행합니다. pipe pyterlab의 파이프라인 개요 를 참조하십시오.