1장. OpenShift AI 자체 관리형 아키텍처
Red Hat OpenShift AI Self-Managed는 Red Hat OpenShift Container Platform과 같은 자체 관리 환경 또는 Red Hat OpenShift Dedicated(AWS 또는 GCP의 고객 클라우드 서브스크립션 포함), Amazon Web Services의 Red Hat OpenShift Service(ROSA Classic 또는 ROSA HCP) 또는 Microsoft Azure Red Hat OpenShift와 같은 자체 관리 환경에서 사용할 수 있는 Operator입니다.
OpenShift AI는 다음 구성 요소 및 서비스를 통합합니다.
서비스 계층에서 다음을 수행합니다.
- OpenShift AI 대시보드
- OpenShift AI 환경에 사용 및 설치된 애플리케이션과 튜토리얼, 퀵 스타트 및 문서와 같은 학습 리소스를 보여주는 고객용 대시보드입니다. 관리 사용자는 기능에 액세스하여 사용자, 클러스터, 노트북 이미지, 하드웨어 프로필 및 모델 서비스 런타임을 관리할 수 있습니다. 데이터 과학자는 대시보드를 사용하여 데이터 과학 작업을 구성하는 프로젝트를 만들 수 있습니다.
- 모델 서비스
- 데이터 과학자는 숙련된 머신 러닝 모델을 배포하여 프로덕션 환경에서 지능형 애플리케이션을 제공할 수 있습니다. 배포 후 애플리케이션은 배포된 API 엔드포인트를 사용하여 모델에 요청을 보낼 수 있습니다.
- 데이터 과학 파이프라인
- 데이터 과학자는 Docker 컨테이너를 사용하여 데이터 사이언스 파이프라인 2.0을 사용하여 이식 가능한 ML(Machine learning) 워크플로를 구축할 수 있습니다. 데이터 사이언스 파이프라인을 통해 데이터 과학자는 데이터 사이언스 모델을 개발할 때 워크플로를 자동화할 수 있습니다.
- sendpyter (self-managed)
- 데이터 과학자가 자체 노트북 서버 환경을 구성하고, shepyterLab에서 머신 러닝 모델을 개발할 수 있는 자체 관리형 애플리케이션.
- 분산 워크로드
- 데이터 과학자는 여러 노드를 병렬로 사용하여 머신 러닝 모델을 학습하거나 데이터를 보다 신속하게 처리할 수 있습니다. 이 접근 방식은 작업 완료 시간을 크게 줄이고 더 큰 데이터 세트 및 더 복잡한 모델을 사용할 수 있습니다.
관리 계층에서 다음을 수행합니다.
- Red Hat OpenShift AI Operator
- OpenShift AI의 일부인 모든 구성 요소 및 하위 요소를 배포하고 유지 관리하는 meta-operator입니다.
OpenShift 클러스터에 Red Hat OpenShift AI Operator를 설치하면 다음과 같은 새 프로젝트가 생성됩니다.
-
redhat-ods-operator프로젝트에는 Red Hat OpenShift AI Operator가 포함되어 있습니다. -
redhat-ods-applications프로젝트는 OpenShift AI의 대시보드 및 기타 필수 구성 요소를 설치합니다. -
rhods-notebooks프로젝트는 노트북 환경이 기본적으로 배포되는 위치입니다.
귀하 또는 데이터 과학자는 머신러닝 모델을 사용할 애플리케이션에 대한 추가 프로젝트를 생성해야 합니다.
OpenShift AI와 연결된 네임스페이스에 ISV(독립 소프트웨어 벤더) 애플리케이션을 설치하지 마십시오.