3장. 기술 프리뷰 기능
이 섹션에서는 Red Hat OpenShift AI 2.22의 기술 프리뷰 기능에 대해 설명합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하는 것을 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
- 프로젝트의 모든 파이프라인에 대한 캐싱을 비활성화하는 새로운 옵션
-
클러스터 관리자는 이제 파이프라인 서버의 모든 데이터 사이언스 파이프라인에 대한 캐싱을 비활성화할 수 있습니다. 이 글로벌 설정은 디버깅, 개발 또는 결정적 재실행이 필요한 경우에 유용합니다. 이 설정을 적용하려면DSPA(
DataSciencePipelinesApplication
) 사용자 정의 리소스에서spec.apiServer.cacheEnabled
필드를false
로 설정합니다. 자세한 내용은 데이터 사이언스 파이프라인 캐싱 개요 를 참조하십시오.
- Kubernetes API를 사용하여 파이프라인 정의 및 관리
-
이제 Kubernetes API를 사용하여 데이터 정보 파이프라인 및 파이프라인 버전을 정의하고 관리할 수 있으며 이를 내부 데이터베이스 대신 클러스터에 사용자 지정 리소스로 저장할 수 있습니다. 이 기술 프리뷰 기능을 사용하면 OpenShift GitOps(Argo CD) 또는 유사한 툴을 사용하여 파이프라인을 쉽게 관리할 수 있으며 OpenShift AI 사용자 인터페이스, API 및
kfp
SDK를 통해 관리할 수 있습니다. 이 기능을 활성화하려면DSPA(DataSciencePipelinesApplication) 사용자 정의 리소스에서 spec.apiServer.pipelineStore 필드를 kubernetes로 설정합니다. 자세한 내용은 Kubernetes API를 사용하여 파이프라인 정의를 참조하십시오. - LAB-tuning을 통한 모델 사용자 정의
이제 LAB-tuning이 기술 프리뷰 기능으로 제공되므로 데이터 과학자는 대규모 언어 모델(LLM)을 사용자 정의할 수 있도록 엔드 투 엔드 워크플로를 실행할 수 있습니다. LAB(Large-scale Alignment for chatBots) 방법은 taxonomy-guided 합성 데이터 생성(SDG) 및 다단계 교육 접근 방식을 활용하여 기존의 미세 조정에 대한 보다 효율적인 대안을 제공합니다.
데이터 과학자는 튜닝 프로세스를 단순화하는 새로운 사전 구성된 InstructLab 파이프라인을 사용하여 OpenShift AI 대시보드에서 직접 LAB-tuning 워크플로를 실행할 수 있습니다. LAB-tuning 활성화 및 사용에 대한 자세한 내용은 LAB 튜닝을 사용한 모델 활성화 및 사용자 지정을 참조하십시오.
중요LAB-tuning 기능은 현재 연결이 끊긴 환경에서 지원되지 않습니다.
- Red Hat OpenShift AI 모델 카탈로그
Red Hat OpenShift AI 모델 카탈로그는 이제 기술 프리뷰 기능으로 제공됩니다. 이 기능은 Granite 모델 제품군과 사용자를 연결하는 것뿐만 아니라 LAB 튜닝에 사용되는 마스터 및 판단 모델로부터 시작됩니다.
참고모델 카탈로그 기능은 현재 연결이 끊긴 환경에서 지원되지 않습니다.
- 새로운 기능 저장소 구성 요소
이제 Red Hat OpenShift AI Operator에서 기능 저장소를 구성 가능한 구성 요소로 설치하고 관리할 수 있습니다. 기능 저장소는 오픈 소스 Feast 프로젝트를 기반으로 ML 모델과 데이터 간의 브리지 역할을 하여 ML 라이프사이클 전반에 걸쳐 일관되고 확장 가능한 기능 관리를 지원합니다.
이 기술 프리뷰 릴리스에는 다음과 같은 기능이 도입되었습니다.
- 일관된 기능 재사용을 위한 중앙 집중식 기능 리포지토리
- ML 모델의 기능을 정의, 관리 및 검색하기 위한 프로그래밍 방식 및 명령줄 상호 작용을 위한 Python SDK 및 CLI
- 기능 정의 및 관리
- 광범위한 데이터 소스 지원
- 기능 구체화를 통한 데이터 수집
- 온라인 모델 추론 및 오프라인 모델 교육 모두에 대한 기능 검색
- 중요한 기능을 보호하기 위한 RBAC(역할 기반 액세스 제어)
- 타사 데이터 및 컴퓨팅 공급자와의 확장성 및 통합
- 엔터프라이즈 ML 요구 사항을 충족하기 위한 확장성
- 검색 가능한 기능 카탈로그
가시성 향상을 위한 데이터 라인 추적
구성 세부 정보는 Feature Store 구성을 참조하십시오.
- IBM Power 및 IBM Z 아키텍처 지원
- IBM Power(ppc64le) 및 IBM Z(s390x) 아키텍처는 이제 기술 프리뷰 기능으로 지원됩니다. 현재 이러한 아키텍처에서 표준 모드로만 모델을 배포할 수 있습니다.
- IBM Power 및 IBM Z 아키텍처에서 vLLM 지원
- vLLM 런타임 템플릿은 IBM Power 및 IBM Z 아키텍처에서 기술 프리뷰로 사용할 수 있습니다.
- 노드 선택기를 사용하여 Red Hat OpenShift AI 대시보드의 특정 작업자 노드에 대한 작업 벤치마크 대상 배포 활성화
이제 하드웨어 프로필을 기술 프리뷰로 사용할 수 있습니다. 하드웨어 프로필 기능을 사용하면 사용자가 워크벤치 또는 모델 서비스 워크로드를 위해 특정 작업자 노드를 대상으로 지정할 수 있습니다. 사용자가 특정 가속기 유형 또는 CPU 전용 노드를 대상으로 지정할 수 있습니다.
이 기능은 현재 액셀러레이터 프로파일과 컨테이너 크기 선택기 필드를 대체하여 다양한 하드웨어 구성을 대상으로 하는 광범위한 기능을 제공합니다. 액셀러레이터 프로필, 테인트 및 톨러레이션은 워크로드에 일치하는 일부 기능을 하드웨어로 제공하는 반면, 특히 일부 노드에 적절한 테인트가 없는 경우 워크로드가 특정 노드에 배치되도록 보장할 수 없습니다.
하드웨어 프로필 기능은 노드 선택기와 함께 액셀러레이터 및 CPU 전용 구성을 모두 지원하여 특정 작업자 노드의 대상 지정 기능을 향상시킵니다. 관리자는 설정 메뉴에서 하드웨어 프로필을 구성할 수 있습니다. 사용자는 UI를 사용하여 워크벤치, 모델 제공 및 데이터 사이언스 파이프라인을 사용하여 활성화된 프로필을 선택할 수 있습니다.
- Cryostat 클러스터 및 PyTorchJob 생성에 대한 필수 Kue local-queue 레이블 지정 정책
클러스터 관리자는 Kueue local-queue 식별자로 ECDSA 클러스터 및 PyTorchJob 리소스의 필수 레이블을 적용하는 데 Validating Admission Policy 기능을 사용할 수 있습니다. 이 라벨링을 사용하면 리소스 경합을 방지하고 운영 효율성을 개선하는 대기열 관리 정책에 따라 워크로드가 적절하게 분류되고 라우팅됩니다.
local-queue 레이블 지정 정책이 적용되면 Cryostat 클러스터 및 PyTorchJobs는 로컬 큐를 사용하도록 구성된 경우에만 생성되고 Cryostat 클러스터 및 PyTorchJob 리소스는 Kue에 의해 관리됩니다. 로컬 큐 레이블 정책은 기본적으로 모든 프로젝트에 적용되지만 일부 또는 모든 프로젝트에서 비활성화할 수 있습니다. 로컬 큐 레이블 지정 정책에 대한 자세한 내용은 로컬 대기열 사용을 참조하십시오.
참고이 기능을 사용하면 이전에 Kue 로컬 큐를 사용하지 않은 사용자가 Cryostat 클러스터 및 PyTorchJob 리소스를 관리하지 않은 사용자에게 중단될 수 있습니다.
- R Cryostat Server 워크벤치 이미지
R Cryostat Server 워크벤치 이미지를 사용하면 R용 통합 개발 환경인 R Cryostat IDE에 액세스할 수 있습니다. R 프로그래밍 언어는 통계 컴퓨팅 및 그래픽으로 데이터 분석 및 예측을 지원하는 데 사용됩니다.
R Cryostat Server 워크벤치 이미지를 사용하려면 먼저 시크릿을 생성하고
BuildConfig
를 트리거하여 빌드한 다음rstudio-rhel9
이미지 스트림을 편집하여 OpenShift AI UI에서 활성화해야 합니다. 자세한 내용은 R Cryostat Server 워크벤치 이미지 빌드를 참조하십시오.중요면책 조항: Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 rstudio.org 를 통해 사용할 수 있으며 라이선스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.
- CUDA - R Cryostat 서버 워크벤치 이미지
CUDA - R Cryostat 서버 워크벤치 이미지를 사용하면 R Cryostat IDE 및 NVIDIA CUDA Toolkit에 액세스할 수 있습니다. R Cryostat IDE는 통계 컴퓨팅 및 그래픽을 위한 R 프로그래밍 언어를 위한 통합 개발 환경입니다. NVIDIA CUDA 툴킷을 사용하면 GPU 가속 라이브러리 및 최적화 도구를 사용하여 작업을 개선할 수 있습니다.
CUDA - R Cryostat Server 워크벤치 이미지를 사용하려면 먼저 시크릿을 생성하고
BuildConfig
를 트리거하여 빌드한 다음rstudio-rhel9
이미지 스트림을 편집하여 OpenShift AI UI에서 활성화합니다. 자세한 내용은 R Cryostat Server 워크벤치 이미지 빌드를 참조하십시오.중요면책 조항: Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 rstudio.org 를 통해 사용할 수 있으며 라이선스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.
CUDA - R Cryostat 서버 워크벤치 이미지에는 NVIDIA CUDA 기술이 포함되어 있습니다. CUDA 라이센스 정보는 CUDA Toolkit 설명서에서 확인할 수 있습니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.
- 모델 레지스트리
- OpenShift AI에서 Model Registry Operator를 지원합니다. Model Registry Operator는 기본적으로 기술 프리뷰 모드에 설치되지 않습니다. 모델 레지스트리는 초기부터 배포까지 머신 러닝 모델과 관련된 메타데이터를 포함하는 중앙 저장소입니다.
- 매우 큰 모델의 다중 노드 배포 지원
- 단일 모델 제공 런타임을 사용할 때 여러 GPU(그래픽 처리 장치) 노드에 모델을 제공하는 기능을 기술 프리뷰 기능으로 사용할 수 있습니다. 여러 GPU 노드에 모델을 배포하여 대용량 언어 모델(LLM)과 같은 대규모 모델을 배포할 때 효율성을 개선합니다. 자세한 내용은 여러 GPU 노드에 모델 배포를 참조하십시오.