3장. 기술 프리뷰 기능


중요

이 섹션에서는 Red Hat OpenShift AI 2.22의 기술 프리뷰 기능에 대해 설명합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하는 것을 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

프로젝트의 모든 파이프라인에 대한 캐싱을 비활성화하는 새로운 옵션
클러스터 관리자는 이제 파이프라인 서버의 모든 데이터 사이언스 파이프라인에 대한 캐싱을 비활성화할 수 있습니다. 이 글로벌 설정은 디버깅, 개발 또는 결정적 재실행이 필요한 경우에 유용합니다. 이 설정을 적용하려면DSPA( DataSciencePipelinesApplication ) 사용자 정의 리소스에서 spec.apiServer.cacheEnabled 필드를 false 로 설정합니다. 자세한 내용은 데이터 사이언스 파이프라인 캐싱 개요 를 참조하십시오.
Kubernetes API를 사용하여 파이프라인 정의 및 관리
이제 Kubernetes API를 사용하여 데이터 정보 파이프라인 및 파이프라인 버전을 정의하고 관리할 수 있으며 이를 내부 데이터베이스 대신 클러스터에 사용자 지정 리소스로 저장할 수 있습니다. 이 기술 프리뷰 기능을 사용하면 OpenShift GitOps(Argo CD) 또는 유사한 툴을 사용하여 파이프라인을 쉽게 관리할 수 있으며 OpenShift AI 사용자 인터페이스, API 및 kfp SDK를 통해 관리할 수 있습니다. 이 기능을 활성화하려면DSPA(DataSciencePipelinesApplication) 사용자 정의 리소스에서 spec.apiServer.pipelineStore 필드를 kubernetes로 설정합니다. 자세한 내용은 Kubernetes API를 사용하여 파이프라인 정의를 참조하십시오.
LAB-tuning을 통한 모델 사용자 정의

이제 LAB-tuning이 기술 프리뷰 기능으로 제공되므로 데이터 과학자는 대규모 언어 모델(LLM)을 사용자 정의할 수 있도록 엔드 투 엔드 워크플로를 실행할 수 있습니다. LAB(Large-scale Alignment for chatBots) 방법은 taxonomy-guided 합성 데이터 생성(SDG) 및 다단계 교육 접근 방식을 활용하여 기존의 미세 조정에 대한 보다 효율적인 대안을 제공합니다.

데이터 과학자는 튜닝 프로세스를 단순화하는 새로운 사전 구성된 InstructLab 파이프라인을 사용하여 OpenShift AI 대시보드에서 직접 LAB-tuning 워크플로를 실행할 수 있습니다. LAB-tuning 활성화 및 사용에 대한 자세한 내용은 LAB 튜닝을 사용한 모델 활성화 및 사용자 지정을 참조하십시오.

중요

LAB-tuning 기능은 현재 연결이 끊긴 환경에서 지원되지 않습니다.

Red Hat OpenShift AI 모델 카탈로그

Red Hat OpenShift AI 모델 카탈로그는 이제 기술 프리뷰 기능으로 제공됩니다. 이 기능은 Granite 모델 제품군과 사용자를 연결하는 것뿐만 아니라 LAB 튜닝에 사용되는 마스터 및 판단 모델로부터 시작됩니다.

참고

모델 카탈로그 기능은 현재 연결이 끊긴 환경에서 지원되지 않습니다.

새로운 기능 저장소 구성 요소

이제 Red Hat OpenShift AI Operator에서 기능 저장소를 구성 가능한 구성 요소로 설치하고 관리할 수 있습니다. 기능 저장소는 오픈 소스 Feast 프로젝트를 기반으로 ML 모델과 데이터 간의 브리지 역할을 하여 ML 라이프사이클 전반에 걸쳐 일관되고 확장 가능한 기능 관리를 지원합니다.

이 기술 프리뷰 릴리스에는 다음과 같은 기능이 도입되었습니다.

  • 일관된 기능 재사용을 위한 중앙 집중식 기능 리포지토리
  • ML 모델의 기능을 정의, 관리 및 검색하기 위한 프로그래밍 방식 및 명령줄 상호 작용을 위한 Python SDK 및 CLI
  • 기능 정의 및 관리
  • 광범위한 데이터 소스 지원
  • 기능 구체화를 통한 데이터 수집
  • 온라인 모델 추론 및 오프라인 모델 교육 모두에 대한 기능 검색
  • 중요한 기능을 보호하기 위한 RBAC(역할 기반 액세스 제어)
  • 타사 데이터 및 컴퓨팅 공급자와의 확장성 및 통합
  • 엔터프라이즈 ML 요구 사항을 충족하기 위한 확장성
  • 검색 가능한 기능 카탈로그
  • 가시성 향상을 위한 데이터 라인 추적

    구성 세부 정보는 Feature Store 구성을 참조하십시오.

IBM Power 및 IBM Z 아키텍처 지원
IBM Power(ppc64le) 및 IBM Z(s390x) 아키텍처는 이제 기술 프리뷰 기능으로 지원됩니다. 현재 이러한 아키텍처에서 표준 모드로만 모델을 배포할 수 있습니다.
IBM Power 및 IBM Z 아키텍처에서 vLLM 지원
vLLM 런타임 템플릿은 IBM Power 및 IBM Z 아키텍처에서 기술 프리뷰로 사용할 수 있습니다.
노드 선택기를 사용하여 Red Hat OpenShift AI 대시보드의 특정 작업자 노드에 대한 작업 벤치마크 대상 배포 활성화

이제 하드웨어 프로필을 기술 프리뷰로 사용할 수 있습니다. 하드웨어 프로필 기능을 사용하면 사용자가 워크벤치 또는 모델 서비스 워크로드를 위해 특정 작업자 노드를 대상으로 지정할 수 있습니다. 사용자가 특정 가속기 유형 또는 CPU 전용 노드를 대상으로 지정할 수 있습니다.

이 기능은 현재 액셀러레이터 프로파일과 컨테이너 크기 선택기 필드를 대체하여 다양한 하드웨어 구성을 대상으로 하는 광범위한 기능을 제공합니다. 액셀러레이터 프로필, 테인트 및 톨러레이션은 워크로드에 일치하는 일부 기능을 하드웨어로 제공하는 반면, 특히 일부 노드에 적절한 테인트가 없는 경우 워크로드가 특정 노드에 배치되도록 보장할 수 없습니다.

하드웨어 프로필 기능은 노드 선택기와 함께 액셀러레이터 및 CPU 전용 구성을 모두 지원하여 특정 작업자 노드의 대상 지정 기능을 향상시킵니다. 관리자는 설정 메뉴에서 하드웨어 프로필을 구성할 수 있습니다. 사용자는 UI를 사용하여 워크벤치, 모델 제공 및 데이터 사이언스 파이프라인을 사용하여 활성화된 프로필을 선택할 수 있습니다.

Cryostat 클러스터 및 PyTorchJob 생성에 대한 필수 Kue local-queue 레이블 지정 정책

클러스터 관리자는 Kueue local-queue 식별자로 ECDSA 클러스터 및 PyTorchJob 리소스의 필수 레이블을 적용하는 데 Validating Admission Policy 기능을 사용할 수 있습니다. 이 라벨링을 사용하면 리소스 경합을 방지하고 운영 효율성을 개선하는 대기열 관리 정책에 따라 워크로드가 적절하게 분류되고 라우팅됩니다.

local-queue 레이블 지정 정책이 적용되면 Cryostat 클러스터 및 PyTorchJobs는 로컬 큐를 사용하도록 구성된 경우에만 생성되고 Cryostat 클러스터 및 PyTorchJob 리소스는 Kue에 의해 관리됩니다. 로컬 큐 레이블 정책은 기본적으로 모든 프로젝트에 적용되지만 일부 또는 모든 프로젝트에서 비활성화할 수 있습니다. 로컬 큐 레이블 지정 정책에 대한 자세한 내용은 로컬 대기열 사용을 참조하십시오.

참고

이 기능을 사용하면 이전에 Kue 로컬 큐를 사용하지 않은 사용자가 Cryostat 클러스터 및 PyTorchJob 리소스를 관리하지 않은 사용자에게 중단될 수 있습니다.

R Cryostat Server 워크벤치 이미지

R Cryostat Server 워크벤치 이미지를 사용하면 R용 통합 개발 환경인 R Cryostat IDE에 액세스할 수 있습니다. R 프로그래밍 언어는 통계 컴퓨팅 및 그래픽으로 데이터 분석 및 예측을 지원하는 데 사용됩니다.

R Cryostat Server 워크벤치 이미지를 사용하려면 먼저 시크릿을 생성하고 BuildConfig 를 트리거하여 빌드한 다음 rstudio-rhel9 이미지 스트림을 편집하여 OpenShift AI UI에서 활성화해야 합니다. 자세한 내용은 R Cryostat Server 워크벤치 이미지 빌드를 참조하십시오.

중요

면책 조항: Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 rstudio.org 를 통해 사용할 수 있으며 라이선스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.

CUDA - R Cryostat 서버 워크벤치 이미지

CUDA - R Cryostat 서버 워크벤치 이미지를 사용하면 R Cryostat IDE 및 NVIDIA CUDA Toolkit에 액세스할 수 있습니다. R Cryostat IDE는 통계 컴퓨팅 및 그래픽을 위한 R 프로그래밍 언어를 위한 통합 개발 환경입니다. NVIDIA CUDA 툴킷을 사용하면 GPU 가속 라이브러리 및 최적화 도구를 사용하여 작업을 개선할 수 있습니다.

CUDA - R Cryostat Server 워크벤치 이미지를 사용하려면 먼저 시크릿을 생성하고 BuildConfig 를 트리거하여 빌드한 다음 rstudio-rhel9 이미지 스트림을 편집하여 OpenShift AI UI에서 활성화합니다. 자세한 내용은 R Cryostat Server 워크벤치 이미지 빌드를 참조하십시오.

중요

면책 조항: Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 rstudio.org 를 통해 사용할 수 있으며 라이선스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.

CUDA - R Cryostat 서버 워크벤치 이미지에는 NVIDIA CUDA 기술이 포함되어 있습니다. CUDA 라이센스 정보는 CUDA Toolkit 설명서에서 확인할 수 있습니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토해야 합니다.

모델 레지스트리
OpenShift AI에서 Model Registry Operator를 지원합니다. Model Registry Operator는 기본적으로 기술 프리뷰 모드에 설치되지 않습니다. 모델 레지스트리는 초기부터 배포까지 머신 러닝 모델과 관련된 메타데이터를 포함하는 중앙 저장소입니다.
매우 큰 모델의 다중 노드 배포 지원
단일 모델 제공 런타임을 사용할 때 여러 GPU(그래픽 처리 장치) 노드에 모델을 제공하는 기능을 기술 프리뷰 기능으로 사용할 수 있습니다. 여러 GPU 노드에 모델을 배포하여 대용량 언어 모델(LLM)과 같은 대규모 모델을 배포할 때 효율성을 개선합니다. 자세한 내용은 여러 GPU 노드에 모델 배포를 참조하십시오.
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat