3장. 새로운 기능 및 개선 사항


이 섹션에서는 Red Hat OpenShift AI 3.0의 새로운 기능 및 개선 사항에 대해 설명합니다.

3.1. 새로운 기능

PyTorch v2.8.0 KFTO 교육 이미지 사용 가능

OpenShift AI의 분산 워크로드에 대해 PyTorch v2.8.0 교육 이미지를 사용할 수 있습니다.

다음과 같은 새 이미지를 사용할 수 있습니다.

  • ROCm 호환 KFTO 교육 이미지:quay.io/modh/ Cryostat:py312-rocm63-torch280 호환 및 ROCm 6.3에서 지원하는 AMD 가속기와 호환 가능
  • CUDA 호환 KFTO 교육 이미지:quay.io/modh/ Cryostat:py312-cuda128-torch280 호환 가능 CUDA 12.8에서 지원하는 NVIDIA GPU와 호환 가능
하드웨어 프로필

새로운 하드웨어 프로필 기능은 이전 액셀러레이터 프로파일과 워크벤치용 레거시 컨테이너 크기 선택기를 대체합니다.

하드웨어 프로필은 AI 워크로드에 대한 컴퓨팅 구성을 보다 유연하고 일관되게 정의하여 다양한 하드웨어 유형에서 리소스 관리를 단순화합니다.

중요

액셀러레이터 프로필 및 레거시 컨테이너 크기 선택기는 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다.

이제 연결 API를 일반적으로 사용 가능

이제 연결 API 를 OpenShift AI에서 정식 출시(GA) 기능으로 사용할 수 있습니다.

이 API를 사용하면 OpenShift AI 내에서 직접 외부 데이터 소스 및 서비스에 대한 연결을 생성하고 관리할 수 있습니다. 연결은 표준화된 주석이 있는 Kubernetes Secret으로 저장되므로 통합 구성 요소에서 프로토콜 기반 검증 및 라우팅을 수행할 수 있습니다.

IBM Power 및 IBM Z 아키텍처 지원

OpenShift AI는 IBM Power(ppc64le) 및 IBM Z(s390x) 아키텍처를 지원합니다.

이 확장된 플랫폼 지원을 통해 IBM 엔터프라이즈 하드웨어에 AI 및 머신러닝 워크로드를 배포할 수 있으므로 이기종 환경 전반에 걸쳐 유연성과 확장성을 향상시킬 수 있습니다.

지원되는 소프트웨어 플랫폼, 구성 요소 및 종속 항목에 대한 자세한 내용은 지식베이스 문서: Red Hat OpenShift AI: 지원되는 구성을 참조하십시오.

TrustyAI에 대한 IBM Power 및 IBM Z 아키텍처 지원

이제 TrustyAI를 IBM Power(ppc64le) 및 IBM Z(s390x) 아키텍처의 GA(GA) 기능으로 사용할 수 있습니다.

TrustyAI는 책임감 있고 투명한 AI 워크플로우를 지원하는 툴 모음을 제공하는 오픈 소스 Responsible AI 툴킷입니다. 공정성 및 데이터 드리프트 메트릭, 로컬 및 글로벌 모델 설명, 텍스트 해독, 언어 모델 벤치마킹 및 언어 모델 보호와 같은 기능을 제공합니다.

이러한 기능을 사용하면 IBM Power 및 IBM Z 시스템의 OpenShift AI 환경 내에서 AI 시스템의 투명성, 책임감 및 잘못된 사용을 보장할 수 있습니다.

IBM Power 및 IBM Z 아키텍처 모델 레지스트리 지원

이제 IBM Power(ppc64le) 및 IBM Z(s390x) 아키텍처에서 모델 레지스트리를 사용할 수 있습니다.

Model Registry는 AI 및 머신러닝(AI/ML) 모델 라이프사이클 관리를 단순화하고 표준화하는 오픈 소스 구성 요소입니다. 이 플랫폼은 데이터 사이언스 및 MLOps 팀 전반에서 원활한 협업을 가능하게 하는 모델을 저장, 버전 관리 및 관리하기 위한 중앙 집중식 플랫폼을 제공합니다.

모델 레지스트리는 모델 버전 관리 및 라인리지 추적, 메타데이터 관리 및 모델 검색, 모델 승인 및 승격 워크플로우, CI/CD 및 배포 파이프라인과의 통합, IBM Power 및 IBM Z 시스템의 거버넌스, 감사 가능성 및 컴플라이언스 기능과 같은 기능을 지원합니다.

IBM Power 및 IBM Z 아키텍처 지원 Notebooks

IBM Power(ppc64le) 및 IBM Z(s390x) 아키텍처에서 노트북을 사용할 수 있습니다.

노트북은 OpenShift AI 에코시스템 내에서 데이터 사이언스, 머신 러닝, 연구 및 코딩을 위한 컨테이너화된 브라우저 기반 개발 환경을 제공합니다. 이러한 환경은 Workbenches를 통해 시작하고 다음 옵션을 포함할 수 있습니다.

  • sendpyter Minimal laptop: 기본 Python 개발 및 모델 프로토타이핑을 위한 경량의pyterLab IDE입니다.
  • metapyter Data Science laptop: end-to-end 워크플로우를 위한 인기 있는 데이터 사이언 라이브러리 및 툴로 구성되어 있습니다.
  • sendpyter TrustyAI 노트북: 모델 설명, 공정성, 데이터 드리프트 감지 및 텍스트 해독을 포함한 책임이 있는 AI 작업을 위한 환경입니다.
  • 코드 서버: 익숙한 IDE 기능을 사용한 공동 개발을 위한 브라우저 기반 VS Code 환경입니다.
  • Runtime Minimal and Runtime Data Science: 자동화된 워크플로 및 일관된 파이프라인 실행을 위한 헤드리스 환경.
기능 저장소에 대한 IBM Power 아키텍처 지원

기능 저장소는 IBM Power (ppc64le) 아키텍처에서 지원됩니다.

이러한 지원을 통해 사용자는 OpenShift AI와 완벽하게 통합되며 IBM Power 기반 환경에서 직접 머신 러닝 모델의 기능을 빌드, 등록 및 관리할 수 있습니다.

AI Pipelines에 대한 IBM Power 아키텍처 지원

AI Pipelines는 IBM Power(ppc64le) 아키텍처에서 지원됩니다.

이 기능을 사용하면 AI 워크로드에 대한 IBM Power 시스템의 성능과 확장성을 활용하여 OpenShift AI 내에서 기본적으로 AI 파이프라인을 정의, 실행 및 모니터링할 수 있습니다.

IBM Power 시스템에서 실행되는 AI Pipelines는 x86 배포와 기능적 패리티를 유지합니다.

IBM Power accelerated Triton Inference Server 지원

FIL, PyTorch, Python 및 ONNX 백엔드를 사용하여 Triton 유추 서버(CPU만 해당)에 대한 Power 아키텍처 지원을 활성화할 수 있습니다. Triton 유추 서버를 Red Hat OpenShift AI의 IBM Power 아키텍처에서 런타임을 제공하는 사용자 지정 모델로 배포할 수 있습니다.

자세한 내용은 Triton Inference Server 이미지를 참조하십시오.

IBM Z 가속화 Triton Inference Server 지원

ONNX-MLIR, Snap ML(C++) 및 PyTorch를 비롯한 여러 백엔드 옵션으로 Triton Inference Server(Telum I/Telum II)에 대해 Z 아키텍처 지원을 활성화할 수 있습니다. Triton Inference Server는 Red Hat OpenShift AI의 기술 프리뷰 기능으로 IBM Z 아키텍처에서 런타임을 제공하는 사용자 지정 모델로 배포할 수 있습니다.

자세한 내용은 IBM Z accelerated Triton Inference Server 에서 참조하십시오.

IBM gRPCre AI Accelerator 모델 - IBM Z 플랫폼에서 지원

IBM gRPCre AI Accelerator와 함께 제공되는 모델은 IBM Z 플랫폼의 GA(GA) 기능으로 제공됩니다.

IBM Cryostatre Operator는 설치를 자동화하고 장치 플러그인, 보조 스케줄러 및 모니터링과 같은 주요 구성 요소를 통합합니다.

자세한 내용은 IBM Cryostatre Operator 카탈로그 항목: IBM Cryostatre Operator - Red Hat Ecosystem Catalog 에서 참조하십시오.

참고

IBM Z 및 IBM LinuxONE에서 Red Hat OpenShift AI는 IBM Cryostatre에서 vLLM과 함께 대용량 언어 모델(LLM) 배포를 지원합니다. Triton Inference Server는 Telum (CPU)에서만 지원됩니다.

자세한 내용은 다음 설명서를 참조하십시오.

모델 사용자 정의 구성 요소

OpenShift AI 3.0에는 AI 모델 준비, 미세 조정 및 배포 프로세스를 간소화하고 개선하는 모델 사용자 지정 구성 요소 제품군이 도입되었습니다.

이제 다음 구성 요소를 사용할 수 있습니다.

  • Red Hat AI Python Index: AI 및 머신러닝 노트북에 유용한 지원 패키지 빌드를 호스팅하는 Red Hat의 유지 관리 Python 패키지 인덱스입니다. Red Hat AI Python Index를 사용하면 연결된 환경과 연결이 끊긴 환경에서 이러한 패키지에 대한 안정적이고 안전한 액세스가 가능합니다.
  • Docling: PDF 또는 이미지와 같은 구조화되지 않은 문서를 AI 및 ML 워크로드에 대해 시스템에서 읽을 수 있는 깔끔한 형식으로 변환하는 고급 데이터 처리를 위한 강력한 Python 라이브러리입니다.
  • 합성 데이터 생성 허브(sdg-hub): 데이터 세트를 보강하고, 모델 견고성을 개선하고, 에지 케이스를 해결하기 위한 고품질 합성 데이터를 생성하는 툴킷입니다.
  • training Hub: 자체 데이터를 사용하여 기본 모델의 미세 조정 및 사용자 지정을 간소화하고 가속화하는 프레임워크입니다.
  • Kubeflow Cryostater: 기본 인프라의 복잡성을 추상화하면서 모델을 분산하고 세부 조정할 수 있는 Kubernetes 네이티브 기능입니다.
  • AI Pipelines: 이 제품군의 다른 모든 모델 사용자 지정 모듈을 포함하여 AI 구성 요소에서 구성 가능한 워크플로우를 빌드하는 Kubeflow-native 기능입니다.
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat