2.2. 기능 개선
2.2.1. 2.19.1의 개선 사항 링크 복사링크가 클립보드에 복사되었습니다!
- Intel Gaudi 1.21을 사용한 vLLM 추론 서버 지원
- Intel Gaudi 1.21 액셀러레이터를 사용한 vLLM 추론 서버에 대한 지원을 사용할 수 있습니다.
2.2.2. 2.19.0의 개선 사항 링크 복사링크가 클립보드에 복사되었습니다!
- 표준 배포 모드에서 모델 배포
고급 또는 표준 배포 모드로 모델을 배포할 수 있습니다. 표준 배포 모드는 KServe RawDeployment 모드를 사용하며 Red Hat OpenShift Serverless Operator, Red Hat OpenShift Service Mesh 또는 Authorino가 필요하지 않습니다.
표준 배포 모드에 대한 이점은 다음과 같습니다.
-
Deployment
,Service
,Route
,Horizontal Pod Autoscaler
와 같은 Kubernetes 리소스로 배포를 활성화합니다. 결과 모델 배포는 고급 모드에 비해 리소스 공간이 더 적습니다. Knative를 사용하여 사용할 수 없는 여러 볼륨 마운트와 같은 기존 배포/Pod 구성을 활성화합니다. 이는 복잡한 구성 또는 여러 스토리지 마운트가 필요한 애플리케이션에 유용합니다.
자세한 내용은 KServe 배포 모드 정보를 참조하십시오.
-
- 런타임 템플릿을 제공하는 vLLM에 대한 업데이트된 이름 지정
지원되는 가속기를 기반으로 vLLM 템플릿을 더 잘 구별하도록 템플릿 이름 지정이 업데이트되었습니다. 이제 모든 vLLM 템플릿에 템플릿의 제목 및 설명의 가속기 이름이 반영됩니다.
- NVIDIA GPU
- AMD GPU
- Gaudi 액셀러레이터
- (기술 프리뷰만 해당): CPU(IBM Power 및 IBM Z)
- Intel Gaudi 1.20에서 vLLM 추론 서버 지원
- Intel Gaudi 1.20 액셀러레이터를 사용한 vLLM 추론 서버에 대한 지원을 사용할 수 있습니다.
- 업그레이드된 OpenVINO 모델 서버
- OpenVINO 모델 서버가 2025.0 버전으로 업그레이드되었습니다. 변경 사항 및 개선 사항에 대한 자세한 내용은 OpenVINO™ Model Server 2025.0 을 참조하십시오.
- 업데이트된 워크벤치 이미지
- 새로운 워크벤치 이미지 세트 (2025.1)를 사용할 수 있습니다. 이번 업데이트에는 대부분의 사전 빌드된 Python 패키지에 대한 주요 버전 업그레이드 및 R Cryostat 및 Code-server용 IDE가 업데이트되었습니다.
- 데이터 사이언스 파이프라인에서 Kubeflow Pipelines 2.4.0 지원
- Red Hat OpenShift AI를 최신 기능으로 업데이트하기 위해 데이터 사이언스 파이프라인이 Kubeflow Pipelines(KFP) 버전 2.4.0으로 업그레이드되었습니다. 자세한 내용은 Kubeflow Pipelines 설명서 를 참조하십시오.