2.2. 기능 개선
- 사용자 정의 연결 유형
- 관리자는 향상된 연결 기능을 사용하여 데이터베이스와 같은 데이터 소스에 대한 사용자 지정 연결을 구성하여 사용자가 모델 개발을 위해 데이터에 더 쉽게 액세스할 수 있습니다. 또한 사용자는 URI 기반 리포지토리의 기본 제공 연결 유형 덕분에 모델 서비스용 Hugging eyes와 같은 리포지토리의 모델에 액세스할 수 있습니다.
- NVIDIA Triton Inference Server 버전 24.10 런타임: 추가 모델 테스트 및 검증
NVIDIA Triton Inference Server 버전 24.10 런타임은 KServe(REST 및 gRPC) 및 ModelMesh(REST) 둘 다에 대해 다음과 같은 모델로 테스트되었습니다.
- FIL(Arival Inference Library)
- Python
- TensorRT
- 분산 워크로드: 테스트 및 검증된 추가 교육 이미지
몇 가지 추가 교육 이미지가 테스트 및 검증됩니다.
ROCm 호환 KFTO 클러스터 이미지
새로운 ROCm 호환 KFTO 클러스터 이미지
quay.io/modh/ Cryostat:py311-rocm61-torch241
이 테스트 및 검증됩니다. 이 이미지는 ROCm 6.1에서 지원하는 AMD 액셀러레이터와 호환됩니다.ROCm 호환 Cryostat 클러스터 이미지
이전에 개발자 프리뷰 기능으로 사용 가능한 ROCm 호환 Cryostat 클러스터 이미지
quay.io/modh/ray:2.35.0-py39-rocm61
및quay.io/modh/ray:2.35.0-py311-rocm61
. 이러한 이미지는 ROCm 6.1에서 지원하는 AMD 액셀러레이터와 호환됩니다.CUDA 호환 KFTO 이미지
이전에 Developer Preview 기능으로 제공되는 CUDA 호환 KFTO 클러스터 이미지가 테스트 및 검증되었습니다. 이제 새 위치에서 이미지를 사용할 수 있습니다
. quay.io/modh/ Cryostat:py311-cuda121-torch241
. 이 이미지는 CUDA 12.1에서 지원하는 NVIDIA GPU와 호환됩니다.
이러한 이미지는 AMD64 이미지이며 다른 아키텍처에서 작동하지 않을 수 있습니다. Red Hat OpenShift AI에서 사용 가능한 최신 교육 이미지에 대한 자세한 내용은 Red Hat OpenShift AI 지원 구성을 참조하십시오.