2.2. 기능 개선


업데이트된 vLLM 구성 요소 버전

OpenShift AI는 나열된 각 구성 요소에 대해 다음 vLLM 버전을 지원합니다.

  • vLLM CUDA v0.9.0.1 ( FIPS용으로 설계)
  • vLLM ROCm v0.8.4.3 ( FIPS용으로 설계)
  • vLLM Power v0.9.1
  • vLLM Z v0.9.1 ( FIPS용으로 설계)
  • vLLM Gaudi v0.7.2.post1

    자세한 내용은 GitHub의 vllm 을 참조하십시오.

Cryostat-as-a-Judge 메트릭에 대한 지원 추가

이제 TrustyAI에서 LM-Eval과 함께 Cryostat-as-a-Judge 메트릭을 사용할 수 있습니다. LLM(Large Language Models)은 인간과 같은 평가자로 사용할 수 있으며, 이는 창의적인 작문에 대한 평가와 같이 쉽게 정량화할 수 없는 다른 Cryostat의 출력 품질을 평가하는 데 사용할 수 있습니다. 이를LLMaaJ(LLMaaJ)라고 합니다.

평가 예제는 LM-Eval 시나리오 를 참조하십시오.

분산 워크로드: 테스트 및 검증된 추가 교육 이미지

다음 추가 교육 이미지를 테스트하고 검증합니다.

  • CUDA 호환 Cryostat 클러스터 이미지

    새로운 Cryostat 기반 교육 이미지 quay.io/modh/ray:2.46.0-py311-cu121 이 테스트 및 검증됩니다. 이 이미지는 CUDA 12.1에서 지원하는 AMD 액셀러레이터와 호환됩니다.

  • ROCm 호환 Cryostat 클러스터 이미지

    ROCm 호환 Cryostat 클러스터 이미지 quay.io/modh/ray:2.46.0-py311-rocm62 가 테스트 및 검증됩니다. 이 이미지는 ROCm 6.2에서 지원하는 AMD 액셀러레이터와 호환됩니다.

참고

이러한 이미지는 AMD64 이미지이며 다른 아키텍처에서 작동하지 않을 수 있습니다. Red Hat OpenShift AI에서 사용 가능한 최신 교육 이미지에 대한 자세한 내용은 Red Hat OpenShift AI 지원 구성을 참조하십시오.

OpenShift AI Operator의 안정성 개선
OpenShift AI Operator는 이제 단일 인스턴스 대신 세 개의 복제본으로 실행되므로 프로덕션 워크로드에 대한 복원력과 안정성이 향상됩니다. 이번 개선된 기능을 통해 OpenShift AI 서비스의 중단을 줄이고 여러 인스턴스에 Webhook 작업을 배포합니다.
데이터 사이언스 파이프라인에서 Kubeflow Pipelines 2.5.0 지원
데이터 사이언스 파이프라인이 Kubeflow Pipelines(KFP) 버전 2.5.0으로 업그레이드되었습니다. 자세한 내용은 Kubeflow Pipelines 릴리스 설명서를 참조하십시오.
노트북 컨트롤러의 Elyra 리소스 자동 생성

이전에는 elyra-pipelines-<notebook-name> RoleBindingds-pipeline-config Secret 리소스가 대시보드 구성 요소에서 프로비저닝되었으며 컨트롤러의 라이프사이클 관리와 통합되지 않았습니다. 이 종속성은 파이프라인 기능만 필요한 경우에도 OpenShift AI 대시보드를 배포해야 했습니다.

이번 릴리스에서는 노트북 컨트롤러에서 이러한 리소스를 자동으로 생성하여 대시보드 구성 요소와 독립적으로 워크벤치 및 파이프라인을 사용할 수 있습니다. 이러한 변경으로 설정을 단순화하고 라이프사이클 관리를 보다 일관되게 유지할 수 있습니다.

Seldon MLServer 버전 1.6.1 런타임이 테스트 및 검증됨

Red Hat은 Seldon MLServer 버전 1.6.1 런타임을 테스트하고 검증하여 널리 사용되는 예측 AI 모델과의 호환성을 개선했습니다. 다음 모델은 KServe(REST 및 gRPC)에 대해 테스트되었습니다.

  • 스크리닝(sckeygent-)
  • XGBoost
  • LightGBM
  • CatBoost
  • MLflow
  • 히이크업
모델 레지스트리의 Operator 종속 항목 제거

Red Hat Authorino, Red Hat OpenShift Serverless 및 Red Hat OpenShift Service Mesh Operator는 더 이상 OpenShift AI에서 모델 레지스트리 구성 요소를 사용할 필요가 없습니다.

기존 모델 레지스트리 인스턴스는 OpenShift OAuth 프록시 인증을 사용하도록 자동으로 마이그레이션됩니다. OpenShift AI 대시보드에서 생성된 새 모델 레지스트리 인스턴스는 기본적으로 OAuth 프록시를 사용합니다. 이전 v1alpha1 API 및 Istio 구성으로 생성된 새 인스턴스는 OAuth 프록시를 사용하도록 자동으로 업데이트됩니다.

Kubernetes RBAC 리소스와 같은 이전 모델 레지스트리 인스턴스에 대한 기존 인증 구성은 예상대로 계속 작동합니다.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat