3.2. 기능 개선


L#178a Stack의 원격 벡터 데이터베이스에 대한 하이브리드 검색 지원

이제 OpenShift AI의 L declarationa Stack의 원격 벡터 데이터베이스에서 하이브리드 검색을 활성화할 수 있습니다.

이러한 향상된 기능을 통해 기업은 기존 관리 벡터 데이터베이스 인프라를 사용하는 동시에 다양한 데이터베이스 유형에서 높은 검색 성능과 유연성을 유지할 수 있습니다.

Caroutet-TGIS 어댑터를 사용하여 IBM Z에 대한 IBM Cryostatre 지원

이제 Ca#159t -TGIS gRPC 어댑터KServe에 vLLM Cryostatre s390x ServingRuntime을 사용하여 IBM Z(s390x 아키텍처)에서 IBM Z(s390x 아키텍처)로 모델을 제공할 수 있습니다.

이러한 통합을 통해 OpenShift AI 내의 IBM Z 시스템에서 상속 AI 워크로드를 제공하는 고성능 모델 및 추론을 수행할 수 있습니다.

Data Science Pipelines의 이름이 AI Pipelines로 변경

OpenShift AI는 이제 "Data Science Pipelines" 대신 "AI Pipelines"라는 용어를 사용하여 플랫폼에서 지원하는 광범위한 AI 및 기술 AI 사용 사례를 보다 효과적으로 반영합니다.

기본 DataScienceCluster (default-dsc)에서 이 용어 업데이트와 일치하도록 데이터 수준pipelines 구성 요소의 이름이 aipipelines 로 변경되었습니다.

이름 변경 전용입니다. AI 파이프라인 기능은 동일하게 유지됩니다.

모델 유효성 검사 데이터를 사용한 모델 카탈로그 개선 사항

OpenShift AI 모델 카탈로그의 모델 세부 정보 페이지에는 성능 벤치마크, 하드웨어 호환성 및 기타 주요 지표와 같은 포괄적인 모델 검증 데이터가 포함됩니다.

이번 개선된 기능을 통해 Jounce UI 모델 세부 정보 레이아웃과 일관된 통합 및 자세한 보기를 제공하여 사용자가 단일 인터페이스에서 모델을 보다 효과적으로 평가할 수 있습니다.

검색 및 필터링이 포함된 모델 카탈로그 성능 데이터

이제 모델 카탈로그에 벤치마크 및 하드웨어 호환성 지표와 같은 Red Hat 검증 타사 모델에 대한 자세한 성능 및 검증 데이터가 포함됩니다.

대기 시간 또는 하드웨어 프로필 필터링과 같은 검색 및 필터링 기능을 강화하여 사용자가 특정 사용 사례 및 사용 가능한 리소스에 최적화된 모델을 신속하게 식별할 수 있어 Red Hat AI Hub 내에서 통합된 검색 환경을 제공할 수 있습니다.

이제 llm-d를 사용한 분산 추론 (GA)을 일반적으로 사용할 수 있습니다.

llm-d를 사용한 분산 추론은 다중 모델 제공, 지능형 추론 스케줄링, 분기 AI 모델에 대한 GPU 사용률 개선을 위해 disaggregated 서비스를 지원합니다.

참고

다음 기능은 완전히 지원되지 않습니다.

  • 광범위한 farallelism 다중 노드: 개발자 프리뷰.
  • Blackwell B200의 광범위한 Parallelism: 사용할 수 없지만 기술 프리뷰로 제공할 수 있습니다.
  • GB200의 다중 노드: 지원되지 않습니다.
  • 이 릴리스에서 모델 배포 중에 게이트웨이 검색 및 연결은 UI에서 지원되지 않습니다. 사용자는 API 또는 CLI를 통해 리소스 매니페스트를 직접 적용하여 모델을 게이트웨이와 연결해야 합니다.
llm-d 배포 구성을 사용한 분산 유추용 사용자 인터페이스

OpenShift AI에는 이제 llm-d Serving Runtime에서 대용량 언어 모델(LLM)을 구성하고 배포하기 위한 UI(사용자 인터페이스)가 포함됩니다.

이 간소화된 인터페이스는 필수 구성 옵션을 적절한 기본값과 함께 제공하는 동시에 llm-d 런타임을 명시적으로 선택할 수 있으므로 일반적인 배포 시나리오를 단순화합니다.

새로운 UI는 설정의 복잡성을 줄이고 사용자가 분산 추론 워크로드를 더 효율적으로 배포할 수 있도록 지원합니다.

새로운 탐색 시스템

OpenShift AI 3.0은 사용성 및 워크플로우 효율성을 개선하는 재설계되고 간소화된 탐색 시스템을 도입합니다.

새로운 레이아웃을 통해 사용자는 기능 간에 원활하게 이동할 수 있으므로 주요 기능에 대한 액세스를 단순화하고 더 원활한 엔드 투 엔드 환경을 지원할 수 있습니다.

AI Pipelines에 대한 인증 강화

OpenShift AI 3.0은 oauth-proxy 를 플랫폼 전체 인증 전환의 일부로 AI Pipelines용 kube-rbac-proxy 로 대체합니다.

이번 업데이트에서는 특히 AWS의 Red Hat OpenShift Service와 같은 내부 OAuth 서버가 없는 환경의 경우 보안 및 호환성이 향상됩니다.

kube-rbac-proxy 로 마이그레이션하는 경우 SAR(SubjectAccessReview) 요구 사항 및 RBAC 권한이 적절하게 변경됩니다. 기본 제공 ds-pipeline-user-access-<dspa-name > 역할을 사용하는 사용자는 역할이 자동으로 업데이트되지만 다른 역할은 다음 동사를 사용하여 데이터 rootpipelinesapplications/api 하위 리소스에 대한 액세스 권한이 포함되도록 해야 합니다. create,update,patch,delete,get,list, watch.

llm-d를 사용한 분산 유추를 위한 관찰 기능 및 Grafana 통합

OpenShift AI 3.0에서 플랫폼 관리자는 관찰 구성 요소를llm-d 배포와 함께 분산 유추에 연결하고 자체 호스팅 Grafana 인스턴스와 통합하여 추론 워크로드를 모니터링할 수 있습니다.

이 기능을 통해 팀은 성능 분석 및 사용자 정의 대시보드 생성을 위해 llm-d를 사용하여 분산 추론에서 Prometheus 지표를 수집하고 시각화할 수 있습니다.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat