5장. 개발자 프리뷰 기능
이 섹션에서는 Red Hat OpenShift AI 3.0의 개발자 프리뷰 기능에 대해 설명합니다. 개발자 프리뷰 기능은 Red Hat에서 지원하지 않으며 기능적으로 완전하거나 프로덕션 준비가 되지 않습니다. 프로덕션 또는 비즈니스 크리티컬 워크로드에는 개발자 프리뷰 기능을 사용하지 마십시오. 개발자 프리뷰 기능을 사용하면 Red Hat 제품에 포함될 수 있는 기능을 미리 미리 활용할 수 있습니다. 고객은 이러한 기능을 사용하여 기능을 테스트하고 개발 프로세스 중에 피드백을 제공할 수 있습니다. 개발자 프리뷰 기능에는 문서가 없으며 언제든지 변경 또는 제거될 수 있으며 제한된 테스트를 수신했습니다. Red Hat은 관련 SLA 없이 개발자 프리뷰 기능에 대한 피드백을 제출하는 방법을 제공할 수 있습니다.
Red Hat Developer Preview 기능의 지원 범위에 대한 자세한 내용은 개발자 프리뷰 지원 범위를 참조하십시오.
- MaaS(Model-as-a-Service) 통합
이 기능은 개발자 프리뷰로 사용할 수 있습니다.
OpenShift AI에는 이제 대규모 언어 모델(LLM)을 제공하는 것과 관련된 리소스 사용 및 거버넌스 문제를 해결하기 위한 MaaS(Model-as-a-Service)가 포함됩니다.
Maas는 관리형 API 엔드포인트를 통해 모델을 노출하여 모델 액세스 및 리소스 사용량을 중앙 집중식으로 제어하여 관리자가 팀 전체에 사용 정책을 적용할 수 있습니다.
이 개발자 프리뷰에는 다음과 같은 기능이 도입되었습니다.
- 정책 및 할당량 관리
- 인증 및 권한 부여
- 사용량 추적
- 사용자 관리
- AI 사용 가능한 자산과 MaaS(Model-as-a-Service) 통합
이 기능은 개발자 프리뷰로 사용할 수 있습니다.
이제 GeneveAI Studio의 AI 사용 가능 자산 페이지에서 직접 MaaS(Model-as-a-Service) 모델에 액세스하고 사용할 수 있습니다.
관리자는 모델 배포 페이지에서 토글을 활성화하여 MaaS를 구성할 수 있습니다. 모델이 서비스로 표시되면 클러스터의 모든 프로젝트에서 글로벌 상태가 됩니다.
- AI 사용 가능한 자산 통합을 위한 모델 배포에 추가됨
이 기능은 개발자 프리뷰로 사용할 수 있습니다.
이제 관리자는 배포 중에 모델에 메타데이터를 추가하여 AI 사용 가능한 자산 페이지에 자동으로 나열될 수 있습니다.
다음 표에서는 다른 팀에서 모델을 검색하고 사용할 수 있도록 하는 프로세스를 간소화하는 새로운 메타데이터 필드를 설명합니다.
| 필드 이름 | 필드 유형 | 설명 |
|---|---|---|
| 사용 사례 | 자유형 텍스트 | 모델의 주요 용도(예: "Customer Churn Prediction" 또는 "Image Classification for Product Catalog)"에 대해 설명합니다. |
| 설명 | 자유형 텍스트 | 모델에 대한 보다 자세한 컨텍스트 및 기능 노트를 제공합니다. |
| AI 에셋 추가 | 확인란 | 활성화하면 모델 및 해당 메타데이터를 AI 사용 가능 자산 페이지에 자동으로 게시합니다. |
- MCP HTTP 스트리밍 프로토콜을 사용한 L#178a Stack 원격 공급자 및 SDK의 호환성
이 기능은 개발자 프리뷰로 사용할 수 있습니다.
L#178a Stack 원격 공급자 및 SDK는 이제 MCP(Model Control Protocol) HTTP 스트리밍 프로토콜과 호환됩니다.
이러한 향상된 기능을 통해 개발자는 완전히 스테이트리스된 MCP 서버를 빌드하고 표준 Llana Stack 인프라( 서버리스 환경 포함)에 대한 배포를 단순화하고 확장성을 개선할 수 있습니다. 또한 연결 재개와 같은 향후 개선 사항을 준비하고 SSE(Server-Sent Events)에서 원활한 전환을 제공합니다.
- Red Hat에서 유지 관리하는 Python 인덱스에 ITS Hub 종속 항목 패키징
이 기능은 개발자 프리뷰로 사용할 수 있습니다.
모든 추론 시간 확장(ITS) 런타임 종속성은 이제 Red Hat에서 유지 관리하는 Python 인덱스에 패키지화되어 Red Hat AI 및 OpenShift AI 고객이
pip를 사용하여해당_hub및 해당 종속 항목을 직접 설치할 수 있습니다.이러한 향상된 기능을 통해 사용자는 다음과 같이 모델 재교육을 필요로 하지 않고 추론 시 모델 정확도를 개선하는 데 중점을 둔 ITS 알고리즘으로 사용자 정의 추론 이미지를 빌드할 수 있습니다.
- 고정 필터링
- best-of-N
- 벨 검색
- Self-consistency
Verifier 또는 PRM-guided 검색
자세한 내용은 GitHub의 ITS Hub를 참조하십시오.
- 동적 하드웨어 인식 지속적인 교육 전략
이제 정적 하드웨어 프로필 지원을 통해 사용자가 VRAM 요구 사항 및 참조 벤치마크를 기반으로 교육 방법, 모델 및 하이퍼 매개 변수를 선택할 수 있습니다. 이 접근 방식은 동적 하드웨어 검색 없이 예측 가능하고 안정적인 교육 워크플로를 보장합니다.
다음 구성 요소가 포함됩니다.
- API Memory Estimator: 모델, 교육 방법, 데이터 세트 메타데이터를 수락하고 하이퍼 매개변수를 입력으로 사용하고 교육 작업에 대한 예상 VRAM 요구 사항을 반환합니다. Training Hub 내에서 API로 제공됩니다.
- 참조 프로필 및 벤치마크: Training Hub의 정적 테이블 및 문서로 제공되는 OSFT(OpenShift AI innovation) 및 Performance Team(LAB SFT) 기준의 엔드 투 엔드 교육 시간 벤치마크를 제공합니다.
하이퍼 매개변수 지침: 학습 속도, 일괄 크기, epochs, LoRA 순위와 같은 주요 하이퍼 매개변수에 대한 안전한 시작 범위를 게시합니다. AI innovation 팀에서 유지 관리하는 예제로 통합됩니다.
중요이 릴리스에는 하드웨어 검색이 포함되어 있지 않습니다. 정적 참조 테이블 및 지침만 제공됩니다. 자동화된 GPU 또는 CPU 탐지는 아직 지원되지 않습니다.
- L declarationa Stack 에이전트의 HIL( human-in-the-Loop) 기능
사용자가 실행 전에 읽지 않은 툴 호출을 승인할 수 있도록 HIL(Human-in-the-Loop) 기능이 L declarationa Stack 에이전트에 추가되었습니다.
이 향상된 기능에는 다음과 같은 기능이 포함됩니다.
- 사용자는 응답 API를 통해 읽지 않은 툴 호출을 승인하거나 거부할 수 있습니다.
- 구성 옵션은 HIL 승인이 필요한 툴 호출을 지정합니다.
- HIL 지원 툴에 대한 사용자 승인이 수신될 때까지 툴 호출이 일시 중지됩니다.
- HIL이 필요하지 않은 툴 호출은 중단 없이 계속 실행됩니다.