1장. LAB-tuning 활성화 개요
LAB-tuning은 현재 Red Hat OpenShift AI에서 기술 프리뷰 기능으로 제공됩니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하는 것을 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
데이터 과학자는 OpenShift AI에서 LAB-tuning을 사용하여 대용량 언어 모델(LLM)을 사용자 정의하는 엔드 투 엔드 워크플로를 실행할 수 있습니다. LAB(Large-scale Alignment for chatBots) 방법은 다중 단계 교육 프로세스와 결합된 taxonomy-guided 합성 데이터 생성(SDG)을 사용하여 기존의 미세 조정에 대해 보다 효율적인 대안을 제공합니다. LAB-tuning 워크플로는 사전 구성된 InstructLab 파이프라인을 사용하여 OpenShift AI 대시보드에서 직접 시작하여 튜닝 프로세스를 단순화할 수 있습니다.
LAB-tuning은 모델 사용자 지정을 지원하기 위해 함께 작동하는 여러 OpenShift AI 구성 요소에 따라 다릅니다. 데이터 사이언스 파이프라인을 사용하여 튜닝 워크플로를 실행하고, KServe는 마스터 및 판단 모델을 배포 및 제공하고, 교육 Operator는 GPU 지원 노드에서 분산 모델 교육을 실행합니다. LAB-tuning은 또한 모델 레지스트리를 사용하여 모델 버전, S3 또는 OCI와 같은 스토리지 연결(예: S3 또는 OCI)과 파이프라인 아티팩트 및 모델 출력을 저장하고 GPU 하드웨어 프로필을 사용하여 교육 워크로드를 예약합니다.
LAB-tuning을 활성화하려면 OpenShift 클러스터 관리자가 다음 작업을 완료하여 필요한 인프라 및 플랫폼 구성 요소를 구성해야 합니다.
- 필요한 Operator 설치
- 필요한 구성 요소 설치
- 동적 프로비저닝을 지원하는 스토리지 클래스 구성
클러스터 관리자 또는 OpenShift AI 관리자는 OpenShift AI 대시보드 내에서 추가 설정을 수행해야 합니다.
- 대시보드에 LAB-tuning 기능이 표시되도록 설정
- 모델 레지스트리 생성
- GPU 하드웨어 프로파일 생성
1.1. LAB-tuning 요구 사항 링크 복사링크가 클립보드에 복사되었습니다!
- 클러스터 관리자 액세스 권한이 있는 OpenShift 클러스터가 있어야 합니다.
- OpenShift 클러스터에는 LAB 튜닝 프로세스를 위한 1개의 NVIDIA GPU(예: NVIDIA L40S 48GB)가 있는 노드가 하나 이상 있습니다. 분산 LAB 튜닝 워크로드를 실행하려면 동일하거나 다른 노드의 GPU가 여러 개 필요합니다.
- 마스터 모델 (rhelai1/modelcar-mixtral-8x7b-instruct-v0-1:1.4)을 배포하기 위해 OpenShift 클러스터에 모델을 실행할 수 있는 하나 이상의 GPU가 있는 작업자 노드가 있습니다(예: 80GB#159인 4 x NVIDIA A100을 포함함) 및 모델을 저장하는 데 사용 가능한 디스크 스토리지가 100GiB 이상 있습니다.
- 판단 모델(rhelai1/modelcar-prometheus-8x7b-v2-0:1.4)을 배포하기 위해 OpenShift 클러스터에는 이 모델을 실행할 수 있는 하나 이상의 GPU가 있는 작업자 노드가 있습니다(예: 80GB#159인 2개의 x NVIDIA A100 포함) 및 모델을 저장할 수 있는 최소 100GiB의 디스크 스토리지가 있습니다.
- 사용자 환경은 필요한 Operator를 설치하고 필수 구성 요소, 스토리지, 모델 레지스트리 및 GPU 하드웨어 프로필을 사용하기 위한 사전 요구 사항을 충족합니다.