1.2. 기능 및 개선 사항
Red Hat Enterprise Linux AI 버전 1.5에는 LLM( Large Language Model) 미세 튜닝을 위한 다양한 기능이 포함되어 있습니다.
1.2.1. Suppored 액셀러레이터 링크 복사링크가 클립보드에 복사되었습니다!
1.2.1.1. NVIDIA H200 액셀러레이터 링크 복사링크가 클립보드에 복사되었습니다!
이제 RHEL AI 버전 1.5에서 NVIDIA H200 액셀러레이터를 사용하여 전체 엔드 투 엔드 워크플로우를 제공하고 실행할 수 있습니다. RHEL AI 환경을 초기화할 때 머신의 가속기 수와 일치하는 H200 프로필을 선택합니다. RHEL AI에서 지원되는 하드웨어에 대한 자세한 내용은 Red Hat Enterprise Linux AI 하드웨어 요구 사항을 참조하십시오.
1.2.1.2. NVIDIA Grace Hopper Cryostat200 액셀러레이터 (기술 프리뷰) 링크 복사링크가 클립보드에 복사되었습니다!
이제 RHEL AI 버전 1.5에서 NVIDIA H200 액셀러레이터를 사용하여 기술 프리뷰에서 유추할 수 있습니다. RHEL AI에는 기본적으로 Grace Hopper 가속기의 시스템 프로필이 포함되어 있지 않습니다. Cryostat200 액셀러레이터를 사용하려면 h200_x1 프로필로 RHEL AI 환경을 초기화하고 max_startup_attempts: 1200 매개변수를 config.yaml 파일에 추가합니다.
ilab config edit
$ ilab config edit
1.2.1.3. AMD#187300X 액셀러레이터 링크 복사링크가 클립보드에 복사되었습니다!
AMD#187300X 액셀러레이터는 이제 일반적으로 전체 엔드 투 엔드 워크 플로우를 실행하고 추론 서비스를 사용할 수 있습니다. RHEL AI에서 지원되는 하드웨어에 대한 자세한 내용은 Red Hat Enterprise Linux AI 하드웨어 요구 사항을 참조하십시오.
1.2.2. 설치 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI는 부팅 가능한 이미지로 설치할 수 있습니다. 이 이미지에는 RHEL AI와 상호 작용을 위한 다양한 툴링이 포함되어 있습니다. 이미지에는 Red Hat Enterprise Linux 9.4, Python 버전 3.11 및 InstructLab 툴이 포함되어 있습니다. Red Hat Enterprise Linux AI 설치에 대한 자세한 내용은 설치 개요 및 "설치 기능 추적기"를 참조하십시오.
1.2.3. RHEL AI 환경 빌드 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI를 설치한 후 InstructLab 툴을 사용하여 RHEL AI 환경을 설정할 수 있습니다.
1.2.3.1. Initializing InstructLab 링크 복사링크가 클립보드에 복사되었습니다!
ilab config init 명령을 실행하여 RHEL AI 환경을 초기화하고 설정할 수 있습니다. 이 명령은 RHEL AI 및 미세 조정 모델과 상호 작용하는 데 필요한 구성을 생성합니다. 또한 데이터 파일에 대한 적절한 디렉터리를 생성합니다. InstructLab 초기화에 대한 자세한 내용은 Cryostat InstructLab 설명서를 참조하십시오.
1.2.3.2. 대규모 언어 모델 다운로드 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat에서 제공하는 다양한 LLM(Lar Language Models)을 RHEL AI 머신 또는 인스턴스로 다운로드할 수 있습니다. Red Hat 레지스트리 계정을 생성하고 로그인한 후 Red Hat 레지스트리에서 이러한 모델을 다운로드할 수 있습니다. 지원되는 RHEL AI Cryostat에 대한 자세한 내용은 모델 다운로드 문서 및 "LLM(Large Language Models) 기술 프리뷰 상태"를 참조하십시오.
1.2.3.2.1. 3.1 Granite 모델의 버전 2 링크 복사링크가 클립보드에 복사되었습니다!
RHEL AI 버전 1.5는 이제 granite-3.1-8b-starter-v2 Admission 모델 및 granite-3.1-8b-lab-v2 추론 모델을 지원합니다. 모델에 대한 자세한 내용은 대규모 Lanuage 모델 다운로드 설명서를 참조하십시오.
1.2.3.3. 모델을 사용하여 서비스 및 채팅 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI 버전 1.5를 사용하면 다양한 Cryostat에서 vLLM 추론 서버를 실행할 수 있습니다. vLLM 툴은 RHEL AI 이미지에 포함된 Cryostat를 위한 메모리 효율적인 추론 및 제공 엔진 라이브러리입니다. 모델 사용 및 채팅에 대한 자세한 내용은 Serving 및 chating with the models 문서를 참조하십시오.
1.2.4. 기술 및 지식 YAML 파일 생성 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI에서는 사용자 지정 YAML 파일을 사용하여 taxonomy 트리를 사용자 지정할 수 있으므로 모델이 도메인별 정보를 배울 수 있습니다. 지식 데이터를 Git 리포지토리에 호스팅하고 해당 데이터를 사용하여 모델을 미세 조정합니다. 지식 마크다운 및 YAML 파일을 생성하는 방법에 대한 자세한 문서는 taxonomy 트리 사용자 지정을 참조하십시오.
1.2.5. RHEL AI를 사용하여 사용자 지정 Cryostat 생성 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI를 사용하여 도메인별 기술 및 지식을 갖춘 granite Starter Cryostat를 사용자 지정할 수 있습니다. RHEL AI에는 SDG( Synthetic Data Generation) 및 다단계 교육의 LAB 개선 방법이 포함되어 있습니다.
1.2.5.1. 합성 데이터 생성 (SDG) 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI에는 합성 데이터 생성(SDG)의 향상된 LAB 기능이 포함되어 있습니다. 자체 지식 데이터와 함께 qna.yaml 파일을 사용하여 SDG 프로세스에서 수백 개의 기술 데이터 세트를 만들 수 있습니다. SDG 프로세스 실행에 대한 자세한 내용은 Synthetic data generation (SDG)을 사용하여 새 데이터 세트 생성 을 참조하십시오.
1.2.5.1.1. 마스터 모델로 llama-3.3-70B-Instruct 모델을 사용하여 SDG 실행 (기술 프리뷰) 링크 복사링크가 클립보드에 복사되었습니다!
RHEL AI 버전 1.5는 이제 SDG( Synthetic Data Generation)를 기술 프리뷰로 실행할 때 llama-3.3-70b-Instruct 를 마스터 모델로 사용할 수 있습니다. 자세한 내용은 llama-3.3-70B-Instruct 모델 사용 (기술 프리뷰) 설명서를 참조하십시오.
1.2.5.2. 데이터를 사용하여 모델 교육 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI에는 LAB 향상된 다단계 교육 방법이 포함되어 있습니다. 데이터 세트를 여러 단계에서 교육하고 평가하여 최상의 모델을 만들 수 있습니다. 다단계 교육에 대한 자세한 내용은 모델에서 데이터 교육을 참조하십시오.
1.2.5.3. 벤치마크 평가 링크 복사링크가 클립보드에 복사되었습니다!
Red Hat Enterprise Linux AI에는 새로 숙련된 모델에서 벤치마크 평가를 실행할 수 있는 기능이 포함되어 있습니다. 숙련된 모델에서는 모델이 MMLU_BRANCH 또는 MT_BENCH_BRANCH 벤치마크로 추가한 지식이나 기술을 얼마나 잘 알고 있는지 평가할 수 있습니다. 벤치마크 평가에 대한 자세한 내용은 새 모델 평가를 참조하십시오.
1.2.6. Red Hat 교차 제품 기능 링크 복사링크가 클립보드에 복사되었습니다!
1.2.6.1. Ansible Automation Platform을 사용하여 RHEL AI 자동화 링크 복사링크가 클립보드에 복사되었습니다!
이제 Ansible Automation Platform Hub를 사용하여 플레이북에서 RHEL AI 워크로드를 실행할 수 있습니다. 여기에는 다음 두 가지 Ansible 컬렉션이 포함됩니다.
- infra.ai
- AWS, GCP, Azure를 포함한 다양한 클라우드 공급자 인프라에서 RHEL AI 환경을 프로비저닝할 수 있는 콘텐츠 컬렉션입니다. 이 컬렉션은 다양한 클라우드 공급자 간에 AI 워크로드를 간단하게 배포할 수 있습니다.
- redhat.ai
- RHEL AI에서 워크로드를 관리하도록 설계된 콘텐츠 컬렉션입니다. Ansible 플레이북 옵션을 사용하여 RHEL AI에서 신속하게 배포를 생성할 수 있으므로 모델 교육 및 제공 프로세스를 보다 효율적으로 수행할 수 있습니다.
기존 Ansible Automation Platform 고객인 경우 이러한 컬렉션은 현재 서브스크립션에 포함되어 있습니다.