2.2. 단일 모델 제공 플랫폼에 모델 배포


단일 모델 제공 플랫폼을 활성화하면 사전 설치된 모델 서비스 런타임을 활성화하고 플랫폼에 모델을 배포할 수 있습니다.

사전 설치된 model-serving 런타임을 사용하여 런타임을 직접 수정하거나 정의하지 않고도 모델 서비스를 시작할 수 있습니다. 사용자 지정 런타임을 추가하는 방법에 대한 자세한 내용은 단일 모델 제공 플랫폼에 대한 사용자 지정 모델 제공 런타임 추가를 참조하십시오.

사전 요구 사항

  • Red Hat OpenShift AI에 로그인했습니다.
  • KServe를 설치했습니다.
  • 단일 모델 제공 플랫폼을 활성화했습니다.
  • (고급 배포만 해당) 배포된 모델에 대해 토큰 인증 및 외부 모델 경로를 활성화하려면 권한 부여 공급자로 Authorino를 추가했습니다. 자세한 내용은 단일 모델 제공 플랫폼에 대한 권한 부여 공급자 추가를 참조하십시오.
  • 데이터 과학 프로젝트를 생성했습니다.
  • S3 호환 오브젝트 스토리지에 액세스할 수 있습니다.
  • 배포하려는 모델의 경우 S3 호환 오브젝트 스토리지 버킷 또는 OCI(Open Container Initiative) 컨테이너의 관련 URI를 알고 있습니다.
  • Cakeygent-TGIS 런타임을 사용하려면 모델을 Cafindt 형식으로 변환했습니다. 예를 들어 caovnt-tgis-serving 리포지토리의 cakeyt 형식으로의 Hugging faces Hub 모델 변환을 참조하십시오.
  • 모델 서버에서 GPU(그래픽 처리 장치)를 사용하려는 경우 OpenShift AI에서 GPU 지원을 활성화했습니다. NVIDIA GPU를 사용하는 경우 NVIDIA GPU 활성화를 참조하십시오. AMD GPU를 사용하는 경우 AMD GPU 통합을 참조하십시오.
  • vLLM 런타임을 사용하려면 OpenShift AI에서 GPU 지원을 활성화하고 클러스터에 Node Feature Discovery Operator를 설치 및 구성했습니다. 자세한 내용은 Node Feature Discovery Operator 설치NVIDIA GPU 활성화를 참조하십시오.
  • KServe 런타임에서 vLLM Intel Gaudi Accelerator ServingRuntime 을 사용하려면 OpenShift AI에서 하이브리드 처리 단위(HPU)에 대한 지원을 활성화했습니다. 여기에는 Intel Gaudi Base Operator 설치 및 하드웨어 프로필 구성이 포함됩니다. 자세한 내용은 AMD 문서의 Intel Gaudi Base Operator OpenShift 설치하드웨어 프로필 작업을 참조하십시오.
  • KServe 런타임용 vLLM AMD GPU ServingRuntime 을 사용하려면 OpenShift AI에서 AMD GPU(그래픽 처리 단위)에 대한 지원을 활성화했습니다. 여기에는 AMD GPU Operator 설치 및 하드웨어 프로파일 구성이 포함됩니다. 자세한 내용은 OpenShift에 AMD GPU Operator 배포하드웨어 프로필 작업을 참조하십시오.

    참고

    OpenShift AI에서 Red Hat은 model serving을 위해 NVIDIA GPU, Intel Gaudi, AMD GPU 액셀러레이터를 지원합니다.

  • RHEL AI 모델을 배포하려면 다음을 수행합니다.

    • KServe 런타임에 vLLM NVIDIA GPU ServingRuntime을 활성화했습니다.
    • Red Hat 컨테이너 레지스트리에서 모델을 다운로드하여 S3 호환 오브젝트 스토리지에 업로드했습니다.

프로세스

  1. 왼쪽 메뉴에서 데이터 과학 프로젝트를 클릭합니다.

    데이터 사이언스 프로젝트 페이지가 열립니다.

  2. 모델을 배포할 프로젝트의 이름을 클릭합니다.

    프로젝트 세부 정보 페이지가 열립니다.

  3. 모델 탭을 클릭합니다.
  4. 다음 작업 중 하나를 수행합니다.

    • 플랫폼 타일을 제공하는 단일 모델이 표시되면 타일에 모델 배포를 클릭합니다.
    • 타일이 표시되지 않으면 모델 배포 버튼을 클릭합니다.

    모델 배포 대화 상자가 열립니다.

  5. 모델 배포 이름 필드에 배포 중인 모델의 고유 이름을 입력합니다.
  6. Serving 런타임 필드에서 활성화된 런타임을 선택합니다. 프로젝트 범위 런타임이 있는 경우 Serving 런타임 목록에는 글로벌 런타임과 프로젝트 범위 런타임을 구분하는 하위 제목이 포함됩니다.
  7. 모델 프레임워크(이름 - 버전) 목록에서 값을 선택합니다.
  8. 배포 모드 목록에서 표준 또는 고급을 선택합니다. 배포 모드에 대한 자세한 내용은 KServe 배포 모드 정보를 참조하십시오.
  9. 배포할 모델 서버 복제본 수에서 값을 지정합니다.In the Number of model server replicas to deploy field, specify a value.
  10. 다음 옵션은 하드웨어 프로필을 만든 경우에만 사용할 수 있습니다.

    1. 하드웨어 프로필 목록에서 하드웨어 프로필을 선택합니다. 프로젝트 범위 하드웨어 프로필이 있는 경우 하드웨어 프로필 목록에는 글로벌 하드웨어 프로필과 프로젝트 범위 하드웨어 프로필을 구분하기 위한 하위 제목이 포함됩니다.

      중요

      기본적으로 하드웨어 프로필은 대시보드 탐색 메뉴 및 사용자 인터페이스에 숨겨져 있지만 액셀러레이터 프로필은 계속 표시됩니다. 또한 더 이상 사용되지 않는 가속기 프로필 기능과 관련된 사용자 인터페이스 구성 요소가 계속 표시됩니다. 하드웨어 프로필을 활성화하면 Accelerator 프로필 목록 대신 Hardware profiles 목록이 표시됩니다. 대시보드 탐색 메뉴에서 설정 하드웨어 프로필 옵션을 표시하려면 OpenShift의 OdhDashboardConfig CR(사용자 정의 리소스)에서 disableHardwareProfiles 값을 false 로 설정합니다. 대시보드 구성 옵션 설정에 대한 자세한 내용은 대시보드 사용자 지정을 참조하십시오.

    2. 이러한 기본값을 변경하려면 리소스 요청 사용자 지정 및 제한을 클릭하고 새 최소(요청) 및 최대값(제한) 값을 입력합니다. 하드웨어 프로필은 컨테이너에 할당된 CPU 수와 메모리 양을 지정하고 둘 다에 대해 보장된 최소(요청) 및 최대값(제한)을 설정합니다.
  11. 선택 사항: 모델 경로 섹션에서 외부 경로 확인란을 통해 사용 가능한 배포된 모델 만들기 확인란을 선택하여 배포된 모델을 외부 클라이언트에서 사용할 수 있도록 합니다.
  12. 배포된 모델에 대한 유추 요청에 대한 토큰 인증이 필요한 경우 다음 작업을 수행합니다.

    1. 토큰 인증 필요 를 선택합니다.
    2. 서비스 계정 이름 필드에 토큰이 생성될 서비스 계정 이름을 입력합니다.
    3. 추가 서비스 계정을 추가하려면 서비스 계정 추가를 클릭하고 다른 서비스 계정 이름을 입력합니다.
  13. 모델의 위치를 지정하려면 다음 작업 세트 중 하나를 수행합니다.

    • 기존 연결을 사용하려면 다음을 수행합니다.

      1. 기존 연결을 선택합니다.
      2. 이름 목록에서 이전에 정의한 연결을 선택합니다.

        1. S3 호환 오브젝트 스토리지: 경로 필드에 지정된 데이터 소스에 모델이 포함된 폴더 경로를 입력합니다.

          중요

          OpenVINO 모델 서버 런타임에는 모델 경로를 지정하는 방법에 대한 특정 요구 사항이 있습니다. 자세한 내용은 OpenShift AI 릴리스 노트의 알려진 문제 RHOAIENG-3025 를 참조하십시오.

        2. Open Container Image connections: OCI 스토리지 위치 필드에 모델이 있는 모델 URI를 입력합니다.

          참고

          기존 S3, URI 또는 OCI 데이터 연결을 사용하여 등록된 모델 버전을 배포하는 경우 일부 연결 세부 정보가 자동으로 입력될 수 있습니다. 이는 데이터 연결 유형 및 데이터 사이언스 프로젝트에서 사용할 수 있는 일치 연결 수에 따라 달라집니다. 예를 들어 일치하는 연결이 하나만 있는 경우 경로, URI, 끝점, 모델 URI, 버킷 및 리전과 같은 필드가 자동으로 채워질 수 있습니다. 일치하는 연결의 레이블이 Recommended 로 지정됩니다.

    • 새 연결 사용

      1. 모델에 액세스할 수 있는 새 연결을 정의하려면 새 연결을 선택합니다.

        1. 연결 추가 모달에서 연결 유형을 선택합니다. OCI 호환 레지스트리,S3 호환 오브젝트 스토리지URI 옵션은 사전 설치된 연결 유형입니다. OpenShift AI 관리자가 이를 추가한 경우 추가 옵션을 사용할 수 있습니다.

          연결 추가 양식은 선택한 연결 유형과 관련된 필드를 사용하여 열립니다.

      2. 연결 세부 정보 필드를 작성합니다.

        중요

        연결 유형이 S3 호환 오브젝트 스토리지인 경우 데이터 파일이 포함된 폴더 경로를 제공해야 합니다. OpenVINO 모델 서버 런타임에는 모델 경로를 지정하는 방법에 대한 특정 요구 사항이 있습니다. 자세한 내용은 OpenShift AI 릴리스 노트의 알려진 문제 RHOAIENG-3025 를 참조하십시오.

  14. (선택 사항) 구성 매개변수 섹션에서 런타임 매개변수를 사용자 지정합니다.

    1. 배포된 모델의 작동 방식을 정의하도록 추가 제공 런타임 인수 의 값을 수정합니다.
    2. 추가 환경 변수 의 값을 수정하여 모델의 환경에서 변수를 정의합니다.

      구성 매개 변수 섹션에는 사용 가능한 경우 사전 정의된 제공 런타임 매개변수가 표시됩니다.

      참고

      특정 값을 설정해야 하므로, 포트 또는 모델 제공 런타임 인수를 수정하지 마십시오. 이러한 매개 변수를 덮어쓰면 배포가 실패할 수 있습니다.

  15. Deploy 를 클릭합니다.

검증

  • 배포된 모델이 프로젝트의 모델 탭과 상태 열에 확인 표시를 사용하여 대시보드의 모델 배포 페이지에 표시되는지 확인합니다.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동