2.19. NVIDIA NIM 모델 제공 플랫폼 정보
NVIDIA NIM 추론 서비스를 사용하여 NVIDIA NIM 모델 제공 플랫폼에서 모델을 배포할 수 있습니다.
NVIDIA AI Enterprise의 일부인 NVIDIA NIM은 클라우드, 데이터 센터 및 워크스테이션 전반에 걸쳐 고성능 AI 모델 추론을 안전하고 안정적으로 배포하도록 설계된 일련의 마이크로서비스입니다.
2.19.1. NVIDIA NIM 모델 제공 플랫폼 활성화 링크 복사링크가 클립보드에 복사되었습니다!
OpenShift AI 관리자는 Red Hat OpenShift AI 대시보드를 사용하여 NVIDIA NIM 모델 서비스 플랫폼을 활성화할 수 있습니다.
이전에 OpenShift AI에서 NVIDIA NIM 모델 서비스를 활성화한 다음 최신 버전으로 업그레이드한 경우 NVIDIA NGC API 키를 다시 입력하여 NVIDIA NIM 모델 제공 플랫폼을 다시 활성화합니다.
사전 요구 사항
- OpenShift AI 관리자 권한이 있는 사용자로 OpenShift AI에 로그인했습니다.
- 단일 모델 제공 플랫폼을 활성화했습니다. 사전 설치된 런타임을 활성화할 필요가 없습니다. 단일 모델 제공 플랫폼 활성화에 대한 자세한 내용은 단일 모델 제공 플랫폼 활성화를 참조하십시오.
disableNIMModelServing
대시보드 구성 옵션은false
로 설정됩니다.대시보드 구성 옵션 설정에 대한 자세한 내용은 대시보드 사용자 지정을 참조하십시오.
- OpenShift AI에서 GPU 지원을 활성화했습니다. 여기에는 Node Feature Discovery Operator 및 NVIDIA GPU Operator 설치가 포함됩니다. 자세한 내용은 Node Feature Discovery Operator 설치 및 NVIDIA GPU 활성화를 참조하십시오.
- NVIDIA Cloud Account(NCA)를 보유하고 있으며 NVIDIA GPU Cloud(NGC) 포털에 액세스할 수 있습니다. 자세한 내용은 NVIDIA GPU Cloud 사용자 가이드를 참조하십시오.
- NCA 계정이 NVIDIA AI Enterprise Viewer 역할과 연결되어 있습니다.
- NGC 포털에서 NGC API 키를 생성했습니다. 자세한 내용은 NGC API 키를 참조하십시오.
프로세스
-
OpenShift AI 대시보드의 왼쪽 메뉴에서 애플리케이션
탐색을 클릭합니다. - 탐색 페이지에서 NVIDIA NIM 타일을 찾습니다.
- 애플리케이션 타일에서 사용을 클릭합니다.
- NGC API 키를 입력한 다음 Submit 을 클릭합니다.
검증
- 활성화한 NVIDIA NIM 애플리케이션이 사용됨 페이지에 표시됩니다.
2.19.2. NVIDIA NIM 모델 제공 플랫폼에 모델 배포 링크 복사링크가 클립보드에 복사되었습니다!
NVIDIA NIM 모델 제공 플랫폼을 활성화하면 플랫폼에 NVIDIA에 최적화된 모델을 배포할 수 있습니다.
사전 요구 사항
- Red Hat OpenShift AI에 로그인했습니다.
-
OpenShift AI 그룹을 사용하는 경우 OpenShift의 사용자 그룹 또는 관리자 그룹(예:
rhoai-users
또는rhoai-admins
)의 일부입니다. - NVIDIA NIM 모델 제공 플랫폼을 활성화했습니다.
- 데이터 과학 프로젝트를 생성했습니다.
- OpenShift AI에서 GPU(그래픽 처리 단위)에 대한 지원이 활성화되어 있습니다. 여기에는 Node Feature Discovery Operator 및 NVIDIA GPU Operator 설치가 포함됩니다. 자세한 내용은 Node Feature Discovery Operator 설치 및 NVIDIA GPU 활성화를 참조하십시오.
프로세스
왼쪽 메뉴에서 데이터 과학 프로젝트를 클릭합니다.
데이터 사이언스 프로젝트 페이지가 열립니다.
모델을 배포할 프로젝트의 이름을 클릭합니다.
프로젝트 세부 정보 페이지가 열립니다.
- 모델 탭을 클릭합니다.
모델 섹션에서 다음 작업 중 하나를 수행합니다.
- NVIDIA NIM 모델 서비스 플랫폼 타일에서 타일 에서 NVIDIA NIM 선택을 클릭한 다음 모델 배포를 클릭합니다.
- 이전에 NVIDIA NIM 모델 제공 유형을 선택한 경우 모델 페이지에는 배포 모델 버튼과 함께 오른쪽 상단에 NVIDIA 모델 서비스가 활성화됩니다. 계속하려면 배포 모델을 클릭합니다.
모델 배포 대화 상자가 열립니다.
다음과 같이 모델 배포를 위한 속성을 구성합니다.
- 모델 배포 이름 필드에 배포에 대한 고유한 이름을 입력합니다.
- NVIDIA NIM 목록에서 배포하려는 NVIDIA NIM 모델을 선택합니다. 자세한 내용은 지원 모델을 참조하십시오.
- NVIDIA NIM 스토리지 크기 필드에서 NVIDIA NIM 모델을 저장하도록 생성될 클러스터 스토리지 인스턴스의 크기를 지정합니다.
- 배포할 모델 서버 복제본 수에서 값을 지정합니다.In the Number of model server replicas to deploy field, specify a value.
- 모델 서버 크기 목록에서 값을 선택합니다.From the Model server size list, select a value.
하드웨어 프로필 목록에서 하드웨어 프로필을 선택합니다.
중요기본적으로 하드웨어 프로필은 대시보드 탐색 메뉴 및 사용자 인터페이스에 숨겨져 있지만 액셀러레이터 프로필은 계속 표시됩니다. 또한 더 이상 사용되지 않는 가속기 프로필 기능과 관련된 사용자 인터페이스 구성 요소가 계속 표시됩니다. 하드웨어 프로필을 활성화하면 액셀러레이터 프로필 목록 대신 하드웨어 프로필 목록이 표시됩니다. 대시보드 탐색 메뉴에서 설정
하드웨어 프로필 옵션을 표시하려면 OpenShift의 OdhDashboardConfig
CR(사용자 정의 리소스)에서disableHardwareProfiles
값을false
로 설정합니다. 대시보드 구성 옵션 설정에 대한 자세한 내용은 대시보드 사용자 지정을 참조하십시오.선택 사항: 리소스 요청 사용자 지정을 클릭하고 다음 값을 제한하고 업데이트합니다.
- CPU requests 필드에서 모델 서버와 함께 사용할 CPU 수를 지정합니다. 이 필드 옆에 있는 목록을 사용하여 코어 또는 밀리코어에 값을 지정합니다.
- CPU 제한 필드에서 모델 서버와 함께 사용할 최대 CPU 수를 지정합니다. 이 필드 옆에 있는 목록을 사용하여 코어 또는 밀리코어에 값을 지정합니다.
- 메모리 요청 필드에서 모델 서버의 요청된 메모리를 기비바이트(Gi)로 지정합니다.
- 메모리 제한 필드에서 모델 서버의 최대 메모리 제한을 기가바이트(Gi)로 지정합니다.
- 선택 사항: 모델 경로 섹션에서 외부 경로 확인란을 통해 사용 가능한 배포된 모델 만들기 확인란을 선택하여 배포된 모델을 외부 클라이언트에서 사용할 수 있도록 합니다.
배포된 모델에 대한 유추 요청에 대한 토큰 인증이 필요한 경우 다음 작업을 수행합니다.
- 토큰 인증 필요 를 선택합니다.
- 서비스 계정 이름 필드에 토큰이 생성될 서비스 계정 이름을 입력합니다.
- 추가 서비스 계정을 추가하려면 서비스 계정 추가를 클릭하고 다른 서비스 계정 이름을 입력합니다.
- Deploy 를 클릭합니다.
검증
- 배포된 모델이 프로젝트의 모델 탭과 상태 열에 확인 표시를 사용하여 대시보드의 모델 배포 페이지에 표시되는지 확인합니다.
2.19.3. NVIDIA NIM 모델 제공 플랫폼에 대한 모델 선택 옵션 사용자 정의 링크 복사링크가 클립보드에 복사되었습니다!
NVIDIA NIM 모델 제공 플랫폼은 NVIDIA GPU Cloud (NGC)에서 사용 가능한 모든 NVIDIA NIM 모델에 액세스할 수 있습니다. 모델 배포 대화 상자의 NVIDIA NIM 목록에서 NIM 모델을 선택하여 배포 할 수 있습니다. 목록에 표시되는 모델을 사용자 지정하려면 선호하는 모델을 지정하는 ConfigMap
오브젝트를 생성할 수 있습니다.
사전 요구 사항
- OpenShift 클러스터에 대한 클러스터 관리자 권한이 있습니다.
- NVIDIA Cloud Account(NCA)를 보유하고 있으며 NVIDIA GPU Cloud(NGC) 포털에 액세스할 수 있습니다.
NVIDIA NIM 모델 제공 플랫폼에서 선택할 수 있는 NVIDIA NIM 모델의 ID를 알고 있습니다.
참고- NGC 카탈로그 에서 모델 ID를 찾을 수 있습니다. ID는 일반적으로 URL 경로의 일부입니다.
- NGC CLI를 사용하여 모델 ID를 찾을 수도 있습니다. 자세한 내용은 NGC CLI 참조를 참조하십시오.
-
계정
CR(사용자 정의 리소스)의 이름과 네임스페이스를 알고 있습니다.
프로세스
터미널 창에서 다음 예와 같이 클러스터 관리자로 OpenShift CLI에 로그인합니다.
oc login <openshift_cluster_url> -u <admin_username> -p <password>
oc login <openshift_cluster_url> -u <admin_username> -p <password>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow NVIDIA NIM 모델 제공 플랫폼에서 선택할 수 있도록 할 모델 ID가 포함된 YAML 파일에
ConfigMap
오브젝트를 정의합니다.Copy to Clipboard Copied! Toggle word wrap Toggle overflow 계정
CR의 이름과 네임스페이스를 확인합니다.oc get account -A
oc get account -A
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 다음 예와 유사한 출력이 표시됩니다.
NAMESPACE NAME TEMPLATE CONFIGMAP SECRET redhat-ods-applications odh-nim-account
NAMESPACE NAME TEMPLATE CONFIGMAP SECRET redhat-ods-applications odh-nim-account
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 계정
CR과 동일한 네임스페이스에ConfigMap
오브젝트를 배포합니다.oc apply -f <configmap-name> -n <namespace>
oc apply -f <configmap-name> -n <namespace>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow & lt;configmap-name >을 YAML 파일의 이름으로 바꾸고 < namespace >를
계정
CR의 네임스페이스로 바꿉니다.이전에 생성한
ConfigMap
오브젝트를계정
CR의spec.modelListConfig
섹션에 추가합니다.oc patch account <account-name> \ --type='merge' \ -p '{"spec": {"modelListConfig": {"name": "<configmap-name>"}}}'
oc patch account <account-name> \ --type='merge' \ -p '{"spec": {"modelListConfig": {"name": "<configmap-name>"}}}'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow & lt;account-name >을
계정
CR의 이름으로 바꾸고 < configmap-name >을ConfigMap
오브젝트로 바꿉니다.ConfigMap
오브젝트가계정
CR에 추가되었는지 확인합니다.oc get account <account-name> -o yaml
oc get account <account-name> -o yaml
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 다음 출력과 유사하게
Account
CR의spec.modelListConfig
섹션에ConfigMap
오브젝트가 표시됩니다.spec: enabledModelsConfig: modelListConfig: name: <configmap-name>
spec: enabledModelsConfig: modelListConfig: name: <configmap-name>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
- 단계에 따라 NIM 모델을 배포하기 위해 NVIDIA NIM 모델 제공 플랫폼에서 모델 배포에 설명된 대로 모델을 배포합니다. 배포 모델 대화 상자의 NVIDIA NIM 목록에 NGC 카탈로그에서 사용할 수 있는 모든 모델 대신 선호하는 모델 목록이 표시되는 것을 확인할 수 있습니다.
2.19.4. 기존 NIM 배포에 대한 NVIDIA NIM 메트릭 활성화 링크 복사링크가 클립보드에 복사되었습니다!
이전에 OpenShift AI에 NIM 모델을 배포한 다음 2.22로 업그레이드한 경우 메트릭 수집 및 그래프 생성을 활성화하는 주석을 추가하여 기존 배포에 대해 NIM 메트릭을 수동으로 활성화해야 합니다.
2.17의 새 배포에 대해 NIM 메트릭 및 그래프가 자동으로 활성화됩니다.
2.19.4.1. 기존 NIM 배포에 대한 그래프 생성 활성화 링크 복사링크가 클립보드에 복사되었습니다!
다음 절차에서는 기존 NIM 배포에 대해 그래프 생성을 활성화하는 방법을 설명합니다.
사전 요구 사항
- OpenShift 클러스터에 대한 클러스터 관리자 권한이 있습니다.
- OpenShift CLI(명령줄 인터페이스)를 다운로드하여 설치했습니다. 자세한 내용은 OpenShift CLI 설치를 참조하십시오.
- OpenShift AI에는 기존 NIM 배포가 있습니다.
프로세스
- 터미널 창에서 클러스터 관리자로 OpenShift 클러스터에 로그인하지 않은 경우 OpenShift CLI에 로그인합니다.
NIM 배포와 연결된
ServingRuntime
의 이름을 확인합니다.oc get servingruntime -n <namespace>
oc get servingruntime -n <namespace>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow &
lt;namespace
>를 NIM 모델이 배포된 프로젝트의 네임스페이스로 바꿉니다.ServingRuntime
구성의 기존metadata.annotations
섹션을 확인합니다.oc get servingruntime -n <namespace> <servingruntime-name> -o json | jq '.metadata.annotations'
oc get servingruntime -n <namespace> <servingruntime-name> -o json | jq '.metadata.annotations'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow <servingruntime-name>을 이전 단계의
ServingRuntime
이름으로 바꿉니다.다음 작업 중 하나를 수행합니다.
metadata.annotations
섹션이 구성에 없는 경우 필요한 주석이 있는 섹션을 추가합니다.oc patch servingruntime -n <namespace> <servingruntime-name> --type json --patch \ '[{"op": "add", "path": "/metadata/annotations", "value": {"runtimes.opendatahub.io/nvidia-nim": "true"}}]'
oc patch servingruntime -n <namespace> <servingruntime-name> --type json --patch \ '[{"op": "add", "path": "/metadata/annotations", "value": {"runtimes.opendatahub.io/nvidia-nim": "true"}}]'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 다음과 유사한 출력이 표시됩니다.
servingruntime.serving.kserve.io/nim-serving-runtime patched
servingruntime.serving.kserve.io/nim-serving-runtime patched
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 기존
metadata.annotations
섹션이 있는 경우 필요한 주석을 섹션에 추가합니다.oc patch servingruntime -n <project-namespace> <runtime-name> --type json --patch \ '[{"op": "add", "path": "/metadata/annotations/runtimes.opendatahub.io~1nvidia-nim", "value": "true"}]'
oc patch servingruntime -n <project-namespace> <runtime-name> --type json --patch \ '[{"op": "add", "path": "/metadata/annotations/runtimes.opendatahub.io~1nvidia-nim", "value": "true"}]'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 다음과 유사한 출력이 표시됩니다.
servingruntime.serving.kserve.io/nim-serving-runtime patched
servingruntime.serving.kserve.io/nim-serving-runtime patched
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
주석이 기존 NIM 배포의
ServingRuntime
에 추가되었는지 확인합니다.oc get servingruntime -n <namespace> <servingruntime-name> -o json | jq '.metadata.annotations'
oc get servingruntime -n <namespace> <servingruntime-name> -o json | jq '.metadata.annotations'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 추가한 주석이 출력에 표시됩니다.
... "runtimes.opendatahub.io/nvidia-nim": "true"
... "runtimes.opendatahub.io/nvidia-nim": "true"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 참고그래프 생성에 메트릭을 사용할 수 있으려면 배포에 대한 메트릭 컬렉션도 활성화해야 합니다. 기존 NIM 배포의 메트릭 컬렉션 활성화를 참조하십시오.
2.19.4.2. 기존 NIM 배포에 대한 메트릭 컬렉션 활성화 링크 복사링크가 클립보드에 복사되었습니다!
기존 NIM 배포에 대한 메트릭 컬렉션을 활성화하려면 배포의 InferenceService
에 Prometheus 끝점 및 포트 주석을 수동으로 추가해야 합니다.
다음 절차에서는 NIM 배포의 InferenceService
에 필요한 Prometheus 주석을 추가하는 방법을 설명합니다.
사전 요구 사항
- OpenShift 클러스터에 대한 클러스터 관리자 권한이 있습니다.
- OpenShift CLI(명령줄 인터페이스)를 다운로드하여 설치했습니다. 자세한 내용은 OpenShift CLI 설치를 참조하십시오.
- OpenShift AI에는 기존 NIM 배포가 있습니다.
프로세스
- 터미널 창에서 클러스터 관리자로 OpenShift 클러스터에 로그인하지 않은 경우 OpenShift CLI에 로그인합니다.
NIM 배포와 연결된
InferenceService
의 이름을 확인합니다.oc get inferenceservice -n <namespace>
oc get inferenceservice -n <namespace>
Copy to Clipboard Copied! Toggle word wrap Toggle overflow &
lt;namespace
>를 NIM 모델이 배포된 프로젝트의 네임스페이스로 바꿉니다.InferenceService
구성에 기존spec.predictor.annotations
섹션이 있는지 확인합니다.oc get inferenceservice -n <namespace> <inferenceservice-name> -o json | jq '.spec.predictor.annotations'
oc get inferenceservice -n <namespace> <inferenceservice-name> -o json | jq '.spec.predictor.annotations'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow <inferenceservice-name>을 이전 단계의
InferenceService
의 이름으로 바꿉니다.다음 작업 중 하나를 수행합니다.
spec.predictor.annotations
섹션이 구성에 없는 경우 섹션 및 필수 주석을 추가합니다.oc patch inferenceservice -n <namespace> <inference-name> --type json --patch \ '[{"op": "add", "path": "/spec/predictor/annotations", "value": {"prometheus.io/path": "/metrics", "prometheus.io/port": "8000"}}]'
oc patch inferenceservice -n <namespace> <inference-name> --type json --patch \ '[{"op": "add", "path": "/spec/predictor/annotations", "value": {"prometheus.io/path": "/metrics", "prometheus.io/port": "8000"}}]'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 추가한 주석이 출력에 표시됩니다.
inferenceservice.serving.kserve.io/nim-serving-runtime patched
inferenceservice.serving.kserve.io/nim-serving-runtime patched
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 기존
spec.predictor.annotations
섹션이 있는 경우 섹션에 Prometheus 주석을 추가합니다.oc patch inferenceservice -n <namespace> <inference-service-name> --type json --patch \ '[{"op": "add", "path": "/spec/predictor/annotations/prometheus.io~1path", "value": "/metrics"}, {"op": "add", "path": "/spec/predictor/annotations/prometheus.io~1port", "value": "8000"}]'
oc patch inferenceservice -n <namespace> <inference-service-name> --type json --patch \ '[{"op": "add", "path": "/spec/predictor/annotations/prometheus.io~1path", "value": "/metrics"}, {"op": "add", "path": "/spec/predictor/annotations/prometheus.io~1port", "value": "8000"}]'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 추가한 주석이 출력에 표시됩니다.
inferenceservice.serving.kserve.io/nim-serving-runtime patched
inferenceservice.serving.kserve.io/nim-serving-runtime patched
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
주석이
InferenceService
에 추가되었는지 확인합니다.oc get inferenceservice -n <namespace> <inferenceservice-name> -o json | jq '.spec.predictor.annotations'
oc get inferenceservice -n <namespace> <inferenceservice-name> -o json | jq '.spec.predictor.annotations'
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 출력에 추가한 주석이 표시됩니다.
{ "prometheus.io/path": "/metrics", "prometheus.io/port": "8000" }
{ "prometheus.io/path": "/metrics", "prometheus.io/port": "8000" }
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
2.19.5. NIM 모델에 대한 NVIDIA NIM 메트릭 보기 링크 복사링크가 클립보드에 복사되었습니다!
OpenShift AI에서는 NVIDIA NIM 모델 제공 플랫폼에 배포된 NIM 모델에 대해 다음 NVIDIA NIM 메트릭을 확인할 수 있습니다.
- 시간 경과에 따른 GPU 캐시 사용량 (ms)
- 현재 실행 중, 대기 및 최대 요청 수
- 토큰 수
- 첫 번째 토큰까지의 시간
- 출력 토큰당 시간
- 요청 결과
이러한 메트릭의 시간 범위 및 새로 고침 간격을 지정하면 지정된 시간에 최대 사용 시간과 모델 성능을 결정하는 데 도움이 됩니다.
사전 요구 사항
- NVIDIA NIM 모델 제공 플랫폼을 활성화했습니다.
- NIM 모델을 NVIDIA NIM 모델 제공 플랫폼에 배포했습니다.
-
OpenShift AI 그룹을 사용하는 경우 OpenShift의 사용자 그룹 또는 관리자 그룹(예:
rhoai-users
또는rhoai-admins
)의 일부입니다. disableKServeMetrics
OpenShift AI 대시보드 구성 옵션은 기본값false
로 설정됩니다.disableKServeMetrics: false
disableKServeMetrics: false
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 대시보드 구성 옵션 설정에 대한 자세한 내용은 대시보드 사용자 지정을 참조하십시오.
프로세스
OpenShift AI 대시보드 탐색 메뉴에서 Data Science projects 를 클릭합니다.
데이터 사이언스 프로젝트 페이지가 열립니다.
- 모니터링할 NIM 모델이 포함된 프로젝트의 이름을 클릭합니다.
- 프로젝트 세부 정보 페이지에서 모델 탭을 클릭합니다.
- 관찰할 NIM 모델을 클릭합니다.
NIM 지표 탭에서 다음 옵션을 설정합니다.
- 시간 범위 - 메트릭을 추적하는 기간을 지정합니다. 이 값 중 하나를 선택할 수 있습니다. 1 시간, 24 시간, 7 일 및 30 일.
- 새로 고침 간격 - 메트릭 페이지의 그래프가 새로 고쳐지는 빈도를 지정합니다(최신 데이터를 표시). 이 값 중 하나를 선택할 수 있습니다: 15 초, 30 초, 1 분, 5 분, 15 분, 30 분, 1 시간, 2 시간, 1 일.
- 아래로 스크롤하여 NIM 메트릭의 데이터 그래프를 봅니다.
검증
NIM 지표 탭에는 배포된 NIM 모델에 대한 NIM 메트릭 그래프가 표시되어 있습니다.
추가 리소스
2.19.6. NIM 모델의 성능 메트릭 보기 링크 복사링크가 클립보드에 복사되었습니다!
NVIDIA NIM 모델 제공 플랫폼에 배포된 NIM 모델에 대해 다음과 같은 성능 메트릭을 확인할 수 있습니다.
- 요청 수 - 특정 모델에 대해 실패하거나 성공한 요청 수입니다.
- 평균 응답 시간(ms) - 요청에 응답하는 데 특정 모델이 걸리는 평균 시간입니다.
- CPU 사용률(%) - 현재 특정 모델에서 사용하는 모델 복제본당 CPU 제한의 백분율입니다.
- 메모리 사용률(%) - 특정 모델에서 사용하는 모델 복제본당 메모리 제한의 백분율입니다.
이러한 메트릭의 시간 범위 및 새로 고침 간격을 지정하면 지정된 시간에 최대 사용 시간과 모델 성능을 결정하는 데 도움이 됩니다.
사전 요구 사항
- NVIDIA NIM 모델 제공 플랫폼을 활성화했습니다.
- NIM 모델을 NVIDIA NIM 모델 제공 플랫폼에 배포했습니다.
-
OpenShift AI 그룹을 사용하는 경우 OpenShift의 사용자 그룹 또는 관리자 그룹(예:
rhoai-users
또는rhoai-admins
)의 일부입니다. disableKServeMetrics
OpenShift AI 대시보드 구성 옵션은 기본값false
로 설정됩니다.disableKServeMetrics: false
disableKServeMetrics: false
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 대시보드 구성 옵션 설정에 대한 자세한 내용은 대시보드 사용자 지정을 참조하십시오.
프로세스
OpenShift AI 대시보드 탐색 메뉴에서 Data Science projects 를 클릭합니다.
데이터 사이언스 프로젝트 페이지가 열립니다.
- 모니터링할 NIM 모델이 포함된 프로젝트의 이름을 클릭합니다.
- 프로젝트 세부 정보 페이지에서 모델 탭을 클릭합니다.
- 관찰할 NIM 모델을 클릭합니다.
끝점 성능 탭에서 다음 옵션을 설정합니다.
- 시간 범위 - 메트릭을 추적하는 기간을 지정합니다. 이 값 중 하나를 선택할 수 있습니다. 1 시간, 24 시간, 7 일 및 30 일.
- 새로 고침 간격 - 메트릭 페이지의 그래프가 새로 고쳐 최신 데이터를 표시하는 빈도를 지정합니다. 이 값 중 하나를 선택할 수 있습니다: 15 초, 30 초, 1 분, 5 분, 15 분, 30 분, 1 시간, 2 시간, 1 일.
- 아래로 스크롤하여 성능 지표의 데이터 그래프를 확인합니다.
검증
Endpoint 성능 탭에는 배포된 NIM 모델의 성능 지표 그래프가 표시되어 있습니다.