7장. 확인된 문제


이 섹션에서는 Red Hat OpenShift AI 2.22의 알려진 문제와 이러한 문제를 해결하는 알려진 방법에 대해 설명합니다.

RHOAIENG-29731 - FIPS 지원 IBM Power 클러스터에서 유추 서비스 생성 실패

FIPS 지원 IBM Power 클러스터에서 vLLM 런타임을 사용하여 유추 서비스를 생성하려고 하면 NUMA(Non-Uniform Memory Access)와 관련된 오류로 인해 실패합니다.

해결방법
유추 서비스를 생성할 때 환경 변수 VLLM_CPU_OMP_THREADS_BINDall 로 설정합니다.

RHOAIENG-29352 - Missing Documentation and Support 메뉴 항목

OpenShift AI 상단 탐색 모음에서 도움말 아이콘( Help icon )을 클릭하면 메뉴에 정보 메뉴 항목만 포함됩니다. 문서지원 메뉴 항목이 누락되어 있습니다.

해결방법
없음.

RHOAIENG-292 - 사용 통계 디렉토리 액세스로 인해 IBM Z에서 권한 오류를 기록합니다.

IBM Z 아키텍처에서 vLLM을 실행하면 유추 서비스가 성공적으로 시작되지만 사용량 통계 보고와 관련된 백그라운드 스레드에 오류를 기록합니다. 이는 서비스가 액세스 권한이 없는 제한된 위치(/.config)에 사용 데이터를 쓰려고 하기 때문에 발생합니다.

로그에 다음 오류가 표시됩니다.

Exception in thread Thread-2 (_report_usage_worker):
Traceback (most recent call last):
 ...
PermissionError: [Error 13] Permission denied: '/.config'
Copy to Clipboard Toggle word wrap
해결방법
이 오류를 방지하고 사용량 통계 로깅을 표시하지 않으려면 유추 서비스 배포에서 VLLM_NO_USAGE_STATS=1 환경 변수를 설정합니다. 이렇게 하면 자동 사용 보고가 비활성화되므로 시스템 디렉터리에 쓰기 시 권한 문제가 발생하지 않습니다.

RHOAIENG-28910 - 관리되지 않는 KServe 리소스는 2.16에서 2.19 이상으로 업그레이드한 후 삭제됩니다.

OpenShift AI 2.16에서 2.22로 업그레이드하는 동안 소유자 참조가 관련 KServe 관련 리소스에서 완전히 제거되기 전에 FeatureTracker CR(사용자 정의 리소스)이 삭제됩니다. 결과적으로 Red Hat OpenShift AI Operator가 Managed 상태로 처음 생성한 리소스가 DataScienceCluster (DSC) 사용자 정의 리소스(CR)에서 의도치 않게 제거될 수 있었습니다. 이 문제로 인해 리소스가 수동으로 복원될 때까지 모델 서비스 기능이 중단될 수 있습니다.

2.16에서 Unmanaged 로 변경된 경우 2.22에서 다음 리소스가 삭제될 수 있습니다.

Expand
유형네임스페이스이름

KnativeServing

knative-serving

knative-serving

ServiceMeshMember

knative-serving

default

게이트웨이

istio-system

kserve-local-gateway

게이트웨이

knative-serving

knative-ingress-gateway

게이트웨이

knative-serving

knative-local-gateway

해결방법

OpenShift AI 2.16에서 2.22로 이미 업그레이드한 경우 다음 작업 중 하나를 수행합니다.

  • 기존 백업이 있는 경우 FeatureTracker CR에 대한 소유자 참조 없이 삭제된 리소스를 수동으로 다시 생성합니다.
  • 기존 백업이 없는 경우 Operator를 사용하여 삭제된 리소스를 다시 생성할 수 있습니다.

    1. 이미 다시 생성한 모든 리소스를 백업하십시오.
    2. DSC에서 spec.components.kserve.serving.managementStateManaged 로 설정한 다음 Operator에서 리소스를 다시 생성할 수 있도록 변경 사항을 저장합니다.

      Operator가 리소스를 다시 생성할 때까지 기다립니다.

    3. DSC에서 spec.components.kserve.serving.managementState 를 다시 Unmanaged 로 설정한 다음 변경 사항을 저장합니다.
    4. 재생성된 KnativeServing,ServiceMeshMemberGateway CRs 리소스에 대한 이전 사용자 정의 변경 사항을 다시 적용합니다.

아직 업그레이드하지 않은 경우 이 문제를 방지하기 위해 업그레이드하기 전에 다음 작업을 수행합니다.

  1. DSC에서 spec.components.kserve.serving.managementStateUnmanaged 로 설정합니다.
  2. 위 표에 나열된 영향을 받는 KnativeServing,ServiceMeshMember게이트웨이 리소스에 대해 FeatureTracker 소유자 참조를 삭제하여 CR을 편집합니다. 이 편집에서는 FeatureTracker 에 대한 리소스의 종속성을 제거하고 업그레이드 프로세스 중에 리소스 삭제를 방지합니다.

NVPE-302,NVPE-303 - NIM 모델용 스토리지 클래스 없음

새로 설치된 OpenShift AI 클러스터에서 NVIDIA NIM 모델 제공 플랫폼에 NVIDIA NIM 모델 제공 플랫폼에 NVIDIA NIM 모델 제공 플랫폼을 배포하려고 하면 스토리지 클래스 드롭다운 메뉴가 채워지거나 모델 배포 페이지에 누락된 것을 확인할 수 있습니다. 이는 스토리지 클래스가 OpenShift AI를 새로 설치할 때 사용자 인터페이스에 로드되거나 캐시되지 않기 때문입니다. 따라서 배포에 대한 스토리지를 구성할 수 없습니다.

해결방법
  1. OpenShift AI 대시보드에서 설정 스토리지 클래스 를 클릭합니다. 변경하지 마십시오.
  2. 모델 모델 배포를 클릭하여 NIM 모델 배포를 확인합니다.
  3. 모델 배포를 클릭합니다.
  4. 모델 배포 페이지에서 스토리지 클래스 드롭다운 메뉴가 표시되고 사용 가능한 스토리지 클래스 옵션으로 채워집니다.

RHOAIENG-27676 - 액셀러레이터 프로파일이 삭제된 케이스에서 제대로 작동하지 않음

워크벤치, 배포 또는 모델 서버를 생성한 후 액셀러레이터 프로필을 삭제하면 Edit 페이지에서 기존 설정을 사용하지 않고 잘못된 액셀러레이터 프로필을 표시합니다.

해결방법
없음.

RHOAIENG-25734 - 노트북 이미지와 함께 이름 문제

워크벤치, 배포 또는 모델 서버를 생성한 후 워크벤치를 삭제하고 제품 범위 및 글로벌 범위 모두에 동일한 이름을 사용하면 워크벤치 테이블 및 편집 워크벤치 양식에 잘못된 이름이 표시됩니다.

해결방법
프로젝트 범위 및 글로벌 범위 액셀러레이터 프로파일에는 동일한 이름을 사용하지 마십시오.

RHOAIENG-25733 - Accelerator 프로파일이 중복 이름에서 제대로 작동하지 않음

워크벤치, 배포 또는 모델을 생성하고 프로젝트 범위 액셀러레이터 프로파일과 동일한 이름을 사용하는 경우 페이지 편집 페이지 및 서버 양식에 잘못된 레이블을 각 테이블 및 양식에 표시합니다.

해결방법
프로젝트 범위 및 글로벌 범위 액셀러레이터 프로파일에는 동일한 이름을 사용하지 마십시오.

RHOAIG-245 - 처음 시작한 후 워크벤치에 런타임 이미지가 존재하지 않음

런타임 이미지 목록이 네임스페이스에서 첫 번째 실행 중인 워크벤치 인스턴스를 올바르게 채우지 않으므로 Elyra 파이프라인 편집기에서 선택할 수 있는 이미지가 표시되지 않습니다.

해결방법
워크벤치를 다시 시작합니다. 워크벤치를 다시 시작한 후 런타임 이미지 목록에 Elyra 파이프라인 편집기의 워크벤치와 선택 상자가 모두 채워집니다.

RHOAIENG-25090 - 모델 등록 옵션이 비활성화되면 InstructLab prerequisites-check-op 작업이 실패합니다.

< model 레지스트리 이름>에 모델 추가 확인란을 선택하지 않고 LAB-tuning 실행을 시작하면 InstructLab 파이프라인이 시작되지만 Pod 로그에서 다음 오류와 함께 prerequisites-check-op 작업이 실패합니다.

failed: failed to resolve inputs: the resolved input parameter is null: output_model_name
Copy to Clipboard Toggle word wrap
해결방법
LAB-tuning run을 구성할 때 Add model to <model registry name > 체크박스를 선택합니다.

RHOAIENG-25056 - 중첩된 파이프라인에 사용되는 선택적 입력 매개 변수가 설정되지 않은 경우 데이터 사이언스 파이프라인 작업이 실패합니다.

파이프라인에 선택적 입력 매개변수가 있는 경우 해당 매개변수의 값이 제공되지 않고 중첩된 파이프라인에 사용되는 경우 해당 매개변수를 사용하는 작업이 다음 오류와 함께 실패합니다.

failed: failed to resolve inputs: resolving input parameter with spec component_input_parameter:"optional_input": parent DAG does not have input parameter optional_input
Copy to Clipboard Toggle word wrap
해결방법
중첩된 파이프라인 작업을 사용할 때 모든 선택적 매개변수의 값을 제공합니다.

RHOAIENG-24786 - 연결이 끊긴 환경에서 Authorino Operator를 기술 프리뷰에서 Stable로 업그레이드하지 못했습니다.

연결이 끊긴 환경에서는 Red Hat Authorino Operator를 Technical Preview에서 Stable로 업그레이드하면 authconfig-migrator-qqttz Pod의 오류와 함께 실패합니다.

해결방법
  1. Red Hat Authorino Operator를 tech-preview-v1 업데이트 채널(v1.1.2)의 최신 버전으로 업데이트합니다.
  2. 다음 스크립트를 실행합니다.

    #!/bin/bash
    set -xe
    
    # delete the migrator job
    oc delete job -n openshift-operators authconfig-migrator || true
    
    # run the migrator script
    authconfigs=$(oc get authconfigs -A -o custom-columns='NAMESPACE:.metadata.namespace,NAME:.metadata.name' --no-headers)
    
    if [[ ! -z "${authconfigs}" ]]; then
        while IFS=" " read -r namespace name; do
            oc get authconfig "$name" -n "$namespace" -o yaml > "/tmp/${name}.${namespace}.authconfig.yaml"
            oc apply -f "/tmp/${name}.${namespace}.authconfig.yaml"
        done <<< "${authconfigs}"
    fi
    
    oc patch crds authconfigs.authorino.kuadrant.io --type=merge --subresource status --patch '{"status":{"storedVersions":["v1beta2"]}}'
    Copy to Clipboard Toggle word wrap
  3. stable 업데이트 채널을 사용하도록 Red Hat Authorino Operator 서브스크립션을 업데이트합니다.
  4. Authorino 1.2.1의 업데이트 옵션을 선택합니다.

RHOAIENG-20209 - 요청된 리소스가 임계값을 초과하면 경고 메시지가 표시되지 않음

분산 워크로드 프로젝트 메트릭 을 클릭하고 요청 리소스 섹션을 보면 차트에 요청된 리소스 값과 각 리소스(CPU메모리)에 대한 총 공유 할당량 값이 표시됩니다. 그러나 모든 프로젝트의 Requested by all projects 값이 해당 리소스에 대한 Warning 임계값 을 초과하면 예상되는 경고 메시지가 표시되지 않습니다.

해결방법
없음.

SRVKS-1301 (이전에는 RHOAIENG-18590)로 문서화되어 있음 - KServe를 비활성화하고 활성화한 후 KnativeServing 리소스가 실패합니다.

DataScienceCluster에서 kserve 구성 요소를 비활성화하고 활성화하면 KnativeServing 리소스가 실패할 수 있습니다.

해결방법

Knative와 관련된 모든 ValidatingWebhookConfigurationMutatingWebhookConfiguration Webhook를 삭제합니다.

  1. Webhook를 가져옵니다.

    oc get ValidatingWebhookConfiguration,MutatingWebhookConfiguration | grep -i knative
    Copy to Clipboard Toggle word wrap
  2. KServe가 비활성화되어 있는지 확인합니다.
  3. Webhook를 가져옵니다.

    oc get ValidatingWebhookConfiguration,MutatingWebhookConfiguration | grep -i knative
    Copy to Clipboard Toggle word wrap
  4. Webhook를 삭제합니다.
  5. KServe를 활성화합니다.
  6. KServe Pod가 성공적으로 생성할 수 있고 knative-serving 네임스페이스의 Pod가 활성 상태이고 작동하는지 확인합니다.

RHOAIENG-16247 - OpenShift AI 대시보드에서 실행이 시작될 때 Elyra 파이프라인 실행 출력을 덮어씁니다.

Elyra에서 파이프라인을 생성하고 실행하면 파이프라인 실행에 의해 생성된 출력은 오브젝트 스토리지의 bucket-name/pipeline-name-timestamp 폴더에 저장됩니다.

Elyra에서 파이프라인이 생성되고 OpenShift AI 대시보드에서 파이프라인 실행이 시작되면 타임스탬프 값이 업데이트되지 않습니다. 이로 인해 파이프라인 실행이 동일한 파이프라인 실행의 이전 파이프라인 실행으로 생성된 파일을 덮어쓸 수 있습니다.

runid 는 항상 오브젝트 스토리지에 사용되는 폴더에 추가되므로 이 문제는 OpenShift AI 대시보드를 사용하여 컴파일 및 가져온 파이프라인에 영향을 미치지 않습니다. 데이터 사이언스 파이프라인에 사용되는 저장 위치에 대한 자세한 내용은 데이터 사이언스 파이프라인 을 사용하여 데이터 저장 을 참조하십시오.

해결방법
Elyra 파이프라인에 파일을 저장할 때 각 파이프라인 실행 시 다른 하위 폴더 이름을 사용합니다.

OCPBUGS-49422 - AMD GPU 및 AMD ROCm 워크벤치 이미지는 연결이 끊긴 환경에서 지원되지 않습니다.

이번 OpenShift AI 릴리스는 AMD GPU Operator를 설치하려면 GPU 드라이버 컴파일에 필요한 종속성을 가져오기 위해 인터넷 액세스가 필요하기 때문에 연결이 끊긴 환경에서 AMD GPU 및 AMD ROCm 워크벤치 이미지를 지원하지 않습니다.

해결방법
없음.

RHOAIENG-12516 - 의도하지 않은 릴리스 채널에서 빠른 릴리스를 사용할 수 있습니다.

스트림 이미지 전달 프로세스의 알려진 문제로 인해 현재 의도하지 않은 스트리밍 채널(예: stable , stable -x.y )에서 빠른 릴리스를 사용할 수 있습니다. 정확한 릴리스 유형, 채널 및 지원 라이프사이클 정보는 Red Hat OpenShift AI Self - Managed 라이프 사이클 페이지의 라이프 사이클 표를 참조하십시오.

해결방법
없음.

RHOAIENG-8294 - OpenShift AI 2.8을 버전 2.10 이상으로 업그레이드할 때 CodeFlare 오류

OpenShift AI 2.8을 버전 2.10 이상으로 업그레이드하려고 하면 AppWrapper CRD(사용자 정의 리소스 정의) 버전과 일치하지 않기 때문에 CodeFlare 구성 요소에 대해 다음 오류 메시지가 표시됩니다.

ReconcileCompletedWithComponentErrors DataScienceCluster resource reconciled with component errors: 1 error occurred: * CustomResourceDefinition.apiextensions.k8s.io "appwrappers.workload.codeflare.dev" is invalid: status.storedVersions[0]: Invalid value: "v1beta1": must appear in spec.versions
Copy to Clipboard Toggle word wrap
해결방법
  1. 기존 AppWrapper CRD를 삭제합니다.

    $ oc delete crd appwrappers.workload.codeflare.dev
    Copy to Clipboard Toggle word wrap
  2. 약 20초 동안 기다린 다음 다음 예와 같이 새 AppWrapper CRD가 자동으로 적용되었는지 확인합니다.

    $ oc get crd appwrappers.workload.codeflare.dev
    NAME                                 CREATED AT
    appwrappers.workload.codeflare.dev   2024-11-22T18:35:04Z
    Copy to Clipboard Toggle word wrap

RHOAIENG-7716 - 파이프라인 조건 그룹 상태가 업데이트되지 않음

루프(dsl.ParallelFor) 또는 조건 그룹(dsl.lf)이 있는 파이프라인을 실행하면 파이프라인 실행이 완료된 후에도 UI에 루프 및 그룹에 대한 Running 상태가 표시됩니다.

해결방법

하위 작업이 활성 상태로 유지되지 않았는지 확인하여 파이프라인이 여전히 실행 중인지 확인할 수 있습니다.

  1. OpenShift AI 대시보드에서 Data Science Pipelines Runs 를 클릭합니다.
  2. 프로젝트 목록에서 데이터 사이언스 프로젝트를 클릭합니다.
  3. 실행 탭에서 상태를 확인할 파이프라인 실행을 클릭합니다.
  4. 조건 그룹을 확장하고 하위 작업을 클릭합니다.

    하위 작업에 대한 정보가 포함된 패널이 표시됩니다.

  5. 패널에서 Task 세부 정보 탭을 클릭합니다.

    Status 필드에 하위 작업에 대한 올바른 상태가 표시됩니다.

RHOAIENG-6409 - 성공적인 실행을 위해 파이프라인 로그에 매개변수 오류를 저장할 수 없습니다

데이터 사이언스 파이프라인 2.0을 사용하여 파이프라인을 두 번 이상 실행하면 파이프라인 실행을 위해 매개변수 오류가 파이프라인 로그에 표시될 수 없습니다. 이러한 오류는 무시해도 됩니다.

해결방법
없음.

RHOAIENG-12294 (이전에는 RHOAIENG-4812)로 문서화되어 있음 - 분산 워크로드 메트릭이 GPU 메트릭을 제외함

이번 OpenShift AI 릴리스에서 분산 워크로드 메트릭은 GPU 메트릭을 제외합니다.

해결방법
없음.

RHOAIENG-4570 - 설치 또는 업그레이드와 함께 기존 Argo 워크플로우 설치 충돌

데이터 사이언스 파이프라인 2.0에는 Argo Workflows 설치가 포함되어 있습니다. Red Hat은 이 Argo 워크플로우 설치에 대한 직접 고객 사용을 지원하지 않습니다. 데이터 사이언스 파이프라인 2.0을 사용하여 OpenShift AI를 설치하거나 업그레이드하려면 클러스터에 Argo 워크플로우의 기존 설치가 없는지 확인합니다. 자세한 내용은 데이터 사이언스 파이프라인 2.0으로 마이그레이션 을 참조하십시오.

해결방법
기존 Argo Workflows 설치를 제거하거나 데이터 정보pipelinesRemoved 로 설정한 다음 설치 또는 업그레이드를 진행합니다.

RHOAIENG-3913 - Red Hat OpenShift AI Operator에 오류와 함께 Degraded condition of False 가 잘못 표시됨

OpenShift AI Operator에서 사용하는 DSC(DataScienceCluster) 오브젝트에서 KServe 구성 요소를 활성화했지만 종속 Red Hat OpenShift Service Mesh 및 Red Hat OpenShift Serverless Operator를 설치하지 않은 경우 DSC 오브젝트의 kserveReady 조건이 KServe가 준비되지 않았음을 올바르게 보여줍니다. 그러나 Degraded 상태에 False 값이 잘못 표시됩니다.

해결방법
Red Hat OpenShift Serverless 및 Red Hat OpenShift Service Mesh Operator를 설치한 다음 DSC를 다시 생성합니다.

RHOAIENG-3025 - OVMS 예상 디렉터리 레이아웃 KServe StoragePuller 레이아웃

OVMS(OpenVINO Model Server) 런타임을 사용하여 단일 모델 제공 플랫폼(KServe 사용)에 모델을 배포할 때 OVMS에서 예상되는 디렉터리 레이아웃과 KServe에서 사용하는 모델 가져오기 논리의 디렉터리 레이아웃이 일치하지 않습니다. 특히 OVMS에서는 모델 파일이 /< mnt>/models/1/ 디렉터리에 있어야 하지만 KServe는 이를 /<mnt>/models/ 디렉터리에 배치합니다.

해결방법

다음 작업을 수행합니다.

  1. S3 호환 스토리지 버킷에서 모델 파일을 1/ 이라는 디렉터리에 배치합니다(예: /< s3_storage_bucket>/models/1/<model_files > ).
  2. OVMS 런타임을 사용하여 단일 모델 제공 플랫폼에 모델을 배포하려면 다음 옵션 중 하나를 선택하여 모델 파일의 경로를 지정합니다.

    • OpenShift AI 대시보드를 사용하여 모델을 배포하는 경우 데이터 연결의 경로 필드에서 /<s3_storage_bucket>/models/ 형식을 사용하여 모델 파일의 경로를 지정합니다. 1/ 디렉터리를 경로의 일부로 지정하지 마십시오.
    • 모델을 배포하기 위해 자체 InferenceService 사용자 지정 리소스를 생성하는 경우 storageURI 필드의 값을 /<s3_storage_bucket>/models/ 로 구성합니다. 1/ 디렉터리를 경로의 일부로 지정하지 마십시오.

KServe는 지정한 경로의 하위 디렉터리에서 모델 파일을 가져옵니다. 이 경우 KServe는 S3 호환 스토리지의 /<s3_storage_bucket>/models/1/ 디렉토리에서 모델 파일을 올바르게 가져옵니다.

RHOAIENG-3018 - KServe의 OVMS는 대시보드에 올바른 끝점을 노출하지 않습니다.

OVMS(OpenVINO Model Server) 런타임을 사용하여 단일 모델 제공 플랫폼에 모델을 배포할 때 배포된 모델의 유추 끝점 필드에 표시된 URL이 완료되지 않습니다.

해결방법
모델에 쿼리를 보내려면 /v2/models/_<model-name>_/infer 문자열을 URL 끝에 추가해야 합니다. _<model-name>_ 을 배포된 모델의 이름으로 바꿉니다.

RHOAIENG-2602 - "상세 응답 시간" 서버 메트릭 그래프는 ModelMesh pod 재시작으로 인해 여러 행을 보여줍니다.

평균 응답 시간 서버 지표 그래프는 ModelMesh Pod가 다시 시작되면 여러 행을 보여줍니다.

해결방법
없음.

RHOAIENG-2585 - 클러스터에서 UWM이 활성화되지 않은 경우 UI에 오류/경고가 표시되지 않음

Red Hat OpenShift AI는 클러스터에서 UWM(User Workload Monitoring)이 비활성화된 경우 사용자에게 올바르게 경고하지 않습니다. UWM은 모델 메트릭의 올바른 기능에 필요합니다.

해결방법
사용자 정의 프로젝트에 대한 모니터링 활성화에 설명된 대로 클러스터에서 UWM이 활성화되어 있는지 수동으로 확인합니다.

RHOAIENG-2555 - Serving Runtime을 변경할 때 모델 프레임워크 선택기가 재설정되지 않음

모델 배포 대화 상자를 사용하여 단일 모델 제공 플랫폼에 모델을 배포하는 경우 런타임 및 지원되는 프레임워크를 선택한 다음 다른 런타임으로 전환하면 기존 프레임워크 선택 사항이 재설정되지 않습니다. 즉, 선택한 런타임에 지원되지 않는 프레임워크를 사용하여 모델을 배포할 수 있습니다.

해결방법
모델을 배포하는 동안 선택한 런타임을 변경하는 경우 프레임워크 선택 목록을 다시 클릭하고 지원되는 프레임워크를 선택합니다.

RHOAIENG-2468 - KServe와 동일한 프로젝트의 서비스는 OpenShift에서 액세스할 수 없게 될 수 있습니다.

단일 모델 제공 플랫폼(KServe 사용)에 배포된 모델이 포함된 데이터 과학 프로젝트에 OpenShift AI가 아닌 서비스를 배포하는 경우 서비스의 접근성이 OpenShift 클러스터의 네트워크 구성의 영향을 받을 수 있습니다. 호스트 네트워크 네임스페이스와 함께 OVN-Kubernetes 네트워크 플러그인 을 사용하는 경우 특히 그러합니다.

해결방법

다음 작업 중 하나를 수행합니다.

  • 단일 모델 제공 플랫폼에 배포된 모델이 포함되지 않은 다른 데이터 사이언스 프로젝트에 서비스를 배포합니다. 또는 다른 OpenShift 프로젝트에서 서비스를 배포합니다.
  • 서비스가 되는 데이터 사이언스 프로젝트에서 다음 예와 같이 애플리케이션 pod에 수신 트래픽을 허용하는 네트워크 정책을 추가합니다.

    apiVersion: networking.k8s.io/v1
    kind: NetworkPolicy
    metadata:
      name: allow-ingress-to-myapp
    spec:
      podSelector:
        matchLabels:
          app: myapp
      ingress:
         - {}
    Copy to Clipboard Toggle word wrap

RHOAIENG-2228 - 간격이 15초로 설정될 때 성능 메트릭 그래프가 지속적으로 변경됩니다.

모델 지표 화면의 끝점 성능 탭에서 새로 고침 간격을 15초로 설정하고 시간 범위를 1시간으로 설정하면 그래프 결과가 지속적으로 변경됩니다.

해결방법
없음.

RHOAIENG-2183 - 끝점 성능 그래프에 잘못된 레이블이 표시될 수 있습니다.

모델 지표 화면의 끝점 성능 탭에서 그래프 툴팁에 잘못된 레이블이 표시될 수 있습니다.

해결방법
없음.

RHOAIENG-1919 - Model Serving 페이지가 배포 직후 모델 경로 URL을 가져오지 못하거나 보고되지 않음

OpenShift AI 대시보드에서 모델을 배포할 때 시스템은 다음 경고 메시지를 표시하고 모델의 Status 열은 OK/green 확인 표시로 성공했음을 나타냅니다.

Failed to get endpoint for this deployed model. routes.rout.openshift.io"<model_name>" not found
Copy to Clipboard Toggle word wrap
해결방법
브라우저 페이지를 새로 고칩니다.

RHOAIENG-404 - OpenShift AI 대시보드에서 사용 가능한 페이지 대신 구성 요소를 찾을 수 없는 페이지가 무작위로 표시됨

Red Hat OpenShift AI 대시보드에 액세스하면 No Components Found 페이지가 표시될 수 있습니다.

해결방법
브라우저 페이지를 새로 고칩니다.

RHOAIENG-234 - Insecure 클러스터의 VSCode에서 .ipynb 파일을 볼 수 없음

비보안 클러스터의 Google Chrome에서 code-server 워크벤치 이미지를 사용하는 경우 .ipynb 파일을 볼 수 없습니다.

해결방법
다른 브라우저를 사용하십시오.

RHOAIENG-1128 - 워크벤치에 연결되지 않은 PV(영구 볼륨) 크기를 늘리려고 할 때 Unclear 오류 메시지가 표시됩니다.

워크벤치에 연결되지 않은 PV(영구 볼륨)의 크기를 늘리려고 하면 명확하지 않은 오류 메시지가 표시됩니다.

해결방법
크기를 늘리기 전에 PV가 워크벤치에 연결되어 있는지 확인합니다.

RHOAIENG-497 - OpenShift Service Mesh CR에서 사용자 알림 없이 삭제됨

DSCInitialization 리소스를 삭제하면 OpenShift Service Mesh CR도 삭제됩니다. 경고 메시지가 표시되지 않습니다.

해결방법
없음.

RHOAIENG-282 - 필요한 리소스를 사용할 수 없는 경우 작업 로드를 디스패치해서는 안 됩니다.

단일 머신 인스턴스에 CryostatCluster를 성공적으로 프로비저닝할 수 있는 충분한 리소스가 없는 경우에도 워크로드가 디스패치되는 경우가 있습니다. AppWrapper CRD는 Running 상태로 유지되며 관련 Pod는 무기한 Pending 상태로 유지됩니다.

해결방법
클러스터에 리소스를 추가합니다.

RHOAIENG-131 - gRPC 끝점이 Loaded로 보고한 후 제대로 응답하지 않음

수많은 InferenceService 인스턴스가 생성되고 요청을 지시하면 SMCP(Service Mesh Control Plane)가 응답하지 않습니다. InferenceService 인스턴스의 상태는 Loaded 이지만 gRPC 끝점에 대한 호출은 오류와 함께 반환됩니다.

해결방법
ServiceMeshControlPlane 사용자 정의 리소스(CR)를 편집하여 Istio 송신 및 인그레스 Pod의 메모리 제한을 늘립니다.

RHOAIENG-130 - 모델이 출시되었을 때 동기화 문제

KServe 컨테이너의 상태가 Ready 이면 TGIS 컨테이너가 준비되지 않은 경우에도 요청이 허용됩니다.

해결방법
몇 초 동안 모든 초기화가 완료되고 TGIS 컨테이너가 실제로 준비되었는지 확인한 다음 요청 출력을 검토합니다.

RHOAIENG-3115 - 모델은 준비 상태로 표시된 후 몇 초 동안 쿼리할 수 없습니다.

다중 모델 제공 플랫폼을 사용하여 배포된 모델은 대시보드에 Ready 로 표시되더라도 쿼리에 응답하지 않을 수 있습니다. 모델 엔드포인트를 쿼리할 때 "Application is not available" 응답이 표시될 수 있습니다.

해결방법
30-40초 동안 기다린 다음 브라우저에서 페이지를 새로 고칩니다.

RHOAIENG-1619 (이전에는 DATA-SCIENCE-PIPELINES-165)로 문서화되어 있습니다. S3 버킷을 쓸 수 없는 경우 오류 메시지

데이터 연결을 설정하고 S3 버킷을 쓸 수 없으며 파이프라인을 업로드하려고 하면 파이프라인을 저장할 수 없음 이라는 오류 메시지가 도움이 되지 않습니다.

해결방법
데이터 연결 인증 정보가 올바르고 사용자가 지정한 버킷에 대한 쓰기 액세스 권한이 있는지 확인합니다.

RHOAIENG-1207 (이전에는 ODH-DASHBOARD-1758) - cnfTB 사용자 정의 서비스 런타임을 여러 번 중복된 오류

model-serving 런타임을 여러 번 복제하면 Serving 런타임 이름 "<name>"과 함께 중복이 실패합니다.

해결방법
metadata.name 필드를 고유한 값으로 변경합니다.

RHOAIENG-1201 (이전에는 ODH-DASHBOARD-1908) - 빈 환경 변수를 사용하여 워크벤치를 생성할 수 없습니다

워크벤치를 생성할 때 변수 추가 를 클릭하지만 목록에서 환경 변수 유형을 선택하지 않으면 워크벤치를 생성할 수 없습니다. 이 필드는 필수로 표시되지 않으며 오류 메시지가 표시되지 않습니다.

해결방법
없음.

RHOAIENG-432 (이전에는 RHODS-12928) - 지원되지 않는 문자를 사용하면 여러 대시가 있는 Kubernetes 리소스 이름을 생성할 수 있습니다.

리소스를 생성하고 이름에 지원되지 않는 문자를 지정하면 각 공간이 대시로 교체되고 지원되지 않는 기타 문자가 제거되어 잘못된 리소스 이름이 발생할 수 있습니다.

해결방법
없음.

RHOAIENG-226 (이전에는 RHODS-12432로 문서화됨) - 노트북 조각 모음 ConfigMap을 비활성화하면 대시보드에서 권한이 삭제됨

redhat-ods -applications 네임스페이스에서 laptop-controller-culler-config ConfigMap을 삭제하면 더 이상 OpenShift AI 대시보드의 클러스터 설정 페이지에 변경 사항을 저장할 수 없습니다. HTTP 요청으로 인해 저장 작업이 실패하고 오류가 발생했습니다.

해결방법

cluster-admin 권한이 있는 사용자로 다음 단계를 완료합니다.

  1. oc 클라이언트를 사용하여 클러스터에 로그인합니다.
  2. 다음 명령을 입력하여 redhat-ods-applications 애플리케이션 네임스페이스에서 OdhDashboardConfig 사용자 정의 리소스를 업데이트합니다.

    $ oc patch OdhDashboardConfig odh-dashboard-config -n redhat-ods-applications --type=merge -p '{"spec": {"dashboardConfig": {"notebookController.enabled": true}}}'
    Copy to Clipboard Toggle word wrap

RHOAIENG-133 - 기존 워크벤치는 워크벤치 다시 시작한 후 Elyra 파이프라인을 실행할 수 없습니다.

Elyra tellpyterLab 확장을 사용하여 duepyterLab 내에서 데이터 사이언스 파이프라인을 생성 및 실행하고 작업벤치 내에서 워크벤치 이미지를 생성한 파이프라인 서버를 구성하면 워크벤치를 다시 시작한 후에도 파이프라인을 실행할 수 없습니다.

해결방법
  1. 실행 중인 워크벤치를 중지합니다.
  2. 워크벤치를 편집하여 약간의 수정을 수행합니다. 예를 들어 새 더미 환경 변수를 추가하거나 불필요한 기존 환경 변수를 삭제합니다. 변경 사항을 저장하십시오.
  3. 워크벤치를 다시 시작합니다.
  4. sendpyterLab의 왼쪽 사이드바에서 런타임을 클릭합니다.
  5. 기본 런타임이 선택되어 있는지 확인합니다.

RHODS-12798 - Pod 실패, "unable to init seccomp" 오류

seccomp 메모리 누수를 도입한 알려진 커널 버그로 인해 Pod는 Running 상태 대신 CreateContainerError 상태 또는 Pending 상태로 인해 실패합니다. Pod가 실패한 네임스페이스에서 이벤트를 확인하거나 oc describe pod 명령을 실행하면 다음 오류가 표시됩니다.

runc create failed: unable to start container process: unable to init seccomp: error loading seccomp filter into kernel: error loading seccomp filter: errno 524
Copy to Clipboard Toggle word wrap

KUBEFLOW-177 - OAuth 프록시에 의해 전달되지 않은 애플리케이션의 전달자 토큰

내부 인증 메커니즘이 전달자 토큰을 기반으로 하는 경우 애플리케이션을 사용자 지정 워크벤치 이미지로 사용할 수 없습니다. OAuth-proxy 구성은 헤더에서 전달자 토큰을 제거하며 애플리케이션이 제대로 작동할 수 없습니다.

해결방법
없음.

RHOAIENG-1210 (이전에는 ODH-DASHBOARD-1699) - 모든 구성 변경 사항에 대해 Workbench가 자동으로 재시작되지는 않음

워크벤치의 구성 설정을 편집하면 구성 설정을 변경하면 워크벤치가 다시 시작됨이라는 경고 메시지가 표시됩니다. 다음 경우 워크벤치가 자동으로 다시 시작되지 않기 때문에 이 경고는 오작동합니다.

  • 이름 편집
  • 설명 편집
  • 기존 환경 변수의 키와 값 편집, 추가 또는 제거
해결방법
워크벤치를 수동으로 다시 시작합니다.

RHOAIENG-1208 (이전에는 ODH-DASHBOARD-1741)로 문서화되어 있음 - 이름으로 시작하는 워크벤치를 만들 수 없습니다.

숫자로 시작하는 워크벤치를 생성하려고 하면 워크벤치가 시작되지 않습니다.

해결방법
워크벤치를 삭제하고 문자로 시작하는 이름으로 새 항목을 만듭니다.

KUBEFLOW-157 - OpenShift AI 대시보드에서 이미 로그아웃한 경우 duepyterLab에서 로깅이 작동하지 않음

CryostatpyterLab에서 로그아웃하기 전에 OpenShift AI 대시보드에서 로그아웃하는 경우 teachingpyterLab에서 로그아웃하는 데 성공하지 못합니다. 예를 들어, sendpyter 노트북의 URL을 알고 있으면 브라우저에서 이 URL을 다시 열 수 있습니다.

해결방법
OpenShift AI 대시보드에서 로그아웃하기 전에 sendpyterLab에서 로그아웃합니다.

RHODS-9789 - 데이터베이스 이름 또는 사용자 이름 필드에 대시를 포함하는 사용자 지정 데이터베이스가 포함된 경우 Pipeline 서버를 시작하지 못했습니다.

사용자 지정 데이터베이스를 사용하는 파이프라인 서버를 생성할 때 dbname 필드 또는 사용자 이름 필드에 설정한 값이 대시를 포함하는 경우 파이프라인 서버가 시작되지 않습니다.

해결방법
영향을 받는 필드에서 대시를 생략하도록 파이프라인 서버를 편집합니다.

RHODS-7718 - 대시보드 권한이 없는 사용자는 실행 중인 워크벤치를 무기한 계속 사용할 수 있습니다.

Red Hat OpenShift AI 관리자가 사용자의 권한을 취소하면 사용자는 실행 중인 워크벤치를 무기한 계속 사용할 수 있습니다.

해결방법
OpenShift AI 관리자가 사용자의 권한을 취소하는 경우 관리자는 해당 사용자의 실행 중인 워크벤치도 중지해야 합니다.

RHOAIENG-1157 (이전에는 RHODS-6955로 문서화됨) - 워크벤치 편집 시 오류가 발생할 수 있습니다.

워크벤치를 편집할 때 다음과 유사한 오류가 발생할 수 있습니다.

Error creating workbench
Operation cannot be fulfilled on notebooks.kubeflow.org "workbench-name": the object has been modified; please apply your changes to the latest version and try again
Copy to Clipboard Toggle word wrap
해결방법
없음.

RHOAIENG-1152 (이전에는 RHODS-6356)로 문서화되어 있음 - 대시보드에 로그인하지 않은 사용자가 basic-workbench 생성 프로세스가 실패합니다.

기본 워크벤치에 대한 대시보드의 관리 페이지에는 OpenShift의 사용자 그룹 및 관리자 그룹에 속하는 사용자가 표시됩니다. 그러나 관리자가 대시보드에 로그인하지 않은 사용자를 대신하여 기본 워크벤치를 시작하려고 하면 기본 워크벤치 생성 프로세스가 실패하고 다음 오류 메시지가 표시됩니다.

Request invalid against a username that does not exist.
Copy to Clipboard Toggle word wrap
해결방법
관련 사용자가 대시보드에 로그인하도록 요청합니다.

RHODS-5543 - NVIDIA GPU Operator를 사용할 때 필요한 것보다 더 많은 노드가 노드 자동 스케일러에 의해 생성됩니다.

사용 가능한 리소스가 부족하여 Pod를 예약할 수 없는 경우 노드 자동 스케일러는 새 노드를 생성합니다. 새로 생성된 노드가 관련 GPU 워크로드를 수신할 때까지 지연이 발생합니다. 결과적으로 Pod를 예약할 수 없으며 노드 자동 스케일러는 GPU 워크로드를 수신할 준비가 될 때까지 추가 새 노드를 지속적으로 생성합니다. 이 문제에 대한 자세한 내용은 Red Hat Knowledgebase 솔루션에서 NVIDIA GPU Operator를 사용할 때 노드 자동 스케일러에서 필요한 것보다 많은 노드를 참조하십시오.

해결방법
machineset.spec.template.spec.metadatacluster-api/accelerator 레이블을 적용합니다. 이로 인해 자동 스케일러는 GPU 드라이버가 배포될 때까지 해당 노드를 준비되지 않은 것으로 간주합니다.

RHOAIENG-1149 (이전에 문서화된 RHODS-5216) - 애플리케이션 시작 관리자 메뉴에 OpenShift Cluster Manager에 대한 링크가 잘못 표시됩니다.

Red Hat OpenShift AI는 애플리케이션 시작 관리자 메뉴에서 OpenShift Cluster Manager에 대한 링크를 잘못 표시합니다. 이 링크를 클릭하면 URL이 유효하지 않기 때문에 "페이지를 찾을 수 없음" 오류가 발생합니다.

해결방법
없음.

RHOAIENG-1137 (이전에는 RHODS-5251)로 문서화되어 있음 - 기본 워크벤치 관리 페이지에는 권한 액세스 권한이 손실된 사용자가 표시됩니다.

이전에 기본 워크벤치를 시작한 사용자가 수행할 수 있는 권한이 손실되는 경우(예: OpenShift AI 관리자가 사용자의 그룹 설정을 변경하거나 허용된 그룹에서 사용자를 제거하는 경우) 관리자는 관리 페이지에서 사용자의 기본 워크벤치를 계속 확인합니다. 결과적으로 관리자는 권한이 취소된 사용자에게 속하는 기본 워크벤치를 다시 시작할 수 있습니다.

해결방법
없음.

RHODS-4799 - Tensorboard를 보려면 수동 단계가 필요합니다.

사용자에게 TensorFlow 또는 PyTorch 워크벤치 이미지가 있고 TensorBoard를 사용하여 데이터를 표시하려는 경우 워크벤치 환경에 환경 변수를 추가하고 해당 변수를 코드에서 사용하려면 수동 단계가 필요합니다.

해결방법

기본 워크벤치를 시작할 때 다음 코드를 사용하여 TENSORBOARD_PROXY_URL 환경 변수의 값을 설정하여 OpenShift AI 사용자 ID를 사용합니다.

import os
os.environ["TENSORBOARD_PROXY_URL"]= os.environ["NB_PREFIX"]+"/proxy/6006/"
Copy to Clipboard Toggle word wrap

RHODS-4718 - Intel® oneAPI AI Analytics Toolkits 빠른 시작은 존재하지 않는 샘플 노트북을 참조합니다.

대시보드의 리소스 페이지에 있는 Intel® oneAPI AI Analytics Toolkits 빠른 시작에는 사용자가 명령 단계의 일부로 샘플 노트북을 로드해야 하지만, 연결된 리포지토리에 없는 노트북을 나타냅니다.

해결방법
없음.

RHOAIENG-1141 (이전에는 RHODS-4502로 문서화됨) - 대시보드의 NVIDIA GPU Operator 타일이 불필요하게 표시됩니다.

NVIDIA GPU Operator가 설치된 후 GPU를 사용하여 GPU를 자동으로 사용할 수 있습니다. 따라서 탐색 페이지의 NVIDIA GPU Operator 타일에 있는 Enable 버튼이 중복됩니다. 또한 Enable 버튼을 클릭하면 Operator가 설치되지 않은 경우에도 NVIDIA GPU Operator 타일이 Enabled 페이지로 이동합니다.

해결방법
없음.

RHODS-3984 - 노트북 선택 시 표시되는 잘못된 패키지 버전

OpenShift AI 인터페이스에서 노트북 시작 서버 페이지에 는 oneAPI AI Analytics Toolkit 노트북 이미지에 포함된 sendpyterLab 및 Notebook 패키지의 잘못된 버전 번호가 표시됩니다. 페이지에 이 이미지에서 사용하는 Python 버전에 잘못된 값이 표시될 수도 있습니다.

해결방법
oneAPI AI Analytics Toolkit 노트북 서버를 시작할 때, 노트북 서버에 어떤 Python 패키지가 설치되어 있는지, 그리고 노트북 셀에서 !pip list 명령을 실행하여 어떤 버전의 패키지인지 확인할 수 있습니다.

RHODS-2956 - 노트북 인스턴스를 생성할 때 오류가 발생할 수 있습니다.

sendpyter에서 노트북 인스턴스를 만들 때 Directory not found 오류가 간헐적으로 표시됩니다. 이 오류 메시지는 Dismiss 를 클릭하여 무시할 수 있습니다.

해결방법
없음.

RHOAING-1147 (이전에는 RHODS-2881) - 대시보드의 작업이 명확하게 표시되지 않음

비활성화된 애플리케이션 라이센스를 다시 무효화하고 비활성화된 애플리케이션 타일을 제거하는 대시보드 작업은 사용자에게 명확하게 표시되지 않습니다. 이러한 작업은 사용자가 애플리케이션 타일의 Disabled 레이블을 클릭하면 표시됩니다. 따라서 의도한 워크플로우가 사용자에게 명확하지 않을 수 있습니다.

해결방법
없음.

RHOAIENG-1134 (이전에는 RHODS-2879로 문서화됨) - 라이센스 재검증 작업이 불필요하게 표시됩니다.

라이센스 검증 또는 활성화 시스템이 없는 애플리케이션에 대해 비활성화된 애플리케이션 라이센스를 재검증하는 대시보드 작업이 불필요하게 나타납니다. 또한 사용자가 재검증할 수 없는 라이센스를 재검증하려고 하면 작업을 완료할 수 없는 이유를 나타내는 피드백이 표시되지 않습니다.

해결방법
없음.

RHOAIENG-2305 (이전에는 RHODS-2650로 문서화됨) - Pachyderm 배포 중에 오류가 발생할 수 있습니다.

Pachyderm Operator 인스턴스를 생성할 때 Webhook 오류가 간헐적으로 표시되어 생성 프로세스가 성공적으로 시작되지 않습니다. Webhook 오류는 Pachyderm Operator가 상태 점검에 실패하여 재시작하거나 Operator 프로세스가 컨테이너의 할당된 메모리 제한을 초과하여 OOM(Out of Memory) 종료를 트리거한다는 것을 나타냅니다.

해결방법
오류가 더 이상 표시되지 않을 때까지 Pachyderm 인스턴스 생성 프로세스를 반복합니다.

RHODS-2096 - OpenShift AI에서 IBM Cryostat Studio를 사용할 수 없음

IBM Cryostat Studio는 OpenShift Dedicated 4.9 이상에 OpenShift AI를 설치할 때 이러한 OpenShift Dedicated 버전과 호환되지 않기 때문에 사용할 수 없습니다.

해결방법
OpenShift Dedicated 4.9 이상에서 Cryostat Studio를 수동으로 구성하는 데 도움이 필요한 경우 Marketplace 지원팀에 문의하십시오.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동