2장. 프로젝트 워크벤치 사용


2.1. 워크벤치 생성 및 IDE 선택

워크벤치는 ML 모델을 검사하고 작업할 수 있는 격리된 영역입니다. 데이터를 사용하여 작업하고 프로그램을 실행할 수도 있습니다(예: 데이터를 준비하고 정리). 예를 들어 기존 모델을 서비스하는 경우에만 워크벤치가 필요하지 않지만 데이터 처리 또는 모델 교육과 같은 대부분의 데이터 사이언스 워크플로우 작업에 필요합니다.

워크벤치를 생성할 때 이미지( IDE, 패키지 및 기타 종속 항목)를 지정합니다. 지원되는 IDE에는 sendpyterLab, code-server, R Cryostat(기술 프리뷰)가 포함됩니다.

IDE는 서버-클라이언트 아키텍처를 기반으로 합니다. 각 IDE는 사용자 인터페이스(클라이언트)가 웹 브라우저에 표시되는 반면 OpenShift 클러스터의 컨테이너에서 실행되는 서버를 제공합니다. 예를 들어, pinpyter 워크벤치는 Red Hat OpenShift 클러스터의 컨테이너에서 실행됩니다. 클라이언트는 로컬 컴퓨터의 웹 브라우저에서 열리는 sendpyterLab 인터페이스입니다. sendpyterLab에서 입력하는 모든 명령은 워크벤치에 의해 실행됩니다. 마찬가지로 코드-서버 또는 R Cryostat Server와 같은 다른 IDE는 사용자 인터페이스가 웹 브라우저에 표시되는 동안 OpenShift 클러스터의 컨테이너에서 실행되는 서버를 제공합니다. 이 아키텍처를 사용하면 클러스터에서 모든 처리가 수행되는 동안 브라우저 환경에서 로컬 컴퓨터를 통해 상호 작용할 수 있습니다. 처리 중인 데이터가 클러스터를 종료하지 않기 때문에 클러스터는 사용 가능한 더 큰 리소스와 보안의 이점을 제공합니다.

워크벤치에서는 연결을 구성할 수도 있습니다(정보 유지를 위해 외부 데이터에 액세스하고 모델을 저장하고 모델을 저장할 수 있음) 및 클러스터 스토리지(지속 데이터용)를 구성할 수 있습니다. 동일한 프로젝트 내의 워크벤치는 데이터 사이언스 파이프라인 및 모델 서버와 오브젝트 스토리지를 통해 모델 및 데이터를 공유할 수 있습니다.

데이터 보존이 필요한 데이터 사이언스 프로젝트의 경우 생성 중인 워크벤치에 컨테이너 스토리지를 추가할 수 있습니다.

프로젝트 내에서 여러 워크벤치를 만들 수 있습니다. 새 워크벤치 생성 시기는 다음과 같은 고려 사항에 따라 달라집니다.

  • 워크벤치 구성(예: CPU, RAM 또는 IDE). 새 작업을 수용하기 위해 기존 워크벤치의 구성 설정을 편집하지 않으려면 대신 새 워크벤치를 만들 수 있습니다.
  • 작업 또는 활동을 분리합니다. 예를 들어 LLM(Large Language Models) 실험 활동, 데모 전용 다른 워크벤치 및 테스트를 위한 다른 워크벤치를 사용할 수 있습니다.

2.1.1. 워크벤치 이미지 정보

워크벤치 이미지는 모델 개발에 필요한 툴 및 라이브러리가 사전 설치되어 있습니다. 제공된 워크벤치 이미지 또는 OpenShift AI 관리자가 필요에 맞게 사용자 정의 워크벤치 이미지를 생성할 수 있습니다.

모델 개발을 위해 일관되고 안정적인 플랫폼을 제공하기 위해 많은 제공 워크벤치 이미지에는 동일한 버전의 Python이 포함되어 있습니다. OpenShift AI에서 사용할 수 있는 대부분의 워크벤치 이미지는 사전 빌드되어 OpenShift AI를 설치하거나 업그레이드한 직후 사용할 수 있습니다.

워크벤치 이미지 및 패키지 Red Hat 지원에 대한 자세한 내용은 Red Hat OpenShift AI: 지원 구성을 참조하십시오.

다음 표에는 기본적으로 Red Hat OpenShift AI와 함께 설치된 워크벤치 이미지가 나열되어 있습니다.

이러한 이미지에 사전 설치된 패키지가 사용 사례에 충분하지 않은 경우 다음 옵션이 있습니다.

  • 기본 이미지를 시작한 후 추가 라이브러리를 설치합니다. 이 옵션은 모델을 개발할 때 임시 기준으로 라이브러리를 추가하려는 경우에 적합합니다. 그러나 설치된 라이브러리의 종속성을 관리하기 어려울 수 있으며 워크벤치가 다시 시작되면 변경 사항이 저장되지 않습니다.
  • 추가 라이브러리 또는 패키지가 포함된 사용자 지정 이미지를 생성합니다. 자세한 내용은 사용자 정의 워크벤치 이미지 생성 을 참조하십시오.
중요

이 표의 (기술 프리뷰) 이미지로 표시된 Workbench 이미지는 Red Hat 프로덕션 SLA(서비스 수준 계약)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 기술 프리뷰 기능을 사용하지 않는 것이 좋습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Expand
표 2.1. 기본 워크벤치 이미지
이미지 이름설명

CUDA

GPU 지원이 필요한 컴퓨팅 집약적 데이터 사이언스 모델을 사용하는 경우 CUDA(Compute Unified Device Architecture) 워크벤치 이미지를 사용하여 NVIDIA CUDA Toolkit에 액세스할 수 있습니다. 이 툴킷을 사용하면 GPU 가속 라이브러리 및 최적화 툴을 사용하여 작업을 최적화할 수 있습니다.

표준 데이터 과학

TensorFlow 또는 PyTorch가 필요하지 않은 모델에 대해 Standard Data Science 워크벤치 이미지를 사용하십시오. 이 이미지에는 머신러닝 모델 개발을 지원하기 위해 일반적으로 사용되는 라이브러리가 포함되어 있습니다.

TensorFlow

TensorFlow는 머신러닝을 위한 오픈 소스 플랫폼입니다. TensorFlow를 사용하면 머신러닝 모델을 빌드, 교육 및 배포할 수 있습니다. TensorFlow에는 컴퓨팅 그래프 시각화와 같은 고급 데이터 시각화 기능이 포함되어 있습니다. 또한 모델의 진행 상황을 쉽게 모니터링하고 추적할 수 있습니다.

PyTorch

PyTorch는 딥 러닝에 최적화된 오픈 소스 머신러닝 라이브러리입니다. If you are working with computer vision or natural language processing models, use the Pytorch workbench image.

최소 Python

고급 머신러닝 기능이나 컴퓨팅 집약적 데이터 사이언스 작업을 위한 추가 리소스가 필요하지 않은 경우 최소 Python 이미지를 사용하여 모델을 개발할 수 있습니다.

TrustyAI

TrustyAI 워크벤치 이미지를 사용하여 모델 설명, 추적 및 책임 및 런타임 모니터링과 함께 데이터 사이언스 작업을 활용합니다. 일부 예시는 TrustyAI Explainability 리포지토리를 참조하십시오.

code-server

code-server 워크벤치 이미지를 사용하면 다양한 확장 기능을 사용하여 요구 사항을 충족하도록 워크벤치 환경을 사용자 지정하여 새로운 언어, 테마, 디버거를 추가하고 추가 서비스에 연결할 수 있습니다. 구문 강조, 자동 입력 및 브래킷 일치와 원활한 자동화를 위한 자동 작업 실행기를 사용하여 데이터 과학 작업의 효율성을 향상시킵니다. 자세한 내용은 GitHub의 code-server를 참조하십시오.

참고: Elyra 기반 파이프라인은 코드 서버 워크벤치 이미지에서 사용할 수 없습니다.

R Cryostat Server (기술 프리뷰)

R Cryostat Server 워크벤치 이미지를 사용하여 통계 컴퓨팅 및 그래픽을 위한 프로그래밍 언어인 R Cryostat IDE(R용 통합 개발 환경)에 액세스합니다. 자세한 내용은 R Cryostat Server 사이트를 참조하십시오.

R Cryostat Server 워크벤치 이미지를 사용하려면 먼저 시크릿을 생성하고 BuildConfig를 트리거하여 빌드한 다음 rstudio-rhel9 이미지 스트림을 편집하여 OpenShift AI UI에서 활성화해야 합니다. 자세한 내용은 R Cryostat Server 워크벤치 이미지 빌드를 참조하십시오.

중요

면책 조항:
Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 https://rstudio.org/ 를 통해 사용할 수 있으며 R Cryostat 라이센스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토하십시오.

CUDA - R Cryostat Server (기술 프리뷰)

CUDA - R Cryostat Server 워크벤치 이미지를 사용하여 R Cryostat IDE 및 NVIDIA CUDA Toolkit에 액세스합니다. R Cryostat는 통계 컴퓨팅 및 그래픽을 위한 프로그래밍 언어인 R을 위한 통합 개발 환경입니다. NVIDIA CUDA 툴킷을 사용하면 GPU 가속 라이브러리 및 최적화 도구를 사용하여 작업을 최적화할 수 있습니다. 자세한 내용은 R Cryostat Server 사이트를 참조하십시오.

CUDA - R Cryostat Server 워크벤치 이미지를 사용하려면 먼저 시크릿을 생성하고 BuildConfig를 트리거하여 빌드한 다음 cuda-rstudio-rhel9 이미지 스트림을 편집하여 OpenShift AI UI에서 활성화해야 합니다. 자세한 내용은 R Cryostat Server 워크벤치 이미지 빌드를 참조하십시오.

중요

면책 조항:
Red Hat은 OpenShift AI에서 워크벤치 관리를 지원합니다. 그러나 Red Hat은 R Cryostat 소프트웨어에 대한 지원을 제공하지 않습니다. R Cryostat Server는 https://rstudio.org/ 를 통해 사용할 수 있으며 R Cryostat 라이센스 조건이 적용됩니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토하십시오.

CUDA - R Cryostat 서버 워크벤치 이미지에는 NVIDIA CUDA 기술이 포함되어 있습니다. CUDA 라이센스 정보는 https://docs.nvidia.com/cuda/ 에서 확인할 수 있습니다. 이 샘플 워크벤치를 사용하기 전에 라이센스 조건을 검토하십시오.

ROCm

ROCm 워크벤치 이미지를 사용하여 OpenShift AI의 AMD GPU에서 AI 및 머신러닝 워크로드를 실행합니다. 여기에는 고성능 GPU 가속을 위해 최적화된 ROCm 라이브러리 및 도구가 포함되어 사용자 지정 AI 워크플로 및 데이터 처리 작업을 지원합니다. 특정 AI 개발 요구에 맞는 추가 프레임워크 또는 종속성을 통합하는 이 이미지를 사용합니다.

ROCm-PyTorch

ROCm-PyTorch 워크벤치 이미지를 사용하여 OpenShift AI의 AMD GPU에서 PyTorch 워크로드를 실행합니다. 여기에는 ROCm 가속 PyTorch 라이브러리가 포함되어 있어 효율적인 딥 러닝 교육, 추론 및 실험이 가능합니다. 이 이미지는 PyTorch 기반 워크플로우를 사용하여 GPU 스케줄링과의 통합을 제공하는 데이터 과학자를 위해 설계되었습니다.

ROCm-TensorFlow

ROCm-TensorFlow 워크벤치 이미지를 사용하여 OpenShift AI의 AMD GPU에서 TensorFlow 워크로드를 실행합니다. 여기에는 고성능 딥 러닝 모델 교육 및 추론을 지원하기 위해 ROCm-accelerated TensorFlow 라이브러리가 포함되어 있습니다. 이 이미지는 AMD GPU에서 TensorFlow 개발을 단순화하고 리소스 확장 및 관리를 위해 OpenShift AI와 통합됩니다.

2.1.2. 워크벤치 만들기

워크벤치를 생성할 때 이미지( IDE, 패키지 및 기타 종속 항목)를 지정합니다. 연결, 클러스터 스토리지를 구성하고 컨테이너 스토리지를 추가할 수도 있습니다.

사전 요구 사항

  • Red Hat OpenShift AI에 로그인했습니다.
  • 프로젝트를 생성했습니다.
  • Red Hat OpenShift AI 외부에서 S3(Simple Storage Service) 계정을 생성하고 기존 S3 스토리지 버킷에 대한 연결을 생성하려는 경우 스토리지 버킷에 대한 다음 인증 정보 정보가 있습니다.

    • 끝점 URL
    • 액세스 키
    • 시크릿 키
    • 리전
    • 버킷 이름

    자세한 내용은 S3 호환 오브젝트 저장소의 데이터 작업을 참조하십시오.

프로세스

  1. OpenShift AI 대시보드에서 데이터 과학 프로젝트를 클릭합니다.

    데이터 사이언스 프로젝트 페이지가 열립니다.

  2. 워크벤치를 추가할 프로젝트의 이름을 클릭합니다.

    프로젝트 세부 정보 페이지가 열립니다.

  3. Workbenches 탭을 클릭합니다.
  4. Create workbench 를 클릭합니다.

    Create workbench 페이지가 열립니다.

  5. 이름 필드에 워크벤치의 고유 이름을 입력합니다.
  6. 선택 사항: 워크벤치의 기본 리소스 이름을 변경하려면 리소스 이름 편집을 클릭합니다.

    리소스 이름은 OpenShift에서 리소스에 레이블이 지정된 이름입니다. 유효한 문자에는 소문자, 숫자, 하이픈(-)이 포함됩니다. 리소스 이름은 30자를 초과할 수 없으며 문자로 시작하여 문자 또는 숫자로 끝나야 합니다.

    참고: 워크벤치가 생성된 후에는 리소스 이름을 변경할 수 없습니다. 표시 이름과 설명만 편집할 수 있습니다.

  7. 선택 사항: 설명 필드에 워크벤치에 대한 설명을 입력합니다.
  8. Workbench 이미지 섹션에서 필드를 작성하여 워크벤치와 함께 사용할 워크벤치 이미지를 지정합니다.

    이미지 선택 목록에서 사용 사례에 맞는 워크벤치 이미지를 선택합니다. 워크벤치 이미지에는 IDE 및 Python 패키지(사용 가능한 코드)가 포함되어 있습니다. 프로젝트 범위 이미지가 있는 경우 이미지 선택 목록에는 글로벌 이미지와 프로젝트 범위 이미지를 구분하는 하위 제목이 포함됩니다.

    선택적으로 패키지 정보 보기를 클릭하여 선택한 이미지에 포함된 패키지 목록을 확인합니다.

    워크벤치 이미지에 여러 버전을 사용할 수 있는 경우 버전 선택 목록에서 사용할 워크벤치 이미지 버전을 선택합니다. 최신 패키지 버전을 사용하려면 최근 추가된 이미지를 사용하는 것이 좋습니다.

    참고

    워크벤치 이미지를 생성한 후 워크벤치 이미지를 변경할 수 있습니다.

  9. Deployment size 섹션에서 하드웨어 프로필 기능이 활성화되어 있는지 여부에 따라 다음 옵션 중 하나를 선택합니다.

    중요

    하드웨어 프로필 기능은 현재 Red Hat OpenShift AI에서 기술 프리뷰 기능으로 제공됩니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. Red Hat은 프로덕션 환경에서 사용하는 것을 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

    Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

    • 하드웨어 프로필 기능이 활성화되지 않은 경우:

      1. 컨테이너 크기 목록에서 교육 또는 튜닝할 모델의 크기에 적합한 크기를 선택합니다.

        예를 들어 Kubeflow 교육을 사용하여 모델에 설명된 예제 미세 조정 작업을 실행하려면 medium선택합니다.

      2. 액셀러레이터 목록에서 워크벤치에 적합한 가속기 프로필을 선택합니다.

        프로젝트 범위 가속기 프로파일이 존재하는 경우, 액셀러레이터 목록에는 글로벌 가속기 프로파일과 프로젝트 범위 액셀러레이터 프로파일을 구분하기 위한 대체 요소가 포함되어 있습니다.

    • 하드웨어 프로필 기능이 활성화된 경우:

      1. 하드웨어 프로필 목록에서 워크벤치에 적합한 하드웨어 프로필을 선택합니다.

        프로젝트 범위 하드웨어 프로필이 있는 경우 하드웨어 프로필 목록에는 글로벌 하드웨어 프로필과 프로젝트 범위 하드웨어 프로필을 구분하기 위한 하위 제목이 포함됩니다.

        하드웨어 프로필은 컨테이너에 할당된 CPU 수와 메모리 양을 지정하고 둘 다에 대해 보장된 최소(요청) 및 최대값(제한)을 설정합니다.

      2. 기본값을 변경하려면 리소스 요청 사용자 지정 및 제한을 클릭하고 새 최소(요청 ) 및 최대값(제한) 값을 입력합니다.

        중요

        기본적으로 하드웨어 프로필 기능은 활성화되어 있지 않습니다. 하드웨어 프로필은 대시보드 탐색 메뉴 또는 사용자 인터페이스의 다른 부분에 표시되지 않습니다. 또한 더 이상 사용되지 않는 가속기 프로필 기능과 관련된 사용자 인터페이스 구성 요소가 계속 표시됩니다. 대시보드 탐색 메뉴에서 설정 하드웨어 프로필 옵션을 표시하려면 OpenShift의 OdhDashboardConfig CR(사용자 정의 리소스)에서 disableHardwareProfiles 값을 false 로 설정합니다. 대시보드 구성 옵션 설정에 대한 자세한 내용은 대시보드 사용자 지정을 참조하십시오.

  10. 선택 사항: 환경 변수 섹션에서 환경 변수의 값을 선택하고 지정합니다.

    워크벤치 구성 중에 환경 변수를 설정하면 작업벤치의 본문 또는 IDE 명령줄 인터페이스에서 정의할 필요가 없기 때문에 나중에 시간을 절약할 수 있습니다.

    S3 호환 스토리지를 사용하는 경우 다음 권장 환경 변수를 추가합니다.

    • AWS_ACCESS_KEY_ID 는 Amazon Web Services의 액세스 키 ID를 지정합니다.
    • AWS_SECRET_ACCESS_KEYAWS_ACCESS_KEY_ID 에 지정된 계정의 Secret 액세스 키를 지정합니다.

    OpenShift AI는 변수를 추가할 때 보안을 선택하는 경우 인증 정보를 보호된 네임스페이스에 Kubernetes 시크릿 으로 저장합니다.

  11. Cluster storage 섹션에서 워크벤치용 스토리지를 구성합니다. 다음 옵션 중 하나를 선택합니다.

    • workbench를 종료한 후 유지되는 스토리지를 생성할 새 영구 스토리지를 생성합니다. 스토리지를 정의하려면 관련 필드를 작성합니다.

      1. 클러스터 스토리지의 이름을 입력합니다.
      2. 클러스터 스토리지에 대한 설명을 입력합니다.
      3. 클러스터 스토리지의 스토리지 클래스 를 선택합니다.

        참고

        워크벤치에 클러스터 스토리지를 추가한 후에는 스토리지 클래스를 변경할 수 없습니다.

      4. 여러 액세스 모드를 지원하는 스토리지 클래스의 경우 액세스 모드를 선택하여 볼륨에 액세스하는 방법을 정의합니다. 자세한 내용은 영구 스토리지 정보를 참조하십시오.

        클러스터 및 OpenShift AI 관리자가 스토리지 클래스에 대해 활성화된 액세스 모드만 표시됩니다.

      5. 영구 스토리지 크기에서 새 크기를 기가바이트 또는 메비바이트로 입력합니다.
    • 기존 영구 스토리지를 사용하여 기존 스토리지를 재사용하고 영구 스토리지 목록에서 스토리지를 선택합니다.
  12. 선택 사항: 워크벤치에 연결을 추가할 수 있습니다. 연결은 오브젝트 스토리지 버킷과 같이 데이터 소스 또는 싱크에 연결하는 데 필요한 구성 매개변수가 포함된 리소스입니다. 스토리지 버킷을 사용하여 데이터, 모델 및 파이프라인 아티팩트를 저장할 수 있습니다. 연결을 사용하여 배포할 모델의 위치를 지정할 수도 있습니다.

    연결 섹션에서 기존 연결을 사용하거나 새 연결을 만듭니다.

    • 다음과 같이 기존 연결을 사용합니다.

      1. 기존 연결 연결을 클릭합니다.
      2. 연결 목록에서 이전에 정의한 연결을 선택합니다.
    • 다음과 같이 새 연결을 생성합니다.

      1. 연결 생성을 클릭합니다. 연결 추가 대화 상자가 열립니다.
      2. 연결 유형 드롭다운 목록에서 연결 유형을 선택합니다. 연결 세부 정보 섹션이 표시됩니다.
      3. 이전 단계에서 S3 호환 오브젝트 스토리지를 선택한 경우 연결 세부 정보를 구성합니다.

        1. 연결 이름 필드에 연결에 대한 고유한 이름을 입력합니다.
        2. 선택 사항: 설명 필드에 연결에 대한 설명을 입력합니다.
        3. 액세스 키 필드에 S3 호환 오브젝트 스토리지 공급자의 액세스 키 ID를 입력합니다.
        4. Secret 키 필드에 지정한 S3 호환 오브젝트 스토리지 계정의 시크릿 액세스 키를 입력합니다.
        5. Endpoint 필드에 S3 호환 오브젝트 스토리지 버킷의 끝점을 입력합니다.
        6. Region 필드에 S3 호환 오브젝트 스토리지 계정의 기본 리전을 입력합니다.
        7. Bucket 필드에 S3 호환 오브젝트 스토리지 버킷의 이름을 입력합니다.
        8. 생성을 클릭합니다.
      4. 이전 단계에서 URI 를 선택한 경우 연결 세부 정보를 구성합니다.

        1. 연결 이름 필드에 연결에 대한 고유한 이름을 입력합니다.
        2. 선택 사항: 설명 필드에 연결에 대한 설명을 입력합니다.
        3. URI 필드에 URI(Uniform Resource Identifier)를 입력합니다.
        4. 생성을 클릭합니다.
  13. Create workbench 를 클릭합니다.

검증

  • 생성한 워크벤치는 프로젝트의 Workbenches 탭에 표시됩니다.
  • 생성 프로세스 중에 워크벤치와 관련된 클러스터 스토리지가 프로젝트의 클러스터 스토리지 탭에 표시됩니다.
  • Workbenches 탭의 Status 열에는 워크벤치 서버가 시작될 때 시작 상태와 워크벤치가 성공적으로 시작되면 Running 상태가 표시됩니다.
  • 선택 사항: 열려 있는 아이콘( The open icon )을 클릭하여 새 창에서 IDE를 엽니다.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동