OpenShift 샌드박스 컨테이너 배포


OpenShift sandboxed containers 1.10

컨테이너 워크로드에 대한 보안 및 격리 개선

Red Hat Customer Content Services

초록

Red Hat OpenShift 샌드박스 컨테이너는 경량 가상 머신에서 컨테이너화된 애플리케이션을 실행하여 향상된 보안 및 격리를 제공합니다. OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치합니다. 그런 다음 선택적 "kata" 런타임을 사용하도록 워크로드 Pod를 구성합니다.

머리말

Red Hat 문서에 관한 피드백 제공

Jira에서 문제 생성 양식을 제출하여 피드백을 제공하거나 오류를 보고할 수 있습니다.

  1. Jira에 로그인했는지 확인합니다. Jira 계정이 없는 경우 Red Hat Jira 계정을 생성해야 합니다.
  2. Create Issue 양식을 시작합니다.
  3. 요약,설명보고자 필드를 완료합니다.

    설명 필드에 문서 URL, 장 또는 섹션 번호, 문제에 대한 자세한 설명을 포함합니다.

  4. 생성을 클릭합니다.

1장. OpenShift 샌드박스 컨테이너 정보

Red Hat OpenShift 샌드박스 컨테이너는 Kata 컨테이너를 선택적 런타임으로 통합하여 컨테이너화된 애플리케이션을 경량 가상 머신에서 실행하여 향상된 보안 및 격리 기능을 제공합니다. 이러한 통합은 기존 OpenShift Container Platform 워크플로우를 크게 변경하지 않고 민감한 워크로드를 위한 보다 안전한 런타임 환경을 제공합니다. 이 런타임은 전용 VM(가상 머신)의 컨테이너를 지원하므로 워크로드 분리가 향상됩니다.

1.1. 기능

OpenShift 샌드박스 컨테이너는 다음과 같은 기능을 제공합니다.

권한이 있거나 신뢰할 수 없는 워크로드 실행

권한 있는 컨테이너를 실행하여 클러스터 노드를 손상시킬 위험이 없으면 특정 권한이 필요한 워크로드를 안전하게 실행할 수 있습니다. 특수 권한이 필요한 워크로드에는 다음이 포함됩니다.

  • 커널의 특수 기능이 필요한 워크로드는 CRI-O와 같은 표준 컨테이너 런타임에서 부여하는 기본 기능 이상으로, 예를 들어 낮은 수준의 네트워킹 기능에 액세스합니다.
  • 예를 들어 특정 물리적 장치에 액세스하기 위해 높은 루트 권한이 필요한 워크로드입니다. OpenShift 샌드박스 컨테이너를 사용하면 특정 장치만 VM(가상 머신)에 전달하여 워크로드가 나머지 시스템에 액세스하거나 잘못 구성할 수 없도록 할 수 있습니다.
  • set-uid 루트 바이너리를 설치하거나 사용하는 워크로드입니다. 이러한 바이너리는 특수 권한을 부여하므로 보안 위험이 발생할 수 있습니다. OpenShift 샌드박스 컨테이너를 사용하면 추가 권한이 가상 머신으로 제한되며 클러스터 노드에 대한 특별한 액세스 권한이 부여되지 않습니다.

    일부 워크로드에서는 특히 클러스터 노드를 구성하려면 권한이 필요합니다. 가상 머신에서 실행하면 이러한 워크로드가 작동하지 않기 때문에 권한 있는 컨테이너를 계속 사용해야 합니다.

민감한 워크로드에 대한 격리 확인
Red Hat OpenShift Container Platform의 OpenShift 샌드박스 컨테이너는 Kata 컨테이너를 선택적 런타임으로 통합하여 경량 가상 머신에서 컨테이너화된 애플리케이션을 실행하여 향상된 보안 및 격리 기능을 제공합니다. 이러한 통합은 기존 OpenShift 워크플로우를 크게 변경하지 않고 민감한 워크로드를 위한 보다 안전한 런타임 환경을 제공합니다. 이 런타임은 전용 VM(가상 머신)의 컨테이너를 지원하므로 워크로드 분리가 향상됩니다.
각 워크로드에 대한 커널 격리 확인
사용자 지정 커널 튜닝(예: sysctl, 스케줄러 변경 또는 캐시 튜닝)이 필요한 워크로드와 사용자 지정 커널 모듈 생성(예: 트리 부족 또는 특수 인수)을 실행할 수 있습니다.
테넌트 간에 동일한 워크로드를 공유
동일한 OpenShift Container Platform 클러스터를 공유하는 다양한 조직의 여러 사용자(테넌트)를 지원하는 워크로드를 실행할 수 있습니다. 또한 이 시스템은 컨테이너 네트워크 기능(CNF) 및 엔터프라이즈 애플리케이션과 같은 여러 벤더의 타사 워크로드 실행을 지원합니다. 예를 들어 타사 CNF는 사용자 지정 설정이 패킷 튜닝 또는 다른 애플리케이션에서 설정한 sysctl 변수를 방해하는 것을 원하지 않을 수 있습니다. 완전히 격리된 커널 내에서 실행하면 "noisy neighbor" 구성 문제를 방지하는 데 도움이 됩니다.
소프트웨어 테스트를 위한 적절한 격리 및 샌드박스 확인
알려진 취약점으로 컨테이너화된 워크로드를 실행하거나 기존 애플리케이션의 문제를 처리할 수 있습니다. 관리자는 이러한 격리를 통해 개발자에게 pod에 대한 관리 권한을 부여할 수 있습니다. 이 제어는 개발자가 일반적으로 부여한 것 이외의 구성을 테스트하거나 검증하려고 할 때 유용합니다. 예를 들어 관리자는 커널 패킷 필터링(eBPF)을 개발자에게 안전하게 위임할 수 있습니다. eBPF에는 CAP_ADMIN 또는 CAP_BPF 권한이 필요하므로 컨테이너 호스트 작업자 노드의 모든 프로세스에 대한 액세스 권한이 부여되므로 표준 CRI-O 설정에서 허용되지 않습니다. 마찬가지로 관리자는 SystemTap 과 같은 침입 툴에 대한 액세스 권한을 부여하거나 개발 중에 사용자 지정 커널 모듈 로드를 지원할 수 있습니다.
VM 경계를 통한 기본 리소스 포함 확인
기본적으로 OpenShift 샌드박스 컨테이너는 CPU, 메모리, 스토리지 및 네트워킹과 같은 리소스를 강력하고 안전한 방식으로 관리합니다. OpenShift 샌드박스 컨테이너는 VM에 배포되므로 추가 격리 및 보안 계층을 통해 리소스에 대한 보다 세분화된 액세스 제어가 가능합니다. 예를 들어, 잘못된 컨테이너는 VM에서 사용할 수 있는 것보다 더 많은 메모리를 할당할 수 없습니다. 반대로 네트워크 카드 또는 디스크에 대한 전용 액세스 권한이 필요한 컨테이너는 다른 장치에 액세스하지 않고도 해당 장치를 완전히 제어할 수 있습니다.

1.2. OpenShift Container Platform과의 호환성

Red Hat OpenShift Container Platform에 필요한 기능은 다음 두 가지 주요 구성 요소에서 지원됩니다.

Kata 런타임
Kata 런타임은 RHCOS(Red Hat Enterprise Linux CoreOS)에 포함되어 있으며 모든 OpenShift Container Platform 릴리스의 업데이트를 받습니다. Kata 런타임을 사용하여 피어 Pod를 활성화하면 OpenShift 샌드박스 컨테이너 Operator에서 필요한 이미지 구성 요소 및 도우미 유틸리티를 가져와서 Pod 가상 머신(VM) 이미지를 생성하는 데 외부 네트워크 연결이 필요합니다.
OpenShift 샌드박스 컨테이너 Operator
OpenShift 샌드박스 컨테이너 Operator는 Rolling Stream Operator이므로 최신 버전이 지원되는 유일한 버전입니다. 현재 지원되는 모든 OpenShift Container Platform 버전에서 작동합니다.

Operator는 RHCOS 호스트와 함께 제공되는 기능과 실행되는 환경에 따라 다릅니다.

참고

작업자 노드에 RHCOS를 설치해야 합니다. RHEL(Red Hat Enterprise Linux) 노드는 지원되지 않습니다.

OpenShift 샌드박스 컨테이너 및 OpenShift Container Platform 릴리스의 호환성 매트릭스는 호환되는 기능 및 환경을 식별합니다.

Expand
표 1.1. 지원되는 아키텍처
아키텍처OpenShift Container Platform 버전

x86_64

4.16 이상

s390x

4.16 이상

Kata 컨테이너 런타임을 배포하는 방법은 다음 두 가지가 있습니다.

  • 베어 메탈
  • 피어 Pod

Microsoft Azure 클라우드 컴퓨팅 서비스, AWS 클라우드 컴퓨팅 서비스 또는 Google Cloud에서 피어 Pod를 사용하여 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다. OpenShift 샌드박스 컨테이너 1.10이 릴리스되면서 OpenShift 샌드박스 컨테이너 Operator에는 OpenShift Container Platform 버전 4.16 이상이 필요합니다.

Expand
표 1.2. OpenShift Container Platform 버전의 기능 가용성
기능배포 방법OpenShift Container Platform 4.16OpenShift Container Platform 4.17OpenShift Container Platform 4.18OpenShift Container Platform 4.19

기밀 컨테이너

베어 메탈

해당 없음

해당 없음

해당 없음

해당 없음

Azure 피어 Pod

GA

GA

GA

GA

GPU 지원

베어 메탈

해당 없음

해당 없음

해당 없음

해당 없음

IBM Z

해당 없음

해당 없음

해당 없음

해당 없음

Azure

개발자 프리뷰

개발자 프리뷰

개발자 프리뷰

개발자 프리뷰

AWS

개발자 프리뷰

개발자 프리뷰

개발자 프리뷰

개발자 프리뷰

Google Cloud

개발자 프리뷰

개발자 프리뷰

개발자 프리뷰

개발자 프리뷰

중요

피어 Pod에 대한 GPU 지원은 개발자 프리뷰 기능 전용입니다. 개발자 프리뷰 기능은 Red Hat에서 지원하지 않으며 기능적으로 완전하거나 프로덕션 준비가 되지 않습니다. 프로덕션 또는 비즈니스 크리티컬 워크로드에는 개발자 프리뷰 기능을 사용하지 마십시오. 개발자 프리뷰 기능을 사용하면 Red Hat 제품 오퍼링에 포함된 제품 기능에 미리 미리 액세스할 수 있으므로 개발 프로세스 중에 기능을 테스트하고 피드백을 제공할 수 있습니다. 이러한 기능에는 문서가 없을 수 있으며 언제든지 변경 또는 제거될 수 있으며 테스트는 제한됩니다. Red Hat은 관련 SLA 없이 개발자 프리뷰 기능에 대한 피드백을 제출하는 방법을 제공할 수 있습니다.

Expand
표 1.3. (osc)에서 지원되는 클라우드 플랫폼
플랫폼GPU기밀 컨테이너

Azure

개발자 프리뷰

GA

AWS

개발자 프리뷰

해당 없음

Google Cloud

개발자 프리뷰

해당 없음

1.3. 노드 자격 확인

노드 자격 검사를 실행하여 베어 메탈 클러스터 노드가 OpenShift 샌드박스 컨테이너를 지원하는지 확인할 수 있습니다. 노드 자격에 대한 가장 일반적인 이유는 가상화 지원 부족입니다. 자격 없는 노드에서 샌드박스 워크로드를 실행하는 경우 오류가 발생합니다.

고급 워크플로

  1. Node Feature Discovery Operator를 설치합니다.
  2. NodeFeatureDiscovery CR(사용자 정의 리소스)을 생성합니다.
  3. Kataconfig CR을 생성할 때 노드 자격 검사를 활성화합니다. 모든 작업자 노드 또는 선택한 노드에서 노드 자격 검사를 실행할 수 있습니다.

1.4. 일반 용어

설명서 전반에 걸쳐 다음 용어가 사용됩니다.

샌드 박스

샌드박스는 프로그램을 실행할 수 있는 격리된 환경입니다. 샌드박스에서는 호스트 시스템이나 운영 체제에 손상을 주지 않고 테스트되지 않았거나 신뢰할 수 없는 프로그램을 실행할 수 있습니다.

OpenShift 샌드박스 컨테이너의 경우 가상화를 사용하여 다른 커널에서 워크로드를 실행하여 동일한 호스트에서 실행되는 여러 워크로드 간의 상호 작용을 보다 효과적으로 제어할 수 있습니다.

Pod

Pod는 Kubernetes 및 OpenShift Container Platform에서 상속된 구성 요소입니다. 컨테이너를 배포할 수 있는 리소스를 나타냅니다. 컨테이너는 Pod 내에서 실행되며 Pod는 여러 컨테이너 간에 공유할 수 있는 리소스를 지정하는 데 사용됩니다.

OpenShift 샌드박스 컨테이너의 컨텍스트에서 Pod가 가상 시스템으로 구현됩니다. 동일한 가상 시스템의 동일한 Pod에서 여러 컨테이너를 실행할 수 있습니다.

OpenShift 샌드박스 컨테이너 Operator
OpenShift 샌드박스 컨테이너 Operator는 클러스터에서 샌드박스 컨테이너의 라이프사이클을 관리합니다. OpenShift 샌드박스 컨테이너 Operator를 사용하여 샌드박스 컨테이너 설치 및 제거, 소프트웨어 업데이트 및 상태 모니터링과 같은 작업을 수행할 수 있습니다.
Kata 컨테이너
Kata 컨테이너는 OpenShift 샌드박스 컨테이너를 빌드하는 데 사용되는 핵심 업스트림 프로젝트입니다. OpenShift 샌드박스 컨테이너는 Kata 컨테이너를 OpenShift Container Platform과 통합합니다.
KataConfig
KataConfig 오브젝트는 샌드박스 컨테이너의 구성을 나타냅니다. 소프트웨어가 배포된 노드와 같이 클러스터 상태에 대한 정보를 저장합니다.
런타임 클래스
RuntimeClass 오브젝트는 지정된 워크로드를 실행하는 데 사용되는 런타임을 설명합니다. kata 런타임 클래스는 OpenShift 샌드박스 컨테이너 Operator에 의해 설치 및 배포됩니다. 런타임 클래스에는 Pod 오버헤드와 같이 런타임에서 작동해야 하는 리소스를 설명하는 런타임에 대한 정보가 포함되어 있습니다.
피어 Pod

OpenShift 샌드박스 컨테이너의 피어 Pod는 표준 Pod의 개념을 확장합니다. 가상 머신이 작업자 노드 자체에서 생성되는 표준 샌드박스 컨테이너와 달리 피어 Pod에서 지원되는 하이퍼바이저 또는 클라우드 공급자 API를 사용하여 원격 하이퍼바이저를 통해 가상 머신이 생성됩니다.

피어 포드는 작업자 노드에서 일반 pod 역할을 하며 해당 VM이 다른 위치에서 실행됩니다. VM의 원격 위치는 사용자에게 투명하며 Pod 사양의 런타임 클래스에 의해 지정됩니다. 피어 Pod 설계는 중첩된 가상화의 필요성을 우회합니다.

IBM Secure Execution
IBM Secure Execution for Linux는 IBM z15® 및 LinuxONE III에서 도입된 고급 보안 기능입니다. 이 기능은 광범위한 암호화에서 제공하는 보호 기능을 확장합니다. IBM Secure Execution는 미사용 데이터, 전송 중 및 사용 중인 데이터를 보호합니다. 워크로드를 안전하게 배포할 수 있으며 라이프사이클 전반에 걸쳐 데이터 보호를 보장합니다. 자세한 내용은 Linux용 IBM Secure Execution 소개 를 참조하십시오.
기밀 컨테이너
기밀 컨테이너는 워크로드가 TEE(신뢰할 수 있는 실행 환경)에서 실행되고 있는지 확인하여 컨테이너 및 데이터를 보호합니다. 이 기능을 배포하여 빅 데이터 분석 및 머신 러닝 추론의 개인 정보를 보호할 수 있습니다.
Red Hat build of Trustee
Red Hat build of Trustee는 워크로드를 실행할 계획이거나 기밀 정보를 보낼 계획인 위치의 신뢰성을 확인하는 인증 서비스입니다. Red Hat build of Trustee에는 신뢰할 수 있는 측에 배포된 구성 요소가 포함되어 있으며 원격 워크로드가 신뢰할 수 있는 실행 환경(TEE)에서 실행되고 있는지 확인하는 데 사용됩니다. Red Hat build of Trustee는 유연하며 다양한 애플리케이션 및 하드웨어 플랫폼을 지원하기 위해 다양한 구성으로 배포할 수 있습니다.
Red Hat build of Trustee Operator
Red Hat build of Trustee Operator는 Red Hat build of Trustee의 설치, 라이프사이클 및 구성을 관리합니다.

1.5. OpenShift 샌드박스 컨테이너 Operator

OpenShift 샌드박스 컨테이너 Operator는 Kata 컨테이너의 모든 구성 요소를 캡슐화합니다. 설치, 라이프사이클 및 구성 작업을 관리합니다.

OpenShift 샌드박스 컨테이너 Operator는 Operator 번들 형식으로 두 개의 컨테이너 이미지로 패키지됩니다.

  • 번들 이미지에는 Operator OLM을 준비하는데 필요한 메타데이터가 포함되어 있습니다.
  • 두 번째 컨테이너 이미지에는 KataConfig 리소스를 모니터링하고 관리하는 실제 컨트롤러가 포함되어 있습니다.

OpenShift 샌드박스 컨테이너 Operator는 RHCOS(Red Hat Enterprise Linux CoreOS) 확장 개념을 기반으로 합니다. RHCOS 확장은 선택적 OpenShift Container Platform 소프트웨어를 설치하는 메커니즘입니다. OpenShift 샌드박스된 컨테이너 Operator는 이 메커니즘을 사용하여 클러스터에 샌드박스 컨테이너를 배포합니다.

샌드박스 컨테이너 RHCOS 확장에는 Kata, QEMU 및 종속 항목에 대한 RPM이 포함되어 있습니다. Machine Config Operator에서 제공하는 MachineConfig 리소스를 사용하여 활성화할 수 있습니다.

1.6. OpenShift Virtualization

OpenShift Virtualization을 사용하여 클러스터에 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다.

OpenShift Virtualization 및 OpenShift 샌드박스 컨테이너를 동시에 실행하려면 가상 머신이 실시간 업그레이드 가능해야 노드 재부팅을 차단하지 않도록 합니다. 자세한 내용은 OpenShift Virtualization 설명서의 실시간 마이그레이션 정보를 참조하십시오.

1.7. 블록 볼륨 지원

OpenShift Container Platform은 원시 블록 볼륨을 정적으로 프로비저닝할 수 있습니다. 이러한 볼륨에는 파일 시스템이 없으며 디스크에 직접 쓰거나 자체 스토리지 서비스를 구현하는 애플리케이션에 성능 이점을 제공할 수 있습니다.

로컬 블록 장치를 OpenShift 샌드박스 컨테이너의 PV(영구 볼륨) 스토리지로 사용할 수 있습니다. 이 블록 장치는 LSO(Local Storage Operator)를 사용하여 프로비저닝할 수 있습니다.

Local Storage Operator는 기본적으로 OpenShift Container Platform에 설치되지 않습니다. 설치 지침은 Local Storage Operator 설치를 참조하십시오.

PV 사양에 volumeMode: Block 을 지정하여 OpenShift 샌드박스 컨테이너의 원시 블록 볼륨을 프로비저닝할 수 있습니다.

블록 볼륨 예

apiVersion: "local.storage.openshift.io/v1"
kind: "LocalVolume"
metadata:
  name: "local-disks"
  namespace: "openshift-local-storage"
spec:
  nodeSelector:
    nodeSelectorTerms:
    - matchExpressions:
        - key: kubernetes.io/hostname
          operator: In
          values:
          - worker-0
  storageClassDevices:
    - storageClassName: "local-sc"
      forceWipeDevicesAndDestroyAllData: false
      volumeMode: Block 
1

      devicePaths:
        - /path/to/device 
2
Copy to Clipboard Toggle word wrap

1
volumeModeBlock 으로 설정하여 이 PV가 원시 블록 볼륨임을 나타냅니다.
2
이 값을 LocalVolume 리소스의 filepath 로 바꿉니다. 프로비저너가 배포되면 이러한 로컬 디스크에 PV가 생성됩니다. 또한 이 경로를 사용하여 OpenShift 샌드박스 컨테이너를 배포할 때 블록 장치를 사용하는 노드에 레이블을 지정해야 합니다.

1.8. FIPS 컴플라이언스

OpenShift Container Platform은 FIPS(Federal Information Processing Standards) 140-2 및 140-3를 위해 설계되었습니다. FIPS 모드로 부팅된 Red Hat Enterprise Linux(RHEL) 또는 Red Hat Enterprise Linux CoreOS(RHCOS)를 실행할 때 OpenShift Container Platform 핵심 구성 요소는 x86_64 , ppc64les390x 아키텍처에서만 FIPS 140-2/140-3 검증을 위해 NIST에 제출된 RHEL 암호화 라이브러리를 사용합니다.

NIST 검증 프로그램에 대한 자세한 내용은 암호화 모듈 유효성 검사 프로그램을 참조하십시오. 검증을 위해 제출된 RHEL 암호화 라이브러리의 개별 버전에 대한 최신 NIST 상태는 규정 준수 활동 및 정부 표준을 참조하세요.

OpenShift 샌드박스 컨테이너는 FIPS가 활성화된 클러스터에서 사용할 수 있습니다.

FIPS 모드에서 실행하면 OpenShift 샌드박스 컨테이너 구성 요소, VM 및 VM 이미지가 FIPS를 준수하도록 조정됩니다.

참고

OpenShift 샌드박스 컨테이너에 대한 FIPS 컴플라이언스는 kata 런타임 클래스에만 적용됩니다. 피어 Pod 런타임 클래스 kata-remote 는 아직 완전히 지원되지 않으며 FIPS 규정 준수를 위해 테스트되지 않았습니다.

FIPS 컴플라이언스는 보안 수준이 높은 환경에서 요구되는 가장 중요한 구성요소 중 하나로, 지원되는 암호화 기술만 노드에서 허용합니다.

중요

FIPS 검증 / 진행중인 모듈 암호화 라이브러리 사용은 x86_64 아키텍처의 OpenShift Container Platform 배포에서만 지원됩니다.

OpenShift Container Platform 컴플라이언스 프레임워크에 대한 Red Hat의 관점을 이해하려면 OpenShift 보안 가이드의 위험 관리 및 규제 준비 장을 참조하십시오.

1.9. 피어 Pod 리소스 요구 사항

클러스터에 충분한 리소스가 있는지 확인해야 합니다.

피어 Pod 가상 머신(VM)에는 다음 두 위치에 있는 리소스가 필요합니다.

  • 작업자 노드입니다. 작업자 노드는 메타데이터, Kata shim 리소스(containerd-shim-kata-v2), remote-hypervisor 리소스(cloud-api-adaptor) 및 작업자 노드와 피어 Pod VM 간의 터널 설정을 저장합니다.
  • 클라우드 인스턴스입니다. 클라우드에서 실행되는 실제 피어 Pod VM입니다.

Kubernetes 작업자 노드에 사용되는 CPU 및 메모리 리소스는 피어 Pod를 생성하는 데 사용되는 RuntimeClass(kata-remote) 정의에 포함된 Pod 오버헤드 에 의해 처리됩니다.

클라우드에서 실행되는 총 피어 Pod VM 수는 Kubernetes 노드 확장 리소스로 정의됩니다. 이 제한은 노드당이며 peer-pods-cm 구성 맵의 PEERPODS_LIMIT_PER_NODE 속성에 의해 설정됩니다.

확장된 리소스의 이름은 kata.peerpods.io/vm 이며 Kubernetes 스케줄러에서 용량 추적 및 계정을 처리할 수 있습니다.

OpenShift 샌드박스 컨테이너 Operator를 설치한 후 환경의 요구 사항에 따라 노드당 제한을 편집할 수 있습니다.

변경 웹 후크 는 확장된 리소스 kata.peerpods.io/vm 을 Pod 사양에 추가합니다. 또한 Pod 사양에서 리소스별 항목도 제거합니다(있는 경우). 이를 통해 Kubernetes 스케줄러에서 이러한 확장 리소스를 고려하여 리소스를 사용할 수 있는 경우에만 피어 Pod를 예약할 수 있습니다.

변경 웹 후크는 다음과 같이 Kubernetes Pod를 수정합니다.

  • 변경 웹 후크는 TARGET_RUNTIME_CLASS 환경 변수에 지정된 예상 RuntimeClassName 값을 Pod에 확인합니다. Pod 사양의 값이 TARGET_RUNTIME_CLASS 의 값과 일치하지 않으면 Pod를 수정하지 않고 웹 후크가 종료됩니다.
  • RuntimeClassName 값이 일치하는 경우 Webhook에서 Pod 사양을 다음과 같이 변경합니다.

    1. Webhook는 Pod에 있는 모든 컨테이너 및 init 컨테이너의 resources 필드에서 모든 리소스 사양을 제거합니다.
    2. Webhook는 Pod의 첫 번째 컨테이너의 resources 필드를 수정하여 확장 리소스(kata.peerpods.io/vm)를 사양에 추가합니다. 확장된 리소스 kata.peerpods.io/vm 은 회계 목적으로 Kubernetes 스케줄러에서 사용합니다.
참고

변경 웹 후크는 OpenShift Container Platform의 특정 시스템 네임스페이스가 변경되지 않습니다. 해당 시스템 네임스페이스에 피어 Pod가 생성되면 Pod 사양에 확장 리소스가 포함되지 않는 한 Kubernetes 확장 리소스를 사용하는 리소스 계정이 작동하지 않습니다.

특정 네임스페이스에서 피어 Pod 생성만 허용하도록 클러스터 전체 정책을 정의하는 것이 좋습니다.

2장. 베어 메탈에 OpenShift 샌드박스 컨테이너 배포

베어 메탈에 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다.

다음 단계를 수행하여 OpenShift 샌드박스 컨테이너를 배포합니다.

  1. OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.
  2. 선택 사항: Local Storage Operator를 설치하여 로컬 블록 스토리지 장치를 구성합니다.
  3. 선택 사항: NFD(Node Feature Discovery) Operator를 설치하여 노드 자격 검사를 구성합니다.
  4. KataConfig 사용자 지정 리소스를 생성합니다.
  5. 선택 사항: 각 작업자 노드에서 실행되는 가상 머신 수를 수정합니다.
  6. 선택 사항: Pod 오버헤드를 수정합니다.
  7. OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

2.1. 사전 요구 사항

  • 최신 버전의 Red Hat OpenShift Container Platform이 설치되어 있습니다.
  • OpenShift Container Platform 클러스터에는 작업자 노드가 하나 이상 있습니다.

2.2. OpenShift 샌드박스 컨테이너 Operator 설치

CLI(명령줄 인터페이스)를 사용하여 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.

사전 요구 사항

  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. osc-namespace.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: Namespace
    metadata:
      name: openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 네임스페이스를 생성합니다.

    $ oc create -f osc-namespace.yaml
    Copy to Clipboard Toggle word wrap
  3. osc-operatorgroup.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: sandboxed-containers-operator-group
      namespace: openshift-sandboxed-containers-operator
    spec:
      targetNamespaces:
      - openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 operator 그룹을 생성합니다.

    $ oc create -f osc-operatorgroup.yaml
    Copy to Clipboard Toggle word wrap
  5. osc-subscription.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: sandboxed-containers-operator
      namespace: openshift-sandboxed-containers-operator
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: sandboxed-containers-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
      startingCSV: sandboxed-containers-operator.v1.10.3
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 서브스크립션을 생성합니다.

    $ oc create -f osc-subscription.yaml
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 Operator가 올바르게 설치되었는지 확인합니다.

    $ oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    이 명령을 완료하는 데 몇 분이 걸릴 수 있습니다.

  8. 다음 명령을 실행하여 프로세스를 확인합니다.

    $ watch oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                             DISPLAY                                  VERSION             REPLACES                   PHASE
    openshift-sandboxed-containers   openshift-sandboxed-containers-operator  1.10.3    1.9.0        Succeeded
    Copy to Clipboard Toggle word wrap

2.3. 선택적 구성

OpenShift 샌드박스 컨테이너 Operator를 설치한 후 다음 옵션을 구성할 수 있습니다.

2.3.1. 로컬 블록 볼륨 프로비저닝

OpenShift 샌드박스 컨테이너와 함께 로컬 블록 볼륨을 사용할 수 있습니다. 먼저 LSO(Local Storage Operator)를 사용하여 로컬 블록 볼륨을 프로비저닝해야 합니다. 그런 다음 로컬 블록 볼륨이 있는 노드를 활성화해야 OpenShift 샌드박스 컨테이너 워크로드를 실행해야 합니다.

LSO(Local Storage Operator)를 사용하여 OpenShift 샌드박스 컨테이너의 로컬 블록 볼륨을 프로비저닝할 수 있습니다. 로컬 볼륨 프로비저너는 정의된 리소스에 지정된 경로에서 블록 볼륨 장치를 찾습니다.

사전 요구 사항

  • Local Storage Operator가 설치되어 있습니다.
  • 다음 조건을 충족하는 로컬 디스크가 있습니다.

    • 노드에 연결되어 있습니다.
    • 마운트되지 않았습니다.
    • 파티션이 포함되어 있지 않습니다.

프로세스

  1. 로컬 볼륨 리소스를 생성합니다. 이 리소스는 로컬 볼륨에 대한 노드 및 경로를 정의해야 합니다.

    참고

    동일한 장치에 다른 스토리지 클래스 이름을 사용하지 마십시오. 이렇게 하면 여러 PV(영구 볼륨)가 생성됩니다.

    예: 블록

    apiVersion: "local.storage.openshift.io/v1"
    kind: "LocalVolume"
    metadata:
      name: "local-disks"
      namespace: "openshift-local-storage" 
    1
    
    spec:
      nodeSelector: 
    2
    
        nodeSelectorTerms:
        - matchExpressions:
            - key: kubernetes.io/hostname
              operator: In
              values:
              - ip-10-0-136-143
              - ip-10-0-140-255
              - ip-10-0-144-180
      storageClassDevices:
        - storageClassName: "local-sc" 
    3
    
          forceWipeDevicesAndDestroyAllData: false 
    4
    
          volumeMode: Block
          devicePaths: 
    5
    
            - /path/to/device 
    6
    Copy to Clipboard Toggle word wrap

    1
    Local Storage Operator가 설치된 네임스페이스입니다.
    2
    선택 사항: 로컬 스토리지 볼륨이 연결된 노드 목록이 포함된 노드 선택기입니다. 이 예에서는 oc get node에서 가져온 노드 호스트 이름을 사용합니다. 값을 정의하지 않으면 Local Storage Operator에서 사용 가능한 모든 노드에서 일치하는 디스크를 찾습니다.
    3
    영구 볼륨 오브젝트를 생성할 때 사용할 스토리지 클래스의 이름입니다.
    4
    이 설정은 wipefs 를 호출할지 여부를 정의합니다. 즉, 파티션 테이블 서명(마이크 문자열)을 제거하여 Local Storage Operator 프로비저닝에 디스크를 사용할 준비가 되었습니다. 서명 이외의 다른 데이터는 삭제되지 않습니다. 기본값은 "false"입니다(wipefs 가 호출되지 않음). forceWipeDevicesAndDestroyAllData 를 "true"로 설정하면 이전 데이터를 다시 사용해야 하는 디스크에 남아 있을 수 있는 시나리오에서 유용할 수 있습니다. 이러한 시나리오에서는 이 필드를 true로 설정하면 관리자가 디스크를 수동으로 지울 필요가 없습니다.
    5
    선택할 로컬 스토리지 장치 목록이 포함된 경로입니다. 로컬 블록 장치가 있는 노드를 활성화하여 OpenShift 샌드박스 컨테이너 워크로드를 실행할 때 이 경로를 사용해야 합니다.
    6
    이 값을 LocalVolume 리소스의 filepath로 바꿉니다(예: /dev/disk/ by-id /wwn ). 프로비저너가 배포되면 이러한 로컬 디스크에 PV가 생성됩니다.
  2. OpenShift Container Platform 클러스터에 로컬 볼륨 리소스를 생성합니다. 방금 생성한 파일을 지정합니다.

    $ oc create -f <local-volume>.yaml
    Copy to Clipboard Toggle word wrap
  3. 프로비저너가 생성되었고 해당 데몬 세트가 생성되었는지 확인합니다.

    $ oc get all -n openshift-local-storage
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                                          READY   STATUS    RESTARTS   AGE
    pod/diskmaker-manager-9wzms                   1/1     Running   0          5m43s
    pod/diskmaker-manager-jgvjp                   1/1     Running   0          5m43s
    pod/diskmaker-manager-tbdsj                   1/1     Running   0          5m43s
    pod/local-storage-operator-7db4bd9f79-t6k87   1/1     Running   0          14m
    
    NAME                                     TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGE
    service/local-storage-operator-metrics   ClusterIP   172.30.135.36   <none>        8383/TCP,8686/TCP   14m
    
    NAME                               DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR   AGE
    daemonset.apps/diskmaker-manager   3         3         3       3            3           <none>          5m43s
    
    NAME                                     READY   UP-TO-DATE   AVAILABLE   AGE
    deployment.apps/local-storage-operator   1/1     1            1           14m
    
    NAME                                                DESIRED   CURRENT   READY   AGE
    replicaset.apps/local-storage-operator-7db4bd9f79   1         1         1       14m
    Copy to Clipboard Toggle word wrap

    원하는 데몬 세트 프로세스 및 현재 개수를 기록해 둡니다. 원하는 개수가 0 이면 라벨 선택기가 유효하지 않음을 나타냅니다.

  4. 영구 볼륨이 생성되었는지 확인합니다.

    $ oc get pv
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM   STORAGECLASS   REASON   AGE
    local-pv-1cec77cf   100Gi      RWO            Delete           Available           local-sc                88m
    local-pv-2ef7cd2a   100Gi      RWO            Delete           Available           local-sc                82m
    local-pv-3fa1c73    100Gi      RWO            Delete           Available           local-sc                48m
    Copy to Clipboard Toggle word wrap

중요

LocalVolume 오브젝트를 편집해도 안전하지 않은 작업이 발생할 수 있으므로 기존 영구 볼륨이 변경되지 않습니다.

2.3.2. 노드가 로컬 블록 장치를 사용하도록 활성화

로컬 블록 장치로 노드를 구성하여 정의된 볼륨 리소스에 지정된 경로에서 OpenShift 샌드박스 컨테이너 워크로드를 실행할 수 있습니다.

사전 요구 사항

  • LSO(Local Storage Operator)를 사용하여 블록 장치를 프로비저닝합니다.

프로세스

  • 로컬 블록 장치가 있는 각 노드를 활성화하여 다음 명령을 실행하여 OpenShift 샌드박스 컨테이너 워크로드를 실행합니다.

    $ oc debug node/worker-0 -- chcon -vt container_file_t /host/path/to/device
    Copy to Clipboard Toggle word wrap

    /path/to/device 는 로컬 스토리지 리소스를 생성할 때 정의한 경로와 동일해야 합니다.

    출력 예

    system_u:object_r:container_file_t:s0 /host/path/to/device
    Copy to Clipboard Toggle word wrap

2.3.3. NodeFeatureDiscovery 사용자 정의 리소스 생성

NodeFeatureDiscovery CR(사용자 정의 리소스)을 생성하여 NFD(Node Feature Discovery) Operator에서 작업자 노드에서 OpenShift 샌드박스 컨테이너를 지원할 수 있는지 확인하는 구성 매개변수를 정의합니다.

참고

사용자가 알고 있는 선택된 작업자 노드에만 kata 런타임을 설치하려면 feature.node.kubernetes.io/runtime.kata=true 레이블을 선택한 노드에 적용하고 KataConfig CR에서 checkNodeEligibility: true 를 설정합니다.

모든 작업자 노드에 kata 런타임을 설치하려면 KataConfig CR에 checkNodeEligibility: false 를 설정합니다.

이러한 두 시나리오에서는 NodeFeatureDiscovery CR을 생성할 필요가 없습니다. 노드가 OpenShift 샌드박스 컨테이너를 실행할 수 있는지 확인하는 경우 feature.node.kubernetes.io/runtime.kata=true 레이블만 수동으로 적용해야 합니다.

다음 절차에서는 feature.node.kubernetes.io/runtime.kata=true 레이블을 모든 적격 노드에 적용하고 노드 자격을 확인하도록 KataConfig 리소스를 구성합니다.

사전 요구 사항

  • NFD Operator가 설치되어 있습니다.

프로세스

  1. 다음 예에 따라 nfd.yaml 매니페스트 파일을 생성합니다.

    apiVersion: nfd.openshift.io/v1
    kind: NodeFeatureDiscovery
    metadata:
      name: nfd-kata
      namespace: openshift-nfd
    spec:
      workerConfig:
        configData: |
          sources:
            custom:
              - name: "feature.node.kubernetes.io/runtime.kata"
                matchOn:
                  - cpuId: ["SSE4", "VMX"]
                    loadedKMod: ["kvm", "kvm_intel"]
                  - cpuId: ["SSE4", "SVM"]
                    loadedKMod: ["kvm", "kvm_amd"]
    # ...
    Copy to Clipboard Toggle word wrap
  2. NodeFeatureDiscovery CR을 생성합니다.

    $ oc create -f nfd.yaml
    Copy to Clipboard Toggle word wrap

    NodeFeatureDiscovery CR은 feature.node.kubernetes.io/runtime.kata=true 레이블을 모든 적격 작업자 노드에 적용합니다.

  1. 다음 예에 따라 kata-config.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      checkNodeEligibility: true
    Copy to Clipboard Toggle word wrap
  2. KataConfig CR을 생성합니다.

    $ oc create -f kata-config.yaml
    Copy to Clipboard Toggle word wrap

검증

  • 클러스터의 적격한 노드에 올바른 레이블이 적용되었는지 확인합니다.

    $ oc get nodes --selector='feature.node.kubernetes.io/runtime.kata=true'
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                           STATUS                     ROLES    AGE     VERSION
    compute-3.example.com          Ready                      worker   4h38m   v1.25.0
    compute-2.example.com          Ready                      worker   4h35m   v1.25.0
    Copy to Clipboard Toggle word wrap

2.4. KataConfig 사용자 지정 리소스 생성

작업자 노드에 kata 를 런타임 클래스로 설치하려면 KataConfig CR(사용자 정의 리소스)을 생성해야 합니다.

OpenShift 샌드박스 컨테이너는 kata 를 기본 런타임이 아닌 클러스터의 선택적 런타임으로 설치합니다.

KataConfig CR을 생성하면 작업자 노드가 자동으로 재부팅됩니다. 재부팅에는 10분에서 60분 이상 걸릴 수 있습니다. 다음 요인은 재부팅 시간을 늘릴 수 있습니다.

  • 더 많은 작업자 노드가 있는 대규모 OpenShift Container Platform 배포
  • BIOS 및 Cryostat 유틸리티 활성화.
  • SSD가 아닌 하드 디스크 드라이브에 배포합니다.
  • 가상 노드가 아닌 베어 메탈과 같은 물리적 노드에 배포됩니다.
  • 느린 CPU 및 네트워크입니다.

프로세스

  1. 다음 예에 따라 example-kataconfig.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      checkNodeEligibility: false 
    1
    
      logLevel: info
    #  kataConfigPoolSelector:
    #    matchLabels:
    #      <label_key>: '<label_value>' 
    2
    Copy to Clipboard Toggle word wrap
    1
    선택 사항: Node Feature Discovery Operator를 설치한 경우 노드 자격 검사를 실행하려면'checkNodeEligibility'를 true 로 설정합니다.
    2
    선택 사항: 노드 레이블을 적용하여 특정 노드에 OpenShift 샌드박스 컨테이너를 설치한 경우 키와 값을 지정합니다.
  2. 다음 명령을 실행하여 KataConfig CR을 생성합니다.

    $ oc create -f example-kataconfig.yaml
    Copy to Clipboard Toggle word wrap

    새로운 KataConfig CR이 생성되고 작업자 노드에 kata 를 런타임 클래스로 설치합니다.

    kata 설치가 완료되고 설치를 확인하기 전에 작업자 노드가 재부팅될 때까지 기다립니다.

  3. 다음 명령을 실행하여 설치 진행 상황을 모니터링합니다.

    $ watch "oc describe kataconfig | sed -n /^Status:/,/^Events/p"
    Copy to Clipboard Toggle word wrap

    kataNodes 아래의 모든 작업자의 상태가 설치되고 이유를 지정하지 않고 InProgress 조건이 False 이면 클러스터에 kata 가 설치됩니다.

2.5. Pod 오버헤드 수정

Pod 오버헤드는 노드의 Pod에서 사용하는 시스템 리소스의 양을 설명합니다. RuntimeClass 사용자 정의 리소스의 spec.overhead 필드를 변경하여 Pod 오버헤드를 수정할 수 있습니다. 예를 들어 컨테이너에 대해 실행하는 구성이 QEMU 프로세스 및 게스트 커널 데이터에 350Mi 이상의 메모리를 사용하는 경우 필요에 맞게 RuntimeClass 오버헤드를 변경할 수 있습니다.

게스트에서 모든 유형의 파일 시스템 I/O를 수행할 때 게스트 커널에 파일 버퍼가 할당됩니다. 파일 버퍼는 virtiofsd 프로세스뿐만 아니라 호스트의 QEMU 프로세스에도 매핑됩니다.

예를 들어 게스트에서 300Mi 파일 버퍼 캐시를 사용하는 경우 QEMU와 virtiofsd는 모두 300Mi 추가 메모리를 사용하는 것처럼 나타납니다. 그러나 세 가지 경우 모두 동일한 메모리가 사용됩니다. 따라서 총 메모리 사용량은 300Mi에 불과하며 3개의 다른 위치에 매핑됩니다. 이는 메모리 사용량 메트릭을 보고할 때 올바르게 계산됩니다.

참고

기본값은 Red Hat에서 지원합니다. 기본 오버헤드 값 변경은 지원되지 않으며 값을 변경하면 기술적인 문제가 발생할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 RuntimeClass 오브젝트를 가져옵니다.

    $ oc describe runtimeclass kata
    Copy to Clipboard Toggle word wrap
  2. overhead.podFixed.memorycpu 값을 업데이트하고 파일로 runtimeclass.yaml 로 저장합니다.

    kind: RuntimeClass
    apiVersion: node.k8s.io/v1
    metadata:
      name: kata
    overhead:
      podFixed:
        memory: "500Mi"
        cpu: "500m"
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 변경 사항을 적용합니다.

    $ oc apply -f runtimeclass.yaml
    Copy to Clipboard Toggle word wrap

2.6. OpenShift 샌드박스 컨테이너의 워크로드 구성

다음 pod 템플릿 오브젝트의 런타임 클래스로 kata 를 설정하여 OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

  • Pod 오브젝트
  • ReplicaSet 오브젝트
  • ReplicationController 오브젝트
  • StatefulSet 오브젝트
  • Deployment 오브젝트
  • DeploymentConfig 오브젝트
중요

Operator 네임스페이스에 워크로드를 배포하지 마십시오. 이러한 리소스에 대한 전용 네임스페이스를 생성합니다.

사전 요구 사항

  • KataConfig CR(사용자 정의 리소스)을 생성했습니다.

프로세스

  1. 다음 예와 같이 spec.runtimeClassName: kata 를 각 pod 템플릿 워크로드 오브젝트의 매니페스트에 추가합니다.

    apiVersion: v1
    kind: <object>
    # ...
    spec:
      runtimeClassName: kata
    # ...
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 워크로드 오브젝트에 변경 사항을 적용합니다.

    $ oc apply -f <object.yaml>
    Copy to Clipboard Toggle word wrap

    OpenShift Container Platform은 워크로드 오브젝트를 생성하고 스케줄링을 시작합니다.

검증

  • pod-templated 오브젝트의 spec.runtimeClassName 필드를 검사합니다. 값이 kata 인 경우 워크로드는 OpenShift 샌드박스 컨테이너에서 실행됩니다.

3장. AWS에 OpenShift 샌드박스 컨테이너 배포

AWS 클라우드 컴퓨팅 서비스에 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다.

중요

AWS 클라우드 컴퓨팅 서비스의 Red Hat OpenShift 샌드박스 컨테이너는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

다음 단계를 수행하여 OpenShift 샌드박스 컨테이너를 배포합니다.

  1. OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.
  2. 포트를 활성화하여 피어 Pod와 내부 통신을 허용합니다.
  3. 선택 사항: 사용자 정의 Pod VM 이미지를 선택하는 경우 피어 Pod에 대한 풀 시크릿을 구성해야 합니다.
  4. 선택 사항: 사용자 정의 Pod VM 이미지를 선택합니다.
  5. 피어 Pod 구성 맵을 생성합니다.
  6. 선택 사항: Kata 에이전트 정책을 사용자 지정합니다.
  7. KataConfig 사용자 지정 리소스를 생성합니다.
  8. 선택 사항: 각 작업자 노드에서 실행되는 가상 머신 수를 수정합니다.
  9. OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

3.1. 사전 요구 사항

  • 최신 버전의 Red Hat OpenShift Container Platform이 설치되어 있습니다.
  • OpenShift Container Platform 클러스터에는 작업자 노드가 하나 이상 있습니다.
  • 작업자 노드 및 Pod VM(가상 머신)에 사용되는 서브넷의 통신에 포트 15150 및 9000을 활성화했습니다. 포트를 사용하면 작업자 노드에서 실행 중인 Kata shim과 pod VM에서 실행되는 Kata 에이전트 간에 통신할 수 있습니다.

3.2. OpenShift 샌드박스 컨테이너 Operator 설치

CLI(명령줄 인터페이스)를 사용하여 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.

사전 요구 사항

  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. osc-namespace.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: Namespace
    metadata:
      name: openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 네임스페이스를 생성합니다.

    $ oc create -f osc-namespace.yaml
    Copy to Clipboard Toggle word wrap
  3. osc-operatorgroup.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: sandboxed-containers-operator-group
      namespace: openshift-sandboxed-containers-operator
    spec:
      targetNamespaces:
      - openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 operator 그룹을 생성합니다.

    $ oc create -f osc-operatorgroup.yaml
    Copy to Clipboard Toggle word wrap
  5. osc-subscription.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: sandboxed-containers-operator
      namespace: openshift-sandboxed-containers-operator
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: sandboxed-containers-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
      startingCSV: sandboxed-containers-operator.v1.10.3
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 서브스크립션을 생성합니다.

    $ oc create -f osc-subscription.yaml
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 Operator가 올바르게 설치되었는지 확인합니다.

    $ oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    이 명령을 완료하는 데 몇 분이 걸릴 수 있습니다.

  8. 다음 명령을 실행하여 프로세스를 확인합니다.

    $ watch oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                             DISPLAY                                  VERSION             REPLACES                   PHASE
    openshift-sandboxed-containers   openshift-sandboxed-containers-operator  1.10.3    1.9.0        Succeeded
    Copy to Clipboard Toggle word wrap

3.3. AWS의 포트 활성화

AWS에서 실행되는 피어 Pod와의 내부 통신을 허용하려면 포트 15150 및 9000을 활성화해야 합니다.

사전 요구 사항

  • OpenShift 샌드박스 컨테이너 Operator가 설치되어 있습니다.
  • AWS 명령줄 툴을 설치했습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. OpenShift Container Platform 클러스터에 로그인하고 인스턴스 ID를 검색합니다.

    $ INSTANCE_ID=$(oc get nodes -l 'node-role.kubernetes.io/worker' \
      -o jsonpath='{.items[0].spec.providerID}' | sed 's#[^ ]*/##g')
    Copy to Clipboard Toggle word wrap
  2. AWS 리전을 검색합니다.

    $ AWS_REGION=$(oc get infrastructure/cluster -o jsonpath='{.status.platformStatus.aws.region}')
    Copy to Clipboard Toggle word wrap
  3. 보안 그룹 ID를 검색하여 배열에 저장합니다.

    $ AWS_SG_IDS=($(aws ec2 describe-instances --instance-ids ${INSTANCE_ID} \
      --query 'Reservations[*].Instances[*].SecurityGroups[*].GroupId' \
      --output text --region $AWS_REGION))
    Copy to Clipboard Toggle word wrap
  4. 각 보안 그룹 ID에 대해 피어 pod shim에 kata-agent 통신에 액세스하고 피어 Pod 터널을 설정하도록 권한을 부여합니다.

    $ for AWS_SG_ID in "${AWS_SG_IDS[@]}"; do \
      aws ec2 authorize-security-group-ingress --group-id $AWS_SG_ID --protocol tcp --port 15150 --source-group $AWS_SG_ID --region $AWS_REGION; \
      aws ec2 authorize-security-group-ingress --group-id $AWS_SG_ID --protocol tcp --port 9000 --source-group $AWS_SG_ID --region $AWS_REGION; \
    done
    Copy to Clipboard Toggle word wrap

이제 포트가 활성화됩니다.

3.4. 피어 Pod 구성 맵 생성

피어 Pod 구성 맵을 생성해야 합니다.

사전 요구 사항

  • 클러스터 인증 정보를 기반으로 기본 AMI ID를 사용하지 않는 경우 AMI(Amazon Machine Image) ID가 있습니다.

프로세스

  1. AWS 인스턴스에서 다음 값을 가져옵니다.

    1. 인스턴스 ID를 검색하고 기록합니다.

      $ INSTANCE_ID=$(oc get nodes -l 'node-role.kubernetes.io/worker' \
        -o jsonpath='{.items[0].spec.providerID}' | sed 's#[^ ]*/##g')
      Copy to Clipboard Toggle word wrap

      이는 secret 오브젝트의 다른 값을 검색하는 데 사용됩니다.

    2. AWS 리전을 검색하고 기록합니다.

      $ AWS_REGION=$(oc get infrastructure/cluster \
        -o jsonpath='{.status.platformStatus.aws.region}') \
        && echo "AWS_REGION: \"$AWS_REGION\""
      Copy to Clipboard Toggle word wrap
    3. AWS 서브넷 ID를 검색하고 기록합니다.

      $ AWS_SUBNET_ID=$(aws ec2 describe-instances --instance-ids ${INSTANCE_ID} \
        --query 'Reservations[*].Instances[*].SubnetId' --region ${AWS_REGION} \
          --output text) && echo "AWS_SUBNET_ID: \"$AWS_SUBNET_ID\""
      Copy to Clipboard Toggle word wrap
    4. AWS VPC ID를 검색하고 기록합니다.

      $ AWS_VPC_ID=$(aws ec2 describe-instances --instance-ids ${INSTANCE_ID} \
        --query 'Reservations[*].Instances[*].VpcId' --region ${AWS_REGION} \
          --output text) && echo "AWS_VPC_ID: \"$AWS_VPC_ID\""
      Copy to Clipboard Toggle word wrap
    5. AWS 보안 그룹 ID를 검색하고 기록합니다.

      $ AWS_SG_IDS=$(aws ec2 describe-instances --instance-ids ${INSTANCE_ID} \
        --query 'Reservations[*].Instances[*].SecurityGroups[*].GroupId' \
        --region  $AWS_REGION --output json | jq -r '.[][][]' | paste -sd ",") \
          && echo "AWS_SG_IDS: \"$AWS_SG_IDS\""
      Copy to Clipboard Toggle word wrap
  2. 다음 예에 따라 peer-pods-cm.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: peer-pods-cm
      namespace: openshift-sandboxed-containers-operator
    data:
      CLOUD_PROVIDER: "aws"
      VXLAN_PORT: "9000"
      PROXY_TIMEOUT: "5m"
      PODVM_INSTANCE_TYPE: "t3.medium"
      PODVM_INSTANCE_TYPES: "t2.small,t2.medium,t3.large"
      PODVM_AMI_ID: "<podvm_ami_id>"
      AWS_REGION: "<aws_region>"
      AWS_SUBNET_ID: "<aws_subnet_id>"
      AWS_VPC_ID: "<aws_vpc_id>"
      AWS_SG_IDS: "<aws_sg_ids>"
      TAGS: "key1=value1,key2=value2"
      PEERPODS_LIMIT_PER_NODE: "10"
      ROOT_VOLUME_SIZE: "6"
      DISABLECVM: "true"
    Copy to Clipboard Toggle word wrap
    PODVM_INSTANCE_TYPE
    인스턴스 유형이 워크로드 오브젝트에 정의되지 않은 경우 사용되는 기본 인스턴스 유형을 정의합니다.
    PODVM_INSTANCE_TYPES
    Pod를 생성하기 위해 공백 없이 허용된 인스턴스 유형을 지정합니다. 더 적은 메모리와 더 적은 CPU 또는 대규모 워크로드의 인스턴스 유형이 필요한 워크로드에 대해 더 작은 인스턴스 유형을 정의할 수 있습니다.
    PODVM_AMI_ID
    이 값은 클러스터 인증 정보를 기반으로 AMI ID를 사용하여 KataConfig CR을 실행할 때 채워집니다. 고유한 AMI를 생성하는 경우 올바른 AMI ID를 지정합니다.
    태그
    사용자 정의 태그를 Pod VM 인스턴스의 키:값 쌍으로 구성하여 피어 Pod 비용을 추적하거나 다른 클러스터에서 피어 Pod를 식별할 수 있습니다.
    PEERPODS_LIMIT_PER_NODE
    이 값을 늘리면 노드에서 더 많은 피어 Pod를 실행할 수 있습니다. 기본값은 10 입니다.
    ROOT_VOLUME_SIZE
    더 큰 컨테이너 이미지를 사용하여 Pod의 이 값을 늘릴 수 있습니다. Pod VM의 루트 볼륨 크기(GB)를 지정합니다. 기본 및 최소 크기는 6GB입니다.
  3. 다음 명령을 실행하여 구성 맵을 생성합니다.

    $ oc create -f peer-pods-cm.yaml
    Copy to Clipboard Toggle word wrap

3.5. 피어 Pod의 풀 시크릿 구성

프라이빗 레지스트리에서 Pod VM 이미지를 가져오려면 피어 Pod에 대한 풀 시크릿을 구성해야 합니다.

그런 다음 풀 시크릿을 기본 서비스 계정에 연결하거나 피어 Pod 매니페스트에 가져오기 보안을 지정할 수 있습니다.

프로세스

  1. NS 변수를 피어 Pod를 배포하는 네임스페이스로 설정합니다.

    $ NS=<namespace>
    Copy to Clipboard Toggle word wrap
  2. 풀 시크릿을 피어 Pod 네임스페이스에 복사합니다.

    $ oc get secret pull-secret -n openshift-config -o yaml \
      | sed "s/namespace: openshift-config/namespace: ${NS}/" \
      | oc apply -n "${NS}" -f -
    Copy to Clipboard Toggle word wrap

    이 예와 같이 클러스터 풀 시크릿 또는 사용자 정의 풀 시크릿을 사용할 수 있습니다.

  3. 선택 사항: 풀 시크릿을 default 서비스 계정에 연결합니다.

    $ oc secrets link default pull-secret --for=pull -n ${NS}
    Copy to Clipboard Toggle word wrap
  4. 또는 피어 Pod 매니페스트에 풀 시크릿을 추가합니다.

    apiVersion: v1
    kind: <Pod>
    spec:
      containers:
      - name: <container_name>
        image: <image_name>
      imagePullSecrets:
      - name: pull-secret
    # ...
    Copy to Clipboard Toggle word wrap

3.6. 사용자 정의 피어 Pod VM 이미지 선택

Pod 매니페스트에 주석을 추가하여 워크로드 요구 사항에 맞게 사용자 정의 피어 Pod 가상 머신(VM) 이미지를 선택할 수 있습니다. 사용자 정의 이미지는 피어 Pod 구성 맵에 지정된 기본 이미지를 덮어씁니다.

사전 요구 사항

  • 클라우드 공급자 또는 하이퍼바이저와 호환되는 사용자 정의 Pod VM 이미지의 ID가 있습니다.

프로세스

  1. 다음 예에 따라 my-pod-manifest.yaml 파일을 생성합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod-manifest
      annotations:
        io.katacontainers.config.hypervisor.image: "<custom_image_id>"
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <example_container>
        image: registry.access.redhat.com/ubi9/ubi:9.3
        command: ["sleep", "36000"]
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod-manifest.yaml
    Copy to Clipboard Toggle word wrap

3.7. Kata 에이전트 정책 사용자 정의

Kata 에이전트 정책을 사용자 지정하여 피어 pod에 대해 허용되는 기본 정책을 재정의할 수 있습니다. Kata 에이전트 정책은 피어 pod에 대한 API 요청을 제어하는 보안 메커니즘입니다.

중요

프로덕션 환경에서 기본 정책을 재정의해야 합니다.

최소 요구 사항은 클러스터 관리자가 피어 포드에서 oc exec 명령을 실행하여 중요한 데이터에 액세스하지 못하도록 ExecProcessRequest 를 비활성화해야 합니다.

예를 들어 컨트롤 플레인을 신뢰할 수 있는 환경에서 보안이 중요하지 않은 개발 및 테스트 환경에서 기본 정책을 사용할 수 있습니다.

사용자 지정 정책은 기본 정책을 완전히 대체합니다. 특정 API를 수정하려면 전체 정책을 포함하고 관련 규칙을 조정합니다.

프로세스

  1. 기본 정책을 수정하여 사용자 지정 policy.rego 파일을 생성합니다.

    package agent_policy
    
    default AddARPNeighborsRequest := true
    default AddSwapRequest := true
    default CloseStdinRequest := true
    default CopyFileRequest := true
    default CreateContainerRequest := true
    default CreateSandboxRequest := true
    default DestroySandboxRequest := true
    default ExecProcessRequest := true
    default GetMetricsRequest := true
    default GetOOMEventRequest := true
    default GuestDetailsRequest := true
    default ListInterfacesRequest := true
    default ListRoutesRequest := true
    default MemHotplugByProbeRequest := true
    default OnlineCPUMemRequest := true
    default PauseContainerRequest := true
    default PullImageRequest := true
    default ReadStreamRequest := false
    default RemoveContainerRequest := true
    default RemoveStaleVirtiofsShareMountsRequest := true
    default ReseedRandomDevRequest := true
    default ResumeContainerRequest := true
    default SetGuestDateTimeRequest := true
    default SetPolicyRequest := true
    default SignalProcessRequest := true
    default StartContainerRequest := true
    default StartTracingRequest := true
    default StatsContainerRequest := true
    default StopTracingRequest := true
    default TtyWinResizeRequest := true
    default UpdateContainerRequest := true
    default UpdateEphemeralMountsRequest := true
    default UpdateInterfaceRequest := true
    default UpdateRoutesRequest := true
    default WaitProcessRequest := true
    default WriteStreamRequest := true
    Copy to Clipboard Toggle word wrap

    기본 정책은 모든 API 호출을 허용합니다. 필요에 따라 정책을 추가로 사용자 지정하도록 true 또는 false 값을 조정합니다.

  2. 다음 명령을 실행하여 policy.rego 파일을 Base64 인코딩 문자열로 변환합니다.

    $ base64 -w0 policy.rego
    Copy to Clipboard Toggle word wrap

    출력을 기록합니다.

  3. Base64로 인코딩된 정책 문자열을 my-pod.yaml 매니페스트에 추가합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod
      annotations:
        io.katacontainers.config.agent.policy: <base64_encoded_policy>
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <container_name>
        image: registry.access.redhat.com/ubi9/ubi:latest
        command:
        - sleep
        - "36000"
        securityContext:
          privileged: false
          seccompProfile:
            type: RuntimeDefault
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod.yaml
    Copy to Clipboard Toggle word wrap

3.8. KataConfig 사용자 지정 리소스 생성

KataConfig CR(사용자 정의 리소스)을 생성하여 작업자 노드에 kata-remote 를 런타임 클래스로 설치해야 합니다.

OpenShift 샌드박스 컨테이너는 kata-remote 를 기본 런타임이 아닌 클러스터의 선택적 런타임으로 설치합니다.

KataConfig CR을 생성하면 작업자 노드가 자동으로 재부팅됩니다. 재부팅에는 10분에서 60분 이상 걸릴 수 있습니다. 다음 요인은 재부팅 시간을 늘릴 수 있습니다.

  • 더 많은 작업자 노드가 있는 대규모 OpenShift Container Platform 배포
  • BIOS 및 Cryostat 유틸리티 활성화.
  • SSD가 아닌 하드 디스크 드라이브에 배포합니다.
  • 가상 노드가 아닌 베어 메탈과 같은 물리적 노드에 배포됩니다.
  • 느린 CPU 및 네트워크입니다.

프로세스

  1. 다음 예에 따라 example-kataconfig.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      enablePeerPods: true
      logLevel: info
    #  kataConfigPoolSelector:
    #    matchLabels:
    #      <label_key>: '<label_value>' 
    1
    Copy to Clipboard Toggle word wrap
    1
    선택 사항: 노드 레이블을 적용하여 특정 노드에 kata-remote 를 설치한 경우 키와 값(예: osc: 'true' )을 지정합니다.
  2. 다음 명령을 실행하여 KataConfig CR을 생성합니다.

    $ oc create -f example-kataconfig.yaml
    Copy to Clipboard Toggle word wrap

    새로운 KataConfig CR이 생성되고 작업자 노드에 kata-remote 가 런타임 클래스로 설치됩니다.

    설치를 확인하기 전에 kata-remote 설치가 완료되고 작업자 노드가 재부팅될 때까지 기다립니다.

  3. 다음 명령을 실행하여 설치 진행 상황을 모니터링합니다.

    $ watch "oc describe kataconfig | sed -n /^Status:/,/^Events/p"
    Copy to Clipboard Toggle word wrap

    kataNodes 아래의 모든 작업자의 상태가 설치되고 이유를 지정하지 않고 InProgress 조건이 False 이면 클러스터에 kata-remote 가 설치됩니다.

  4. 다음 명령을 실행하여 데몬 세트를 확인합니다.

    $ oc get -n openshift-sandboxed-containers-operator ds/osc-caa-ds
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 런타임 클래스를 확인합니다.

    $ oc get runtimeclass
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME             HANDLER          AGE
    kata-remote      kata-remote      152m
    Copy to Clipboard Toggle word wrap

3.9. 노드당 피어 Pod VM 수 수정

peerpodConfig CR(사용자 정의 리소스)을 편집하여 노드당 피어 Pod 가상 머신(VM) 제한을 수정할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 현재 제한을 확인합니다.

    $ oc get peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      -o jsonpath='{.spec.limit}{"\n"}'
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 limit 키의 새 값을 지정합니다.

    $ oc patch peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      --type merge --patch '{"spec":{"limit":"<value>"}}'
    Copy to Clipboard Toggle word wrap

3.10. Pod VM 이미지 확인

클러스터에 kata-remote 가 설치되면 OpenShift 샌드박스 컨테이너 Operator에서 피어 Pod를 생성하는 데 사용되는 Pod VM 이미지를 생성합니다. 이 프로세스는 클라우드 인스턴스에서 이미지가 생성되므로 시간이 오래 걸릴 수 있습니다. 클라우드 공급자에 대해 생성한 구성 맵을 확인하여 Pod VM 이미지가 성공적으로 생성되었는지 확인할 수 있습니다.

프로세스

  1. 피어 Pod에 대해 생성한 구성 맵을 가져옵니다.

    $ oc get configmap peer-pods-cm -n openshift-sandboxed-containers-operator -o yaml
    Copy to Clipboard Toggle word wrap
  2. YAML 파일의 상태 스탠자를 확인합니다.

    PODVM_AMI_ID 매개변수가 채워지면 Pod VM 이미지가 성공적으로 생성됩니다.

문제 해결

  1. 다음 명령을 실행하여 이벤트 로그를 검색합니다.

    $ oc get events -n openshift-sandboxed-containers-operator --field-selector involvedObject.name=osc-podvm-image-creation
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 작업 로그를 검색합니다.

    $ oc logs -n openshift-sandboxed-containers-operator jobs/osc-podvm-image-creation
    Copy to Clipboard Toggle word wrap

문제를 해결할 수 없는 경우 Red Hat 지원 케이스를 제출하고 두 로그의 출력을 첨부합니다.

3.11. OpenShift 샌드박스 컨테이너의 워크로드 구성

kata-remote 를 다음 pod 템플릿 오브젝트의 런타임 클래스로 설정하여 OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

  • Pod 오브젝트
  • ReplicaSet 오브젝트
  • ReplicationController 오브젝트
  • StatefulSet 오브젝트
  • Deployment 오브젝트
  • DeploymentConfig 오브젝트
중요

Operator 네임스페이스에 워크로드를 배포하지 마십시오. 이러한 리소스에 대한 전용 네임스페이스를 생성합니다.

YAML 파일에 주석을 추가하여 구성 맵에 정의한 기본 인스턴스 유형을 사용하여 워크로드를 배포해야 하는지 여부를 정의할 수 있습니다.

인스턴스 유형을 수동으로 정의하지 않으려면 사용 가능한 메모리에 따라 자동 인스턴스 유형을 사용하도록 주석을 추가할 수 있습니다.

사전 요구 사항

  • KataConfig CR(사용자 정의 리소스)을 생성했습니다.

프로세스

  1. 다음 예와 같이 spec.runtimeClassName: kata-remote 를 각 pod 템플릿 워크로드 오브젝트의 매니페스트에 추가합니다.

    apiVersion: v1
    kind: <object>
    # ...
    spec:
      runtimeClassName: kata-remote
    # ...
    Copy to Clipboard Toggle word wrap
  2. 선택 사항: 수동으로 정의한 인스턴스 유형을 사용하려면 구성 맵에서 정의한 인스턴스 유형으로 다음 주석을 추가합니다.

    apiVersion: v1
    kind: <object>
    metadata:
      annotations:
        io.katacontainers.config.hypervisor.machine_type: <machine_type>
    # ...
    Copy to Clipboard Toggle word wrap
  3. 선택 사항: 자동 인스턴스 유형을 사용하려면 다음 주석을 추가합니다.

    apiVersion: v1
    kind: <Pod>
    metadata:
      annotations:
        io.katacontainers.config.hypervisor.default_vcpus: <vcpus>
        io.katacontainers.config.hypervisor.default_memory: <memory>
    # ...
    Copy to Clipboard Toggle word wrap

    워크로드는 사용 가능한 메모리 양에 따라 자동 인스턴스 유형에서 실행됩니다.

  4. 다음 명령을 실행하여 워크로드 오브젝트에 변경 사항을 적용합니다.

    $ oc apply -f <object.yaml>
    Copy to Clipboard Toggle word wrap

    OpenShift Container Platform은 워크로드 오브젝트를 생성하고 스케줄링을 시작합니다.

검증

  • pod-templated 오브젝트의 spec.runtimeClassName 필드를 검사합니다. 값이 kata-remote 인 경우 워크로드는 OpenShift 샌드박스 컨테이너에서 실행됩니다.

4장. Azure에 OpenShift 샌드박스 컨테이너 배포

Microsoft Azure 클라우드 컴퓨팅 서비스에 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다.

다음 단계를 수행하여 OpenShift 샌드박스 컨테이너를 배포합니다.

  1. Azure에서 피어 Pod 서브넷에 대한 아웃 바운드 연결을 구성합니다.
  2. OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.
  3. 선택 사항: 사용자 정의 Pod VM 이미지를 선택하는 경우 피어 Pod에 대한 풀 시크릿을 구성해야 합니다.
  4. 선택 사항: 사용자 정의 Pod VM 이미지를 선택합니다.
  5. 피어 Pod 구성 맵을 생성합니다.
  6. 선택 사항: Azure 시크릿을 생성합니다.
  7. 선택 사항: Kata 에이전트 정책을 사용자 지정합니다.
  8. KataConfig 사용자 지정 리소스를 생성합니다.
  9. 선택 사항: 각 작업자 노드에서 실행되는 가상 머신 수를 수정합니다.
  10. OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

4.1. 사전 요구 사항

  • 최신 버전의 Red Hat OpenShift Container Platform이 설치되어 있습니다.
  • OpenShift Container Platform 클러스터에는 작업자 노드가 하나 이상 있습니다.
  • 작업자 노드 및 Pod VM(가상 머신)에 사용되는 서브넷의 통신에 포트 15150 및 9000을 활성화했습니다. 포트를 사용하면 작업자 노드에서 실행 중인 Kata shim과 pod VM에서 실행되는 Kata 에이전트 간에 통신할 수 있습니다.

4.2. 아웃바운드 연결 구성

피어 Pod가 공용 인터넷과 같은 외부 네트워크와 통신할 수 있도록 하려면 Pod VM(가상 머신) 서브넷에 대한 아웃바운드 연결을 구성해야 합니다. 이를 위해서는 NAT 게이트웨이를 설정해야 하며, 선택적으로 Azure에서 서브넷이 클러스터의 가상 네트워크(VNet)와 통합되는 방법을 정의합니다.

피어 Pod 및 서브넷
피어 Pod는 아웃바운드 액세스를 위한 명시적 구성이 필요한 전용 Azure 서브넷에서 작동합니다. 이 서브넷은 OpenShift Container Platform 노드에서 사용하는 기본 작업자 서브넷 또는 피어 Pod를 위해 특별히 생성된 별도의 사용자 정의 서브넷일 수 있습니다.
VNet 피어링
별도의 서브넷을 사용하는 경우 VNet 피어링은 피어 Pod VNet을 클러스터의 VNet에 연결하여 격리를 유지하면서 내부 통신을 보장합니다. 이를 위해서는 VNet 간에 겹치지 않는 CIDR 범위가 필요합니다.

아웃바운드 연결은 다음 두 가지 방법으로 구성할 수 있습니다.

  • 기본 작업자 서브넷: NAT 게이트웨이를 포함하도록 기존 작업자 서브넷을 수정합니다. 이는 더 간단하고 클러스터 리소스를 재사용하지만 격리를 줄일 수 있습니다.
  • 피어 Pod VNet: 피어 Pod의 전용 VNet 및 서브넷을 설정하고 NAT 게이트웨이를 연결하며 클러스터 VNet과 피어링합니다. 이로 인해 추가 복잡성으로 인해 격리와 유연성이 향상됩니다.

4.2.1. 아웃바운드 연결에 대한 기본 작업자 서브넷 구성

NAT 게이트웨이를 사용하여 기본 작업자 서브넷을 구성할 수 있습니다.

사전 요구 사항

  • Azure CLI(az)가 설치 및 인증됩니다.
  • Azure 리소스 그룹 및 VNet에 대한 관리자 액세스 권한이 있습니다.

프로세스

  1. 다음 명령을 실행하여 AZURE_RESOURCE_GROUP 환경 변수를 설정합니다.

    $ AZURE_RESOURCE_GROUP=$(oc get infrastructure/cluster \
        -o jsonpath='{.status.platformStatus.azure.resourceGroupName}')
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 AZURE_REGION 환경 변수를 설정합니다.

    $ AZURE_REGION=$(az group show --resource-group ${AZURE_RESOURCE_GROUP}\
        --query "{Location:location}" --output tsv) && \
        echo "AZURE_REGION: \"$AZURE_REGION\""
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 AZURE_VNET_NAME 환경 변수를 설정합니다.

    $ AZURE_VNET_NAME=$(az network vnet list \
        -g "${AZURE_RESOURCE_GROUP}" --query '[].name' -o tsv)
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 AZURE_SUBNET_ID 환경 변수를 설정합니다.

    $ AZURE_SUBNET_ID=$(az network vnet subnet list \
        --resource-group "${AZURE_RESOURCE_GROUP}" \
        --vnet-name "${AZURE_VNET_NAME}" --query "[].{Id:id} \
        | [? contains(Id, 'worker')]" --output tsv)
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 피어 Pod 서브넷의 NAT 게이트웨이 환경 변수를 설정합니다.

    $ export PEERPOD_NAT_GW=peerpod-nat-gw
    Copy to Clipboard Toggle word wrap
    $ export PEERPOD_NAT_GW_IP=peerpod-nat-gw-ip
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 NAT 게이트웨이의 공용 IP 주소를 만듭니다.

    $ az network public-ip create -g "${AZURE_RESOURCE_GROUP}" \
        -n "${PEERPOD_NAT_GW_IP}" -l "${AZURE_REGION}" --sku Standard
    Copy to Clipboard Toggle word wrap
  7. NAT 게이트웨이를 생성하고 다음 명령을 실행하여 공용 IP 주소와 연결합니다.

    $ az network nat gateway create -g "${AZURE_RESOURCE_GROUP}" \
        -l "${AZURE_REGION}" --public-ip-addresses "${PEERPOD_NAT_GW_IP}" \
        -n "${PEERPOD_NAT_GW}"
    Copy to Clipboard Toggle word wrap
  8. 다음 명령을 실행하여 NAT 게이트웨이를 사용하도록 VNet 서브넷을 업데이트합니다.

    $ az network vnet subnet update --nat-gateway "${PEERPOD_NAT_GW}" \
        --ids "${AZURE_SUBNET_ID}"
    Copy to Clipboard Toggle word wrap

검증

  • 다음 명령을 실행하여 NAT 게이트웨이가 VNet 서브넷에 연결되었는지 확인합니다.

    $ az network vnet subnet show --ids "${AZURE_SUBNET_ID}" \
        --query "natGateway.id" -o tsv
    Copy to Clipboard Toggle word wrap

    출력에는 NAT 게이트웨이 리소스 ID가 포함됩니다. NAT 게이트웨이가 연결되지 않은 경우 출력이 비어 있습니다.

    출력 예

    /subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/myResourceGroup/providers/Microsoft.Network/natGateways/myNatGateway
    Copy to Clipboard Toggle word wrap

4.2.2. 아웃 바운드 연결을 위한 피어 Pod VNet 생성

공용 인터넷 액세스를 활성화하려면 피어 pod에 대한 전용 가상 네트워크(VNet)를 생성하고 NAT(네트워크 주소 변환) 게이트웨이를 연결하며 서브넷을 생성하고, 덮어쓰지 않는 주소 공간을 사용하여 VNet 피어를 활성화할 수 있습니다.

사전 요구 사항

  • Azure CLI(az)가 설치됨
  • Azure에 로그인했습니다. Azure CLI를 사용하여 Azure 인증을 참조하십시오.
  • Azure 리소스 그룹과 클러스터를 호스팅하는 VNet에 대한 관리자 액세스 권한이 있습니다.
  • 클러스터 VNet CIDR(Classless inter-domain routing) 주소를 확인했습니다. 기본값은 10.0.0.0/14 입니다. 기본값을 덮어쓰는 경우 피어 Pod VNet에 대해 겹치지 않는 CIDR 주소를 선택했는지 확인했습니다. 예를 들면 192.168.0.0/16 입니다.

프로세스

  1. 피어 Pod 네트워크의 환경 변수를 설정합니다.

    1. 다음 명령을 실행하여 피어 Pod VNet 환경 변수를 설정합니다.

      $ export PEERPOD_VNET_NAME="${PEERPOD_VNET_NAME:-peerpod-vnet}"
      Copy to Clipboard Toggle word wrap
      $ export PEERPOD_VNET_CIDR="${PEERPOD_VNET_CIDR:-192.168.0.0/16}"
      Copy to Clipboard Toggle word wrap
    2. 다음 명령을 실행하여 피어 Pod 서브넷 환경 변수를 설정합니다.

      $ export PEERPOD_SUBNET_NAME="${PEERPOD_SUBNET_NAME:-peerpod-subnet}"
      Copy to Clipboard Toggle word wrap
      $ export PEERPOD_SUBNET_CIDR="${PEERPOD_SUBNET_CIDR:-192.168.0.0/16}"
      Copy to Clipboard Toggle word wrap
  2. Azure의 환경 변수를 설정합니다.

    $ AZURE_RESOURCE_GROUP=$(oc get infrastructure/cluster \
        -o jsonpath='{.status.platformStatus.azure.resourceGroupName}')
    Copy to Clipboard Toggle word wrap
    $ AZURE_REGION=$(az group show --resource-group ${AZURE_RESOURCE_GROUP}\
        --query "{Location:location}" --output tsv) && \
        echo "AZURE_REGION: \"$AZURE_REGION\""
    Copy to Clipboard Toggle word wrap
    $ AZURE_VNET_NAME=$(az network vnet list \
        -g "${AZURE_RESOURCE_GROUP}" --query '[].name' -o tsv)
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 피어 포드 NAT 게이트웨이 환경 변수를 설정합니다.

    $ export PEERPOD_NAT_GW="${PEERPOD_NAT_GW:-peerpod-nat-gw}"
    Copy to Clipboard Toggle word wrap
    $ export PEERPOD_NAT_GW_IP="${PEERPOD_NAT_PUBLIC_IP:-peerpod-nat-gw-ip}"
    Copy to Clipboard Toggle word wrap
  4. VNET을 구성합니다.

    1. 다음 명령을 실행하여 피어 Pod VNet을 생성합니다.

      $ az network vnet create --resource-group "${AZURE_RESOURCE_GROUP}" \
          --name "${PEERPOD_VNET_NAME}" \
          --address-prefixes "${PEERPOD_VNET_CIDR}"
      Copy to Clipboard Toggle word wrap
    2. 다음 명령을 실행하여 피어 Pod VNet의 공용 IP 주소를 생성합니다.

      $ az network public-ip create -g "${AZURE_RESOURCE_GROUP}" \
          -n "${PEERPOD_NAT_GW_IP}" -l "${AZURE_REGION}"
      Copy to Clipboard Toggle word wrap
    3. 다음 명령을 실행하여 피어 Pod VNet의 NAT 게이트웨이를 생성합니다.

      $ az network nat gateway create -g "${AZURE_RESOURCE_GROUP}" \
          -l "${AZURE_REGION}" \
          --public-ip-addresses "${PEERPOD_NAT_GW_IP}" \
          -n "${PEERPOD_NAT_GW}"
      Copy to Clipboard Toggle word wrap
    4. 피어 Pod VNet에 서브넷을 생성하고 다음 명령을 실행하여 NAT 게이트웨이를 연결합니다.

      $ az network vnet subnet create \
          --resource-group "${AZURE_RESOURCE_GROUP}" \
          --vnet-name "${PEERPOD_VNET_NAME}" \
          --name "${PEERPOD_SUBNET_NAME}" \
          --address-prefixes "${PEERPOD_SUBNET_CIDR}" \
          --nat-gateway "${PEERPOD_NAT_GW}"
      Copy to Clipboard Toggle word wrap
  5. 가상 네트워크 피어링 연결을 구성합니다.

    1. 다음 명령을 실행하여 피어링 연결을 생성합니다.

      $ az network vnet peering create -g "${AZURE_RESOURCE_GROUP}" \
          -n peerpod-azure-vnet-to-peerpod-vnet \
          --vnet-name "${AZURE_VNET_NAME}" \
          --remote-vnet "${PEERPOD_VNET_NAME}" --allow-vnet-access \
          --allow-forwarded-traffic
      Copy to Clipboard Toggle word wrap
    2. 다음 명령을 실행하여 피어링 연결을 동기화합니다.

      $ az network vnet peering sync -g "${AZURE_RESOURCE_GROUP}" \
          -n peerpod-azure-vnet-to-peerpod-vnet \
          --vnet-name "${AZURE_VNET_NAME}"
      Copy to Clipboard Toggle word wrap
    3. 다음 명령을 실행하여 피어링 연결을 완료합니다.

      $ az network vnet peering create -g "${AZURE_RESOURCE_GROUP}" \
          -n peerpod-peerpod-vnet-to-azure-vnet \
          --vnet-name "${PEERPOD_VNET_NAME}" \
          --remote-vnet "${AZURE_VNET_NAME}" --allow-vnet-access \
          --allow-forwarded-traffic
      Copy to Clipboard Toggle word wrap

검증

  1. 다음 명령을 실행하여 클러스터 VNet에서 피어링 연결 상태를 확인합니다.

    $ az network vnet peering show -g "${AZURE_RESOURCE_GROUP}" \
        -n peerpod-azure-vnet-to-peerpod-vnet \
        --vnet-name "${AZURE_VNET_NAME}" \
        --query "peeringState" -o tsv
    Copy to Clipboard Toggle word wrap

    연결된 값이 반환되어야 합니다.

  2. 다음 명령을 실행하여 NAT 게이트웨이가 피어 포드 서브넷에 연결되었는지 확인합니다.

    $ az network vnet subnet show --resource-group "${AZURE_RESOURCE_GROUP}" \
        --vnet-name "${PEERPOD_VNET_NAME}" --name "${PEERPOD_SUBNET_NAME}" \
        --query "natGateway.id" -o tsv
    Copy to Clipboard Toggle word wrap

4.3. OpenShift 샌드박스 컨테이너 Operator 설치

CLI(명령줄 인터페이스)를 사용하여 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.

사전 요구 사항

  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. osc-namespace.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: Namespace
    metadata:
      name: openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 네임스페이스를 생성합니다.

    $ oc create -f osc-namespace.yaml
    Copy to Clipboard Toggle word wrap
  3. osc-operatorgroup.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: sandboxed-containers-operator-group
      namespace: openshift-sandboxed-containers-operator
    spec:
      targetNamespaces:
      - openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 operator 그룹을 생성합니다.

    $ oc create -f osc-operatorgroup.yaml
    Copy to Clipboard Toggle word wrap
  5. osc-subscription.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: sandboxed-containers-operator
      namespace: openshift-sandboxed-containers-operator
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: sandboxed-containers-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
      startingCSV: sandboxed-containers-operator.v1.10.3
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 서브스크립션을 생성합니다.

    $ oc create -f osc-subscription.yaml
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 Operator가 올바르게 설치되었는지 확인합니다.

    $ oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    이 명령을 완료하는 데 몇 분이 걸릴 수 있습니다.

  8. 다음 명령을 실행하여 프로세스를 확인합니다.

    $ watch oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                             DISPLAY                                  VERSION             REPLACES                   PHASE
    openshift-sandboxed-containers   openshift-sandboxed-containers-operator  1.10.3    1.9.0        Succeeded
    Copy to Clipboard Toggle word wrap

4.4. 피어 Pod 구성 맵 생성

피어 Pod 구성 맵을 생성해야 합니다.

프로세스

  1. Azure 인스턴스에서 다음 값을 가져옵니다.

    1. Azure 리소스 그룹을 검색하고 기록합니다.

      $ AZURE_RESOURCE_GROUP=$(oc get infrastructure/cluster \
        -o jsonpath='{.status.platformStatus.azure.resourceGroupName}') \
        && echo "AZURE_RESOURCE_GROUP: \"$AZURE_RESOURCE_GROUP\""
      Copy to Clipboard Toggle word wrap
    2. Azure VNet 이름을 검색하고 기록합니다.

      $ AZURE_VNET_NAME=$(az network vnet list \
        --resource-group ${AZURE_RESOURCE_GROUP} \
        --query "[].{Name:name}" --output tsv)
      Copy to Clipboard Toggle word wrap

      이 값은 Azure 서브넷 ID를 검색하는 데 사용됩니다.

    3. Azure 서브넷 ID를 검색하고 기록합니다.

      $ AZURE_SUBNET_ID=$(az network vnet subnet list \
        --resource-group ${AZURE_RESOURCE_GROUP} --vnet-name $AZURE_VNET_NAME \
        --query "[].{Id:id} | [? contains(Id, 'worker')]" --output tsv) \
         && echo "AZURE_SUBNET_ID: \"$AZURE_SUBNET_ID\""
      Copy to Clipboard Toggle word wrap
    4. Azure NSS(Network Security Group) ID를 검색하고 기록합니다.

      $ AZURE_NSG_ID=$(az network nsg list --resource-group ${AZURE_RESOURCE_GROUP} \
        --query "[].{Id:id}" --output tsv) && echo "AZURE_NSG_ID: \"$AZURE_NSG_ID\""
      Copy to Clipboard Toggle word wrap
    5. Azure 리전을 검색하고 기록합니다.

      $ AZURE_REGION=$(az group show --resource-group ${AZURE_RESOURCE_GROUP} \
        --query "{Location:location}" --output tsv) \
        && echo "AZURE_REGION: \"$AZURE_REGION\""
      Copy to Clipboard Toggle word wrap
  2. 다음 예에 따라 peer-pods-cm.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: peer-pods-cm
      namespace: openshift-sandboxed-containers-operator
    data:
      CLOUD_PROVIDER: "azure"
      VXLAN_PORT: "9000"
      PROXY_TIMEOUT: "5m"
      AZURE_INSTANCE_SIZE: "Standard_B2als_v2"
      AZURE_INSTANCE_SIZES: "Standard_B2als_v2,Standard_D2as_v5,Standard_D4as_v5,Standard_D2ads_v5"
      AZURE_SUBNET_ID: "<azure_subnet_id>"
      AZURE_NSG_ID: "<azure_nsg_id>"
      AZURE_IMAGE_ID: ""
      AZURE_REGION: "<azure_region>"
      AZURE_RESOURCE_GROUP: "<azure_resource_group>"
      TAGS: "key1=value1,key2=value2"
      PEERPODS_LIMIT_PER_NODE: "10"
      ROOT_VOLUME_SIZE: "6"
      DISABLECVM: "true"
    Copy to Clipboard Toggle word wrap
    AZURE_INSTANCE_SIZE
    인스턴스 크기가 워크로드 오브젝트에 정의되지 않은 경우 사용되는 기본 인스턴스 크기를 정의합니다.
    AZURE_IMAGE_ID
    이 값을 비워 둡니다. Operator를 설치하면 Red Hat Ecosystem Catalog에서 기본 Pod VM 이미지를 다운로드하여 OpenShift Container Platform 클러스터와 동일한 Azure 리소스 그룹 내의 Azure Image Cryostat에 업로드하도록 작업이 예약됩니다.
    AZURE_INSTANCE_SIZES
    Pod를 생성하기 위해 공백 없이 허용된 인스턴스 크기를 지정합니다. 더 적은 메모리와 더 적은 CPU 또는 대규모 워크로드의 인스턴스 크기가 필요한 워크로드에 대해 더 작은 인스턴스 크기를 정의할 수 있습니다.
    태그
    사용자 정의 태그를 Pod VM 인스턴스의 키:값 쌍으로 구성하여 피어 Pod 비용을 추적하거나 다른 클러스터에서 피어 Pod를 식별할 수 있습니다.
    PEERPODS_LIMIT_PER_NODE
    이 값을 늘리면 노드에서 더 많은 피어 Pod를 실행할 수 있습니다. 기본값은 10 입니다.
    ROOT_VOLUME_SIZE
    더 큰 컨테이너 이미지를 사용하여 Pod의 이 값을 늘릴 수 있습니다. Pod VM의 루트 볼륨 크기(GB)를 지정합니다. 기본 및 최소 크기는 6GB입니다.
  3. 다음 명령을 실행하여 구성 맵을 생성합니다.

    $ oc create -f peer-pods-cm.yaml
    Copy to Clipboard Toggle word wrap

4.5. 피어 Pod의 풀 시크릿 구성

프라이빗 레지스트리에서 Pod VM 이미지를 가져오려면 피어 Pod에 대한 풀 시크릿을 구성해야 합니다.

그런 다음 풀 시크릿을 기본 서비스 계정에 연결하거나 피어 Pod 매니페스트에 가져오기 보안을 지정할 수 있습니다.

프로세스

  1. NS 변수를 피어 Pod를 배포하는 네임스페이스로 설정합니다.

    $ NS=<namespace>
    Copy to Clipboard Toggle word wrap
  2. 풀 시크릿을 피어 Pod 네임스페이스에 복사합니다.

    $ oc get secret pull-secret -n openshift-config -o yaml \
      | sed "s/namespace: openshift-config/namespace: ${NS}/" \
      | oc apply -n "${NS}" -f -
    Copy to Clipboard Toggle word wrap

    이 예와 같이 클러스터 풀 시크릿 또는 사용자 정의 풀 시크릿을 사용할 수 있습니다.

  3. 선택 사항: 풀 시크릿을 default 서비스 계정에 연결합니다.

    $ oc secrets link default pull-secret --for=pull -n ${NS}
    Copy to Clipboard Toggle word wrap
  4. 또는 피어 Pod 매니페스트에 풀 시크릿을 추가합니다.

    apiVersion: v1
    kind: <Pod>
    spec:
      containers:
      - name: <container_name>
        image: <image_name>
      imagePullSecrets:
      - name: pull-secret
    # ...
    Copy to Clipboard Toggle word wrap

4.6. 사용자 정의 피어 Pod VM 이미지 선택

Pod 매니페스트에 주석을 추가하여 워크로드 요구 사항에 맞게 사용자 정의 피어 Pod 가상 머신(VM) 이미지를 선택할 수 있습니다. 사용자 정의 이미지는 피어 Pod 구성 맵에 지정된 기본 이미지를 덮어씁니다.

사전 요구 사항

  • 클라우드 공급자 또는 하이퍼바이저와 호환되는 사용자 정의 Pod VM 이미지의 ID가 있습니다.

프로세스

  1. 다음 예에 따라 my-pod-manifest.yaml 파일을 생성합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod-manifest
      annotations:
        io.katacontainers.config.hypervisor.image: "<custom_image_id>"
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <example_container>
        image: registry.access.redhat.com/ubi9/ubi:9.3
        command: ["sleep", "36000"]
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod-manifest.yaml
    Copy to Clipboard Toggle word wrap

4.7. Azure 시크릿 생성

Azure VM(가상 머신) 생성 API에 필요한 SSH 키 시크릿을 생성해야 합니다. Azure에는 SSH 공개 키만 필요합니다. OpenShift 샌드박스 컨테이너는 VM에서 SSH를 비활성화하므로 키가 VM에 적용되지 않습니다.

프로세스

  1. 다음 명령을 실행하여 SSH 키 쌍을 생성합니다.

    $ ssh-keygen -f ./id_rsa -N ""
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 Secret 오브젝트를 생성합니다.

    $ oc create secret generic ssh-key-secret \
      -n openshift-sandboxed-containers-operator \
      --from-file=id_rsa.pub=./id_rsa.pub \
      --from-file=id_rsa=./id_rsa
    Copy to Clipboard Toggle word wrap
  3. 생성한 SSH 키를 삭제합니다.

    $ shred --remove id_rsa.pub id_rsa
    Copy to Clipboard Toggle word wrap

4.8. Kata 에이전트 정책 사용자 정의

Kata 에이전트 정책을 사용자 지정하여 피어 pod에 대해 허용되는 기본 정책을 재정의할 수 있습니다. Kata 에이전트 정책은 피어 pod에 대한 API 요청을 제어하는 보안 메커니즘입니다.

중요

프로덕션 환경에서 기본 정책을 재정의해야 합니다.

최소 요구 사항은 클러스터 관리자가 피어 포드에서 oc exec 명령을 실행하여 중요한 데이터에 액세스하지 못하도록 ExecProcessRequest 를 비활성화해야 합니다.

예를 들어 컨트롤 플레인을 신뢰할 수 있는 환경에서 보안이 중요하지 않은 개발 및 테스트 환경에서 기본 정책을 사용할 수 있습니다.

사용자 지정 정책은 기본 정책을 완전히 대체합니다. 특정 API를 수정하려면 전체 정책을 포함하고 관련 규칙을 조정합니다.

프로세스

  1. 기본 정책을 수정하여 사용자 지정 policy.rego 파일을 생성합니다.

    package agent_policy
    
    default AddARPNeighborsRequest := true
    default AddSwapRequest := true
    default CloseStdinRequest := true
    default CopyFileRequest := true
    default CreateContainerRequest := true
    default CreateSandboxRequest := true
    default DestroySandboxRequest := true
    default ExecProcessRequest := true
    default GetMetricsRequest := true
    default GetOOMEventRequest := true
    default GuestDetailsRequest := true
    default ListInterfacesRequest := true
    default ListRoutesRequest := true
    default MemHotplugByProbeRequest := true
    default OnlineCPUMemRequest := true
    default PauseContainerRequest := true
    default PullImageRequest := true
    default ReadStreamRequest := false
    default RemoveContainerRequest := true
    default RemoveStaleVirtiofsShareMountsRequest := true
    default ReseedRandomDevRequest := true
    default ResumeContainerRequest := true
    default SetGuestDateTimeRequest := true
    default SetPolicyRequest := true
    default SignalProcessRequest := true
    default StartContainerRequest := true
    default StartTracingRequest := true
    default StatsContainerRequest := true
    default StopTracingRequest := true
    default TtyWinResizeRequest := true
    default UpdateContainerRequest := true
    default UpdateEphemeralMountsRequest := true
    default UpdateInterfaceRequest := true
    default UpdateRoutesRequest := true
    default WaitProcessRequest := true
    default WriteStreamRequest := true
    Copy to Clipboard Toggle word wrap

    기본 정책은 모든 API 호출을 허용합니다. 필요에 따라 정책을 추가로 사용자 지정하도록 true 또는 false 값을 조정합니다.

  2. 다음 명령을 실행하여 policy.rego 파일을 Base64 인코딩 문자열로 변환합니다.

    $ base64 -w0 policy.rego
    Copy to Clipboard Toggle word wrap

    출력을 기록합니다.

  3. Base64로 인코딩된 정책 문자열을 my-pod.yaml 매니페스트에 추가합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod
      annotations:
        io.katacontainers.config.agent.policy: <base64_encoded_policy>
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <container_name>
        image: registry.access.redhat.com/ubi9/ubi:latest
        command:
        - sleep
        - "36000"
        securityContext:
          privileged: false
          seccompProfile:
            type: RuntimeDefault
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod.yaml
    Copy to Clipboard Toggle word wrap

4.9. KataConfig 사용자 지정 리소스 생성

KataConfig CR(사용자 정의 리소스)을 생성하여 작업자 노드에 kata-remote 를 런타임 클래스로 설치해야 합니다.

OpenShift 샌드박스 컨테이너는 kata-remote 를 기본 런타임이 아닌 클러스터의 선택적 런타임으로 설치합니다.

KataConfig CR을 생성하면 작업자 노드가 자동으로 재부팅됩니다. 재부팅에는 10분에서 60분 이상 걸릴 수 있습니다. 다음 요인은 재부팅 시간을 늘릴 수 있습니다.

  • 더 많은 작업자 노드가 있는 대규모 OpenShift Container Platform 배포
  • BIOS 및 Cryostat 유틸리티 활성화.
  • SSD가 아닌 하드 디스크 드라이브에 배포합니다.
  • 가상 노드가 아닌 베어 메탈과 같은 물리적 노드에 배포됩니다.
  • 느린 CPU 및 네트워크입니다.

프로세스

  1. 다음 예에 따라 example-kataconfig.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      enablePeerPods: true
      logLevel: info
    #  kataConfigPoolSelector:
    #    matchLabels:
    #      <label_key>: '<label_value>' 
    1
    Copy to Clipboard Toggle word wrap
    1
    선택 사항: 노드 레이블을 적용하여 특정 노드에 kata-remote 를 설치한 경우 키와 값(예: osc: 'true' )을 지정합니다.
  2. 다음 명령을 실행하여 KataConfig CR을 생성합니다.

    $ oc create -f example-kataconfig.yaml
    Copy to Clipboard Toggle word wrap

    새로운 KataConfig CR이 생성되고 작업자 노드에 kata-remote 가 런타임 클래스로 설치됩니다.

    설치를 확인하기 전에 kata-remote 설치가 완료되고 작업자 노드가 재부팅될 때까지 기다립니다.

  3. 다음 명령을 실행하여 설치 진행 상황을 모니터링합니다.

    $ watch "oc describe kataconfig | sed -n /^Status:/,/^Events/p"
    Copy to Clipboard Toggle word wrap

    kataNodes 아래의 모든 작업자의 상태가 설치되고 이유를 지정하지 않고 InProgress 조건이 False 이면 클러스터에 kata-remote 가 설치됩니다.

  4. 다음 명령을 실행하여 데몬 세트를 확인합니다.

    $ oc get -n openshift-sandboxed-containers-operator ds/osc-caa-ds
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 런타임 클래스를 확인합니다.

    $ oc get runtimeclass
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME             HANDLER          AGE
    kata-remote      kata-remote      152m
    Copy to Clipboard Toggle word wrap

4.10. 노드당 피어 Pod VM 수 수정

peerpodConfig CR(사용자 정의 리소스)을 편집하여 노드당 피어 Pod 가상 머신(VM) 제한을 수정할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 현재 제한을 확인합니다.

    $ oc get peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      -o jsonpath='{.spec.limit}{"\n"}'
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 limit 키의 새 값을 지정합니다.

    $ oc patch peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      --type merge --patch '{"spec":{"limit":"<value>"}}'
    Copy to Clipboard Toggle word wrap

4.11. Pod VM 이미지 확인

클러스터에 kata-remote 가 설치되면 OpenShift 샌드박스 컨테이너 Operator에서 피어 Pod를 생성하는 데 사용되는 Pod VM 이미지를 생성합니다. 이 프로세스는 클라우드 인스턴스에서 이미지가 생성되므로 시간이 오래 걸릴 수 있습니다. 클라우드 공급자에 대해 생성한 구성 맵을 확인하여 Pod VM 이미지가 성공적으로 생성되었는지 확인할 수 있습니다.

프로세스

  1. 피어 Pod에 대해 생성한 구성 맵을 가져옵니다.

    $ oc get configmap peer-pods-cm -n openshift-sandboxed-containers-operator -o yaml
    Copy to Clipboard Toggle word wrap
  2. YAML 파일의 상태 스탠자를 확인합니다.

    AZURE_IMAGE_ID 매개변수가 채워지면 Pod VM 이미지가 성공적으로 생성되었습니다.

문제 해결

  1. 다음 명령을 실행하여 이벤트 로그를 검색합니다.

    $ oc get events -n openshift-sandboxed-containers-operator --field-selector involvedObject.name=osc-podvm-image-creation
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 작업 로그를 검색합니다.

    $ oc logs -n openshift-sandboxed-containers-operator jobs/osc-podvm-image-creation
    Copy to Clipboard Toggle word wrap

문제를 해결할 수 없는 경우 Red Hat 지원 케이스를 제출하고 두 로그의 출력을 첨부합니다.

4.12. OpenShift 샌드박스 컨테이너의 워크로드 구성

kata-remote 를 다음 pod 템플릿 오브젝트의 런타임 클래스로 설정하여 OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

  • Pod 오브젝트
  • ReplicaSet 오브젝트
  • ReplicationController 오브젝트
  • StatefulSet 오브젝트
  • Deployment 오브젝트
  • DeploymentConfig 오브젝트
중요

Operator 네임스페이스에 워크로드를 배포하지 마십시오. 이러한 리소스에 대한 전용 네임스페이스를 생성합니다.

YAML 파일에 주석을 추가하여 구성 맵에 정의된 기본 인스턴스 크기를 사용하여 워크로드를 배포해야 하는지 여부를 정의할 수 있습니다.

인스턴스 크기를 수동으로 정의하지 않으려면 사용 가능한 메모리에 따라 자동 인스턴스 크기를 사용하도록 주석을 추가할 수 있습니다.

사전 요구 사항

  • KataConfig CR(사용자 정의 리소스)을 생성했습니다.

프로세스

  1. 다음 예와 같이 spec.runtimeClassName: kata-remote 를 각 pod 템플릿 워크로드 오브젝트의 매니페스트에 추가합니다.

    apiVersion: v1
    kind: <object>
    # ...
    spec:
      runtimeClassName: kata-remote
    # ...
    Copy to Clipboard Toggle word wrap
  2. 선택 사항: 수동으로 정의한 인스턴스 크기를 사용하려면 구성 맵에서 정의한 인스턴스 크기와 함께 다음 주석을 추가합니다.

    apiVersion: v1
    kind: <object>
    metadata:
      annotations:
        io.katacontainers.config.hypervisor.machine_type: <machine_type>
    # ...
    Copy to Clipboard Toggle word wrap
  3. 선택 사항: 자동 인스턴스 크기를 사용하려면 다음 주석을 추가합니다.

    apiVersion: v1
    kind: <Pod>
    metadata:
      annotations:
        io.katacontainers.config.hypervisor.default_vcpus: <vcpus>
        io.katacontainers.config.hypervisor.default_memory: <memory>
    # ...
    Copy to Clipboard Toggle word wrap

    워크로드는 사용 가능한 메모리 크기에 따라 자동 인스턴스 크기에서 실행됩니다.

  4. 다음 명령을 실행하여 워크로드 오브젝트에 변경 사항을 적용합니다.

    $ oc apply -f <object.yaml>
    Copy to Clipboard Toggle word wrap

    OpenShift Container Platform은 워크로드 오브젝트를 생성하고 스케줄링을 시작합니다.

검증

  • pod-templated 오브젝트의 spec.runtimeClassName 필드를 검사합니다. 값이 kata-remote 인 경우 워크로드는 OpenShift 샌드박스 컨테이너에서 실행됩니다.

5장. Google Cloud에 OpenShift 샌드박스 컨테이너 배포

Google Cloud에 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다.

중요

Google Cloud의 Red Hat OpenShift 샌드박스 컨테이너는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

다음 단계를 수행하여 OpenShift 샌드박스 컨테이너를 배포합니다.

  1. OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.
  2. 포트를 활성화하여 피어 Pod와 내부 통신을 허용합니다.
  3. 피어 Pod 구성 맵을 생성합니다.
  4. Pod VM 이미지 구성 맵을 생성합니다.
  5. 선택 사항: Kata 에이전트 정책을 사용자 지정합니다.
  6. KataConfig 사용자 지정 리소스를 생성합니다.
  7. 선택 사항: 각 작업자 노드에서 실행되는 가상 머신 수를 수정합니다.
  8. OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

5.1. 사전 요구 사항

  • 최신 버전의 Red Hat OpenShift Container Platform이 설치되어 있습니다.
  • OpenShift Container Platform 클러스터에는 작업자 노드가 하나 이상 있습니다.
  • 작업자 노드 및 Pod VM(가상 머신)에 사용되는 서브넷의 통신에 포트 15150 및 9000을 활성화했습니다. 포트를 사용하면 작업자 노드에서 실행 중인 Kata shim과 pod VM에서 실행되는 Kata 에이전트 간에 통신할 수 있습니다.

5.2. OpenShift 샌드박스 컨테이너 Operator 설치

CLI(명령줄 인터페이스)를 사용하여 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.

사전 요구 사항

  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. osc-namespace.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: Namespace
    metadata:
      name: openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 네임스페이스를 생성합니다.

    $ oc create -f osc-namespace.yaml
    Copy to Clipboard Toggle word wrap
  3. osc-operatorgroup.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: sandboxed-containers-operator-group
      namespace: openshift-sandboxed-containers-operator
    spec:
      targetNamespaces:
      - openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 operator 그룹을 생성합니다.

    $ oc create -f osc-operatorgroup.yaml
    Copy to Clipboard Toggle word wrap
  5. osc-subscription.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: sandboxed-containers-operator
      namespace: openshift-sandboxed-containers-operator
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: sandboxed-containers-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
      startingCSV: sandboxed-containers-operator.v1.10.3
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 서브스크립션을 생성합니다.

    $ oc create -f osc-subscription.yaml
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 Operator가 올바르게 설치되었는지 확인합니다.

    $ oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    이 명령을 완료하는 데 몇 분이 걸릴 수 있습니다.

  8. 다음 명령을 실행하여 프로세스를 확인합니다.

    $ watch oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                             DISPLAY                                  VERSION             REPLACES                   PHASE
    openshift-sandboxed-containers   openshift-sandboxed-containers-operator  1.10.3    1.9.0        Succeeded
    Copy to Clipboard Toggle word wrap

5.3. Google Cloud용 포트 15150 활성화

Compute Engine에서 실행 중인 피어 Pod와의 내부 통신을 허용하려면 포트 15150을 활성화해야 합니다.

사전 요구 사항

  • Google Cloud CLI(명령줄 인터페이스) 툴을 설치했습니다.
  • roles/container.admin 역할의 사용자로 OpenShift Container Platform 클러스터에 액세스할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 프로젝트 ID 변수를 설정합니다.

    $ export GCP_PROJECT_ID="<project_id>"
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 Google Cloud에 로그인합니다.

    $ gcloud auth login
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 Google Cloud 프로젝트 ID를 설정합니다.

    $ gcloud config set project ${GCP_PROJECT_ID}
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 포트 15150을 엽니다.

    $ gcloud compute firewall-rules create allow-port-15150-restricted \
       --project=${GCP_PROJECT_ID} \
       --network=default \
       --allow=tcp:15150 \
       --source-ranges=<external_ip_cidr-1>[,<external_ip_cidr-2>,...] 
    1
    Copy to Clipboard Toggle word wrap
    1
    하나 이상의 IP 주소 또는 범위를 쉼표로 구분하여 CIDR 형식으로 지정합니다. 예: 203.0.113.5/32,198.51.100.0/24.

검증

  • 다음 명령을 실행하여 포트 15150이 열려 있는지 확인합니다.

    $ gcloud compute firewall-rule list
    Copy to Clipboard Toggle word wrap

5.4. 피어 Pod 구성 맵 생성

피어 Pod 구성 맵을 생성해야 합니다.

프로세스

  1. Compute Engine 인스턴스에 로그인하여 다음 환경 변수를 설정합니다.

    1. 다음 명령을 실행하여 프로젝트 ID를 가져옵니다.

      $ GCP_PROJECT_ID=$(gcloud config get-value project)
      Copy to Clipboard Toggle word wrap
    2. 다음 명령을 실행하여 영역을 가져옵니다.

      $ GCP_ZONE=$(gcloud config get-value compute/zone)
      Copy to Clipboard Toggle word wrap
    3. 다음 명령을 실행하여 네트워크 이름 목록을 검색합니다.

      $ gcloud compute networks list --format="value(name)"
      Copy to Clipboard Toggle word wrap
    4. 다음 명령을 실행하여 네트워크를 지정합니다.

      $ GCP_NETWORK=<network_name>
      Copy to Clipboard Toggle word wrap

      자동 모드 네트워크만 지원됩니다. 현재 사용자 지정 네트워크는 지원되지 않습니다.

  2. 다음 예에 따라 peer-pods-cm.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: peer-pods-cm
      namespace: openshift-sandboxed-containers-operator
    data:
      CLOUD_PROVIDER: "gcp"
      VXLAN_PORT: "9000"
      PROXY_TIMEOUT: "5m"
      GCP_MACHINE_TYPE: "e2-medium"
      GCP_PROJECT_ID: "<project_id>"
      GCP_ZONE: "<gcp_zone>"
      GCP_NETWORK: "<gcp_network>"
      TAGS: "key1=value1,key2=value2"
      PEERPODS_LIMIT_PER_NODE: "10"
      ROOT_VOLUME_SIZE: "6"
      DISABLECVM: "true"
    Copy to Clipboard Toggle word wrap
    GCP_MACHINE_TYPE
    머신 유형이 워크로드 오브젝트에 정의되지 않은 경우 사용되는 기본 머신 유형을 정의합니다.
    태그
    사용자 정의 태그를 Pod VM 인스턴스의 키:값 쌍으로 구성하여 피어 Pod 비용을 추적하거나 다른 클러스터에서 피어 Pod를 식별할 수 있습니다.
    PEERPODS_LIMIT_PER_NODE
    이 값을 늘리면 노드에서 더 많은 피어 Pod를 실행할 수 있습니다. 기본값은 10 입니다.
    ROOT_VOLUME_SIZE
    더 큰 컨테이너 이미지를 사용하여 Pod의 이 값을 늘릴 수 있습니다. Pod VM의 루트 볼륨 크기(GB)를 지정합니다. 기본 및 최소 크기는 6GB입니다.
  3. 다음 명령을 실행하여 구성 맵을 생성합니다.

    $ oc create -f peer-pods-cm.yaml
    Copy to Clipboard Toggle word wrap

5.5. 피어 Pod VM 이미지 생성

QCOW2 VM(가상 머신) 이미지를 생성해야 합니다.

사전 요구 사항

  • podman 을 설치했습니다.
  • 컨테이너 레지스트리에 액세스할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 OpenShift 샌드박스 컨테이너 리포지토리를 복제합니다.

    $ git clone https://github.com/openshift/sandboxed-containers-operator.git
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 샌드박스-containers-operator/config/peerpods/podvm/bootc 로 이동합니다.

    $ cd sandboxed-containers-operator/config/peerpods/podvm/bootc
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 registry.redhat.io 에 로그인합니다.

    $ podman login registry.redhat.io
    Copy to Clipboard Toggle word wrap

    podman 빌드 프로세스에서 레지스트리에서 호스팅되는 Containerfile.rhel 컨테이너 이미지에 액세스해야 하므로 registry.redhat.io 에 로그인해야 합니다.

  4. 다음 명령을 실행하여 컨테이너 레지스트리의 이미지 경로를 설정합니다.

    $ IMG="<container_registry_url>/<username>/podvm-bootc:latest"
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 Pod VM bootc 이미지를 빌드합니다.

    $ podman build -t ${IMG} -f Containerfile.rhel .
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 컨테이너 레지스트리에 로그인합니다.

    $ podman login <container_registry_url>
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 컨테이너 레지스트리로 이미지를 푸시합니다.

    $ podman push ${IMG}
    Copy to Clipboard Toggle word wrap

    테스트 및 개발을 위해 이미지를 공용으로 만들 수 있습니다.

  8. 다음 명령을 실행하여 podvm-bootc 이미지를 확인합니다.

    $ podman images
    Copy to Clipboard Toggle word wrap

    출력 예

    REPOSITORY                               TAG     IMAGE ID      CREATED         SIZE
    example.com/example_user/podvm-bootc     latest  88ddab975a07  2 seconds ago   1.82 GB
    Copy to Clipboard Toggle word wrap

5.6. 피어 Pod VM 이미지 구성 맵 생성

Pod VM(가상 머신) 이미지의 구성 맵을 생성합니다.

프로세스

  1. 다음 콘텐츠를 사용하여 podvm-image-cm.yaml 매니페스트를 생성합니다.

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: podvm-image-cm
      namespace: openshift-sandboxed-containers-operator
    data:
      IMAGE_TYPE: pre-built
      PODVM_IMAGE_URI: <container_registry_url>/<username>/podvm-bootc:latest
      IMAGE_BASE_NAME: "podvm-image"
      IMAGE_VERSION: "0-0-0"
    
      INSTALL_PACKAGES: "no"
      DISABLE_CLOUD_CONFIG: "true"
      UPDATE_PEERPODS_CM: "yes"
      BOOT_FIPS: "no"
    
      BOOTC_BUILD_CONFIG: |
        [[customizations.user]]
        name = "peerpod"
        password = "peerpod"
        groups = ["wheel", "root"]
    
        [[customizations.filesystem]]
        mountpoint = "/"
        minsize = "5 GiB"
    
        [[customizations.filesystem]]
        mountpoint = "/var/kata-containers"
        minsize = "15 GiB"
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 구성 맵을 생성합니다.

    $ oc create -f podvm-image-cm.yaml
    Copy to Clipboard Toggle word wrap

5.7. Kata 에이전트 정책 사용자 정의

Kata 에이전트 정책을 사용자 지정하여 피어 pod에 대해 허용되는 기본 정책을 재정의할 수 있습니다. Kata 에이전트 정책은 피어 pod에 대한 API 요청을 제어하는 보안 메커니즘입니다.

중요

프로덕션 환경에서 기본 정책을 재정의해야 합니다.

최소 요구 사항은 클러스터 관리자가 피어 포드에서 oc exec 명령을 실행하여 중요한 데이터에 액세스하지 못하도록 ExecProcessRequest 를 비활성화해야 합니다.

예를 들어 컨트롤 플레인을 신뢰할 수 있는 환경에서 보안이 중요하지 않은 개발 및 테스트 환경에서 기본 정책을 사용할 수 있습니다.

사용자 지정 정책은 기본 정책을 완전히 대체합니다. 특정 API를 수정하려면 전체 정책을 포함하고 관련 규칙을 조정합니다.

프로세스

  1. 기본 정책을 수정하여 사용자 지정 policy.rego 파일을 생성합니다.

    package agent_policy
    
    default AddARPNeighborsRequest := true
    default AddSwapRequest := true
    default CloseStdinRequest := true
    default CopyFileRequest := true
    default CreateContainerRequest := true
    default CreateSandboxRequest := true
    default DestroySandboxRequest := true
    default ExecProcessRequest := true
    default GetMetricsRequest := true
    default GetOOMEventRequest := true
    default GuestDetailsRequest := true
    default ListInterfacesRequest := true
    default ListRoutesRequest := true
    default MemHotplugByProbeRequest := true
    default OnlineCPUMemRequest := true
    default PauseContainerRequest := true
    default PullImageRequest := true
    default ReadStreamRequest := false
    default RemoveContainerRequest := true
    default RemoveStaleVirtiofsShareMountsRequest := true
    default ReseedRandomDevRequest := true
    default ResumeContainerRequest := true
    default SetGuestDateTimeRequest := true
    default SetPolicyRequest := true
    default SignalProcessRequest := true
    default StartContainerRequest := true
    default StartTracingRequest := true
    default StatsContainerRequest := true
    default StopTracingRequest := true
    default TtyWinResizeRequest := true
    default UpdateContainerRequest := true
    default UpdateEphemeralMountsRequest := true
    default UpdateInterfaceRequest := true
    default UpdateRoutesRequest := true
    default WaitProcessRequest := true
    default WriteStreamRequest := true
    Copy to Clipboard Toggle word wrap

    기본 정책은 모든 API 호출을 허용합니다. 필요에 따라 정책을 추가로 사용자 지정하도록 true 또는 false 값을 조정합니다.

  2. 다음 명령을 실행하여 policy.rego 파일을 Base64 인코딩 문자열로 변환합니다.

    $ base64 -w0 policy.rego
    Copy to Clipboard Toggle word wrap

    출력을 기록합니다.

  3. Base64로 인코딩된 정책 문자열을 my-pod.yaml 매니페스트에 추가합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod
      annotations:
        io.katacontainers.config.agent.policy: <base64_encoded_policy>
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <container_name>
        image: registry.access.redhat.com/ubi9/ubi:latest
        command:
        - sleep
        - "36000"
        securityContext:
          privileged: false
          seccompProfile:
            type: RuntimeDefault
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod.yaml
    Copy to Clipboard Toggle word wrap

5.8. KataConfig 사용자 지정 리소스 생성

KataConfig CR(사용자 정의 리소스)을 생성하여 작업자 노드에 kata-remote 를 런타임 클래스로 설치해야 합니다.

OpenShift 샌드박스 컨테이너는 kata-remote 를 기본 런타임이 아닌 클러스터의 선택적 런타임으로 설치합니다.

KataConfig CR을 생성하면 작업자 노드가 자동으로 재부팅됩니다. 재부팅에는 10분에서 60분 이상 걸릴 수 있습니다. 다음 요인은 재부팅 시간을 늘릴 수 있습니다.

  • 더 많은 작업자 노드가 있는 대규모 OpenShift Container Platform 배포
  • BIOS 및 Cryostat 유틸리티 활성화.
  • SSD가 아닌 하드 디스크 드라이브에 배포합니다.
  • 가상 노드가 아닌 베어 메탈과 같은 물리적 노드에 배포됩니다.
  • 느린 CPU 및 네트워크입니다.

프로세스

  1. 다음 예에 따라 example-kataconfig.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      enablePeerPods: true
      logLevel: info
    #  kataConfigPoolSelector:
    #    matchLabels:
    #      <label_key>: '<label_value>' 
    1
    Copy to Clipboard Toggle word wrap
    1
    선택 사항: 노드 레이블을 적용하여 특정 노드에 kata-remote 를 설치한 경우 키와 값(예: osc: 'true' )을 지정합니다.
  2. 다음 명령을 실행하여 KataConfig CR을 생성합니다.

    $ oc create -f example-kataconfig.yaml
    Copy to Clipboard Toggle word wrap

    새로운 KataConfig CR이 생성되고 작업자 노드에 kata-remote 가 런타임 클래스로 설치됩니다.

    설치를 확인하기 전에 kata-remote 설치가 완료되고 작업자 노드가 재부팅될 때까지 기다립니다.

  3. 다음 명령을 실행하여 설치 진행 상황을 모니터링합니다.

    $ watch "oc describe kataconfig | sed -n /^Status:/,/^Events/p"
    Copy to Clipboard Toggle word wrap

    kataNodes 아래의 모든 작업자의 상태가 설치되고 이유를 지정하지 않고 InProgress 조건이 False 이면 클러스터에 kata-remote 가 설치됩니다.

  4. 다음 명령을 실행하여 데몬 세트를 확인합니다.

    $ oc get -n openshift-sandboxed-containers-operator ds/osc-caa-ds
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 런타임 클래스를 확인합니다.

    $ oc get runtimeclass
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME             HANDLER          AGE
    kata-remote      kata-remote      152m
    Copy to Clipboard Toggle word wrap

5.9. 노드당 피어 Pod VM 수 수정

peerpodConfig CR(사용자 정의 리소스)을 편집하여 노드당 피어 Pod 가상 머신(VM) 제한을 수정할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 현재 제한을 확인합니다.

    $ oc get peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      -o jsonpath='{.spec.limit}{"\n"}'
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 limit 키의 새 값을 지정합니다.

    $ oc patch peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      --type merge --patch '{"spec":{"limit":"<value>"}}'
    Copy to Clipboard Toggle word wrap

5.10. Pod VM 이미지 확인

클러스터에 kata-remote 가 설치되면 OpenShift 샌드박스 컨테이너 Operator에서 피어 Pod를 생성하는 데 사용되는 Pod VM 이미지를 생성합니다. 이 프로세스는 클라우드 인스턴스에서 이미지가 생성되므로 시간이 오래 걸릴 수 있습니다. 클라우드 공급자에 대해 생성한 구성 맵을 확인하여 Pod VM 이미지가 성공적으로 생성되었는지 확인할 수 있습니다.

프로세스

  1. 피어 Pod에 대해 생성한 구성 맵을 가져옵니다.

    $ oc get configmap peer-pods-cm -n openshift-sandboxed-containers-operator -o yaml
    Copy to Clipboard Toggle word wrap
  2. YAML 파일의 상태 스탠자를 확인합니다.

    PODVM_IMAGE_NAME 매개변수가 채워지면 Pod VM 이미지가 성공적으로 생성됩니다.

문제 해결

  1. 다음 명령을 실행하여 이벤트 로그를 검색합니다.

    $ oc get events -n openshift-sandboxed-containers-operator --field-selector involvedObject.name=osc-podvm-image-creation
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 작업 로그를 검색합니다.

    $ oc logs -n openshift-sandboxed-containers-operator jobs/osc-podvm-image-creation
    Copy to Clipboard Toggle word wrap

문제를 해결할 수 없는 경우 Red Hat 지원 케이스를 제출하고 두 로그의 출력을 첨부합니다.

5.11. OpenShift 샌드박스 컨테이너의 워크로드 구성

kata-remote 를 다음 pod 템플릿 오브젝트의 런타임 클래스로 설정하여 OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

  • Pod 오브젝트
  • ReplicaSet 오브젝트
  • ReplicationController 오브젝트
  • StatefulSet 오브젝트
  • Deployment 오브젝트
  • DeploymentConfig 오브젝트
중요

Operator 네임스페이스에 워크로드를 배포하지 마십시오. 이러한 리소스에 대한 전용 네임스페이스를 생성합니다.

사전 요구 사항

  • KataConfig CR(사용자 정의 리소스)을 생성했습니다.

프로세스

  1. 다음 예와 같이 spec.runtimeClassName: kata-remote 를 각 pod 템플릿 워크로드 오브젝트의 매니페스트에 추가합니다.

    apiVersion: v1
    kind: <object>
    # ...
    spec:
      runtimeClassName: kata-remote
    # ...
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 워크로드 오브젝트에 변경 사항을 적용합니다.

    $ oc apply -f <object.yaml>
    Copy to Clipboard Toggle word wrap

    OpenShift Container Platform은 워크로드 오브젝트를 생성하고 스케줄링을 시작합니다.

검증

  • pod-templated 오브젝트의 spec.runtimeClassName 필드를 검사합니다. 값이 kata-remote 인 경우 워크로드는 OpenShift 샌드박스 컨테이너에서 실행됩니다.

6장. IBM Z 및 IBM LinuxONE에 OpenShift 샌드박스 컨테이너 배포

IBM Z® 및 IBM® LinuxONE에 OpenShift 샌드박스 컨테이너를 배포할 수 있습니다.

다음 단계를 수행하여 OpenShift 샌드박스 컨테이너를 배포합니다.

  1. OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.
  2. 선택 사항: libvirt 볼륨을 구성합니다.
  3. 선택 사항: 사용자 정의 피어 Pod VM 이미지를 생성합니다.
  4. 피어 Pod 시크릿을 생성합니다.
  5. 피어 Pod 구성 맵을 생성합니다.
  6. Pod VM 이미지 구성 맵을 생성합니다.
  7. KVM 호스트 시크릿을 생성합니다.
  8. 선택 사항: 사용자 정의 피어 Pod VM 이미지를 선택합니다.
  9. 선택 사항: Kata 에이전트 정책을 사용자 지정합니다.
  10. KataConfig 사용자 지정 리소스를 생성합니다.
  11. 선택 사항: 각 작업자 노드에서 실행되는 가상 머신 수를 수정합니다.
  12. OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.
중요

IBM Z® 및 IBM® LinuxONE의 OpenShift 샌드박스 컨테이너는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

6.1. 사전 요구 사항

  • 최신 버전의 Red Hat OpenShift Container Platform이 설치되어 있습니다.
  • OpenShift Container Platform 클러스터에는 세 개의 컨트롤 플레인 노드와 두 개 이상의 작업자 노드가 있습니다.
  • 클러스터 노드와 피어 Pod는 동일한 IBM Z® KVM 호스트 논리 파티션에 있습니다.
  • 클러스터 노드와 피어 Pod는 동일한 서브넷에 연결되어 있습니다.

6.2. OpenShift 샌드박스 컨테이너 Operator 설치

CLI(명령줄 인터페이스)를 사용하여 OpenShift 샌드박스 컨테이너 Operator를 설치합니다.

사전 요구 사항

  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. osc-namespace.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: Namespace
    metadata:
      name: openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 네임스페이스를 생성합니다.

    $ oc create -f osc-namespace.yaml
    Copy to Clipboard Toggle word wrap
  3. osc-operatorgroup.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: sandboxed-containers-operator-group
      namespace: openshift-sandboxed-containers-operator
    spec:
      targetNamespaces:
      - openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 operator 그룹을 생성합니다.

    $ oc create -f osc-operatorgroup.yaml
    Copy to Clipboard Toggle word wrap
  5. osc-subscription.yaml 매니페스트 파일을 생성합니다.

    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: sandboxed-containers-operator
      namespace: openshift-sandboxed-containers-operator
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: sandboxed-containers-operator
      source: redhat-operators
      sourceNamespace: openshift-marketplace
      startingCSV: sandboxed-containers-operator.v1.10.3
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 서브스크립션을 생성합니다.

    $ oc create -f osc-subscription.yaml
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 Operator가 올바르게 설치되었는지 확인합니다.

    $ oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    이 명령을 완료하는 데 몇 분이 걸릴 수 있습니다.

  8. 다음 명령을 실행하여 프로세스를 확인합니다.

    $ watch oc get csv -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                             DISPLAY                                  VERSION             REPLACES                   PHASE
    openshift-sandboxed-containers   openshift-sandboxed-containers-operator  1.10.3    1.9.0        Succeeded
    Copy to Clipboard Toggle word wrap

6.3. libvirt 볼륨 구성

OpenShift 샌드박스 컨테이너 Operator는 설치 중에 KVM 호스트에서 libvirt 볼륨 및 풀을 자동으로 구성합니다. 필요한 경우 libvirt 볼륨 및 풀을 수동으로 구성하거나 생성할 수 있습니다.

사전 요구 사항

  • OpenShift Container Platform 웹 콘솔 또는 명령줄을 사용하여 OpenShift Container Platform 클러스터에 OpenShift 샌드박스 컨테이너 Operator를 설치했습니다.
  • KVM 호스트에 대한 관리자 권한이 있습니다.
  • KVM 호스트에 podman 을 설치했습니다.
  • KVM 호스트에 virt-customize 를 설치했습니다.
  • 이미지에 대한 /var/lib/libvirt/images/ 디렉터리가 있습니다.

프로세스

  1. KVM 호스트에 로그인합니다.
  2. 다음 명령을 실행하여 libvirt 풀의 이름을 설정합니다.

    $ export LIBVIRT_POOL=<libvirt_pool>
    Copy to Clipboard Toggle word wrap

    libvirt 공급자의 시크릿을 생성하려면 LIBVIRT_POOL 값이 필요합니다.

  3. 다음 명령을 실행하여 libvirt 볼륨의 이름을 설정합니다.

    $ export LIBVIRT_VOL_NAME=<libvirt_volume>
    Copy to Clipboard Toggle word wrap

    libvirt 공급자의 시크릿을 생성하려면 LIBVIRT_VOL_NAME 값이 필요합니다.

  4. 다음 명령을 실행하여 기본 스토리지 풀 위치의 경로를 설정합니다.

    $ export LIBVIRT_POOL_DIRECTORY="/var/lib/libvirt/images/"
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 libvirt 풀을 생성합니다.

    $ virsh pool-define-as $LIBVIRT_POOL --type dir --target "$LIBVIRT_POOL_DIRECTORY"
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 libvirt 풀을 시작합니다.

    $ virsh pool-start $LIBVIRT_POOL
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 풀에 대한 libvirt 볼륨을 만듭니다.

    $ virsh -c qemu:///system \
      vol-create-as --pool $LIBVIRT_POOL \
      --name $LIBVIRT_VOL_NAME \
      --capacity 20G \
      --allocation 2G \
      --prealloc-metadata \
      --format qcow2
    Copy to Clipboard Toggle word wrap

6.4. 사용자 정의 피어 Pod VM 이미지 생성

기본 Operator 빌드 이미지를 사용하는 대신 VM(사용자 정의 피어 Pod 가상 머신) 이미지를 생성할 수 있습니다.

피어 Pod QCOW2 이미지를 사용하여 OCI(Open Container Initiative) 컨테이너를 빌드합니다. 나중에 컨테이너 레지스트리 URL과 피어 Pod VM 이미지 구성 맵에 이미지 경로를 추가합니다.

프로세스

  1. Dockerfile.podvm-oci 파일을 생성합니다.

    FROM scratch
    
    ARG PODVM_IMAGE_SRC
    ENV PODVM_IMAGE_PATH="/image/podvm.qcow2"
    
    COPY $PODVM_IMAGE_SRC $PODVM_IMAGE_PATH
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 Pod VM QCOW2 이미지를 사용하여 컨테이너를 빌드합니다.

    $ docker build -t podvm-libvirt \
      --build-arg PODVM_IMAGE_SRC=<podvm_image_source> \ 
    1
    
      --build-arg PODVM_IMAGE_PATH=<podvm_image_path> \ 
    2
    
      -f Dockerfile.podvm-oci .
    Copy to Clipboard Toggle word wrap
    1
    호스트의 QCOW2 이미지 소스를 지정합니다.
    2
    선택 사항: 기본 /image/podvm.qcow2 를 사용하지 않는 경우 QCOW2 이미지의 경로를 지정합니다.

6.5. 피어 Pod 보안 생성

피어 Pod 시크릿을 생성해야 합니다. 시크릿은 Pod VM(가상 머신) 이미지 및 피어 Pod 인스턴스를 생성하기 위한 인증 정보를 저장합니다.

사전 요구 사항

  • LIBVIRT_URI. 이 값은 libvirt 네트워크의 기본 게이트웨이 IP 주소입니다. libvirt 네트워크 설정을 확인하여 이 값을 가져옵니다.

    참고

    libvirt에서 기본 브리지 가상 네트워크를 사용하는 경우 다음 명령을 실행하여 LIBVIRT_URI 를 가져올 수 있습니다.

    $ virtint=$(bridge_line=$(virsh net-info default | grep Bridge);  echo "${bridge_line//Bridge:/}" | tr -d [:blank:])
    
    $ LIBVIRT_URI=$( ip -4 addr show $virtint | grep -oP '(?<=inet\s)\d+(\.\d+){3}')
    
    $ LIBVIRT_GATEWAY_URI="qemu+ssh://root@${LIBVIRT_URI}/system?no_verify=1"
    Copy to Clipboard Toggle word wrap
  • REDHAT_OFFLINE_TOKEN. Red Hat API 토큰에서 RHEL 이미지를 다운로드하기 위해 이 토큰 을 생성했습니다.

프로세스

  1. 다음 예에 따라 peer-pods-secret.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: Secret
    metadata:
      name: peer-pods-secret
      namespace: openshift-sandboxed-containers-operator
    type: Opaque
    stringData:
      CLOUD_PROVIDER: "libvirt"
      LIBVIRT_URI: "<libvirt_gateway_uri>" 
    1
    
      REDHAT_OFFLINE_TOKEN: "<rh_offline_token>" 
    2
    Copy to Clipboard Toggle word wrap
    1
    libvirt URI를 지정합니다.
    2
    Operator 빌드 이미지에 필요한 Red Hat 오프라인 토큰을 지정합니다.
  2. 다음 명령을 실행하여 시크릿을 생성합니다.

    $ oc create -f peer-pods-secret.yaml
    Copy to Clipboard Toggle word wrap

6.6. 피어 Pod 구성 맵 생성

피어 Pod 구성 맵을 생성해야 합니다.

프로세스

  1. 다음 예에 따라 peer-pods-cm.yaml 매니페스트 파일을 생성합니다.

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: peer-pods-cm
      namespace: openshift-sandboxed-containers-operator
    data:
      CLOUD_PROVIDER: "libvirt"
      LIBVIRT_POOL: "<libvirt_pool>"
      LIBVIRT_VOL_NAME: "<libvirt_volume>"
      LIBVIRT_DIR_NAME: "/var/lib/libvirt/images/<directory_name>"
      LIBVIRT_NET: "default"
      PEERPODS_LIMIT_PER_NODE: "10"
      ROOT_VOLUME_SIZE: "6"
      DISABLECVM: "true"
    Copy to Clipboard Toggle word wrap
    LIBVIRT_POOL
    libvirt 풀을 수동으로 구성한 경우 KVM 호스트 구성과 동일한 이름을 사용합니다.
    LIBVIRT_VOL_NAME
    libvirt 볼륨을 수동으로 구성한 경우 KVM 호스트 구성과 동일한 이름을 사용합니다.
    LIBVIRT_DIR_NAME
    가상 머신 디스크 이미지(예: .qcow2 또는 .raw 파일)를 저장할 libvirt 디렉터리를 지정합니다. libvirt에 읽기 및 쓰기 액세스 권한이 있는지 확인하려면 libvirt 스토리지 디렉터리의 하위 디렉터리를 사용합니다. 기본값은 /var/lib/libvirt/images/ 입니다.
    LIBVIRT_NET
    기본 네트워크를 사용하지 않으려면 libvirt 네트워크를 지정합니다.
    PEERPODS_LIMIT_PER_NODE
    이 값을 늘리면 노드에서 더 많은 피어 Pod를 실행할 수 있습니다. 기본값은 10 입니다.
    ROOT_VOLUME_SIZE
    더 큰 컨테이너 이미지를 사용하여 Pod의 이 값을 늘릴 수 있습니다. Pod VM의 루트 볼륨 크기(GB)를 지정합니다. 기본 및 최소 크기는 6GB입니다.
  2. 다음 명령을 실행하여 구성 맵을 생성합니다.

    $ oc create -f peer-pods-cm.yaml
    Copy to Clipboard Toggle word wrap

6.7. 피어 Pod VM 이미지 구성 맵 생성

피어 Pod VM(가상 머신) 이미지에 대한 구성 맵을 생성해야 합니다.

사전 요구 사항

  • Red Hat Hybrid Cloud Console 을 사용하여 활성화 키를 생성해야 합니다.
  • 선택 사항: Cloud API Adaptor 사용자 정의 이미지를 사용하려면 이미지의 이름, URL, 분기 또는 태그가 있어야 합니다.

프로세스

  1. 다음 예에 따라 libvirt-podvm-image-cm.yaml 매니페스트를 생성합니다.

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: libvirt-podvm-image-cm
      namespace: openshift-sandboxed-containers-operator
    data:
      PODVM_DISTRO: "rhel"
      DOWNLOAD_SOURCES: "no" 
    1
    
      CAA_SRC: "https://github.com/confidential-containers/cloud-api-adaptor" 
    2
    
      CAA_REF: "main" 
    3
    
      CONFIDENTIAL_COMPUTE_ENABLED: "yes"
      UPDATE_PEERPODS_CM: "yes"
      ORG_ID: "<rhel_organization_id>"
      ACTIVATION_KEY: "<rhel_activation_key>" 
    4
    
      PODVM_IMAGE_URI: "oci::<image_repo_url>:<image_tag>::<image_path>" 
    5
    
      SE_BOOT: "true" 
    6
    
      BASE_OS_VERSION: "<rhel_image_os_version>" 
    7
    
      SE_VERIFY: "false" 
    8
    Copy to Clipboard Toggle word wrap
    1
    사용자 정의 Cloud API Adaptor 소스를 사용하여 Pod VM 이미지를 빌드하려면 yes 를 지정합니다.
    2
    선택 사항: Cloud API Adaptor 사용자 정의 이미지의 URL을 지정합니다.
    3
    선택 사항: Cloud API Adaptor 사용자 정의 이미지의 분기 또는 태그를 지정합니다.
    4
    RHEL 활성화 키를 지정합니다.
    5
    선택 사항: 사용자 정의 피어 Pod VM 이미지를 생성한 경우 컨테이너 레지스트리 URL, 이미지 태그 및 이미지 경로(기본값: /image/podvm.qcow2)를 지정합니다. 그렇지 않으면 값을 "" 로 설정합니다.
    6
    기본값 true 에서는 기본 Operator 빌드 이미지에 대해 IBM Secure Execution를 활성화합니다. 사용자 정의 피어 Pod VM 이미지를 사용하는 경우 false 로 설정합니다.
    7
    RHEL 이미지 운영 체제 버전을 지정합니다. IBM Z® Secure Execution는 RHEL 9.5 이상 버전을 지원합니다.
    8
    Cryostat CA 인증서를 사용하여 Secure Execution를 확인하지 않으려면 false 를 지정합니다. 기본값은 true입니다.
  2. 다음 명령을 실행하여 구성 맵을 생성합니다.

    $ oc create -f libvirt-podvm-image-cm.yaml
    Copy to Clipboard Toggle word wrap

    libvirt 공급자에 대해 libvirt Pod VM 이미지 구성 맵이 생성됩니다.

6.8. KVM 호스트 시크릿 생성

KVM 호스트에 대한 시크릿을 생성해야 합니다.

프로세스

  1. 다음 명령을 실행하여 SSH 키 쌍을 생성합니다.

    $ ssh-keygen -f ./id_rsa -N ""
    Copy to Clipboard Toggle word wrap
  2. 공개 SSH 키를 KVM 호스트에 복사합니다.

    $ ssh-copy-id -i ./id_rsa.pub <KVM_HOST_IP> 
    1
    Copy to Clipboard Toggle word wrap
    1
    KVM 호스트의 IP 주소 또는 피어 Pod VM이 실행 중인 LPAR을 지정합니다. 예를 들면 192.168.122.1 입니다.
  3. 다음 명령을 실행하여 Secret 오브젝트를 생성합니다.

    $ oc create secret generic ssh-key-secret \
      -n openshift-sandboxed-containers-operator \
      --from-file=id_rsa.pub=./id_rsa.pub \
      --from-file=id_rsa=./id_rsa
    Copy to Clipboard Toggle word wrap
  4. 생성한 SSH 키를 삭제합니다.

    $ shred --remove id_rsa.pub id_rsa
    Copy to Clipboard Toggle word wrap

6.9. 사용자 정의 피어 Pod VM 이미지 선택

Pod 매니페스트에 주석을 추가하여 워크로드 요구 사항에 맞게 사용자 정의 피어 Pod 가상 머신(VM) 이미지를 선택할 수 있습니다. 사용자 정의 이미지는 피어 Pod 구성 맵에 지정된 기본 이미지를 덮어씁니다.

libvirt 풀에 새 libvirt 볼륨을 생성하고 사용자 지정 피어 포드 VM 이미지를 새 볼륨에 업로드합니다. 그런 다음 사용자 정의 피어 Pod VM 이미지를 사용하도록 Pod 매니페스트를 업데이트합니다.

프로세스

  1. 다음 명령을 실행하여 LIBVIRT_POOL 변수를 설정합니다.

    $ export LIBVIRT_POOL=<libvirt_pool>
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 LIBVIRT_VOL_NAME 변수를 새 libvirt 볼륨으로 설정합니다.

    $ export LIBVIRT_VOL_NAME=<new_libvirt_volume>
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 풀에 대한 libvirt 볼륨을 만듭니다.

    $ virsh -c qemu:///system \
      vol-create-as --pool $LIBVIRT_POOL \
      --name $LIBVIRT_VOL_NAME \
      --capacity 20G \
      --allocation 2G \
      --prealloc-metadata \
      --format qcow2
    Copy to Clipboard Toggle word wrap
  4. 사용자 정의 피어 Pod VM 이미지를 새 libvirt 볼륨에 업로드합니다.

    $ virsh -c qemu:///system vol-upload \
      --vol $LIBVIRT_VOL_NAME <custom_podvm_image.qcow2> \
      --pool $LIBVIRT_POOL --sparse
    Copy to Clipboard Toggle word wrap
  5. 다음 예에 따라 my-pod-manifest.yaml 파일을 생성합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod-manifest
      annotations:
        io.katacontainers.config.hypervisor.image: "<new_libvirt_volume>"
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <example_container>
        image: registry.access.redhat.com/ubi9/ubi:9.3
        command: ["sleep", "36000"]
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod-manifest.yaml
    Copy to Clipboard Toggle word wrap

6.10. Kata 에이전트 정책 사용자 정의

Kata 에이전트 정책을 사용자 지정하여 피어 pod에 대해 허용되는 기본 정책을 재정의할 수 있습니다. Kata 에이전트 정책은 피어 pod에 대한 API 요청을 제어하는 보안 메커니즘입니다.

중요

프로덕션 환경에서 기본 정책을 재정의해야 합니다.

최소 요구 사항은 클러스터 관리자가 피어 포드에서 oc exec 명령을 실행하여 중요한 데이터에 액세스하지 못하도록 ExecProcessRequest 를 비활성화해야 합니다.

예를 들어 컨트롤 플레인을 신뢰할 수 있는 환경에서 보안이 중요하지 않은 개발 및 테스트 환경에서 기본 정책을 사용할 수 있습니다.

사용자 지정 정책은 기본 정책을 완전히 대체합니다. 특정 API를 수정하려면 전체 정책을 포함하고 관련 규칙을 조정합니다.

프로세스

  1. 기본 정책을 수정하여 사용자 지정 policy.rego 파일을 생성합니다.

    package agent_policy
    
    default AddARPNeighborsRequest := true
    default AddSwapRequest := true
    default CloseStdinRequest := true
    default CopyFileRequest := true
    default CreateContainerRequest := true
    default CreateSandboxRequest := true
    default DestroySandboxRequest := true
    default ExecProcessRequest := true
    default GetMetricsRequest := true
    default GetOOMEventRequest := true
    default GuestDetailsRequest := true
    default ListInterfacesRequest := true
    default ListRoutesRequest := true
    default MemHotplugByProbeRequest := true
    default OnlineCPUMemRequest := true
    default PauseContainerRequest := true
    default PullImageRequest := true
    default ReadStreamRequest := false
    default RemoveContainerRequest := true
    default RemoveStaleVirtiofsShareMountsRequest := true
    default ReseedRandomDevRequest := true
    default ResumeContainerRequest := true
    default SetGuestDateTimeRequest := true
    default SetPolicyRequest := true
    default SignalProcessRequest := true
    default StartContainerRequest := true
    default StartTracingRequest := true
    default StatsContainerRequest := true
    default StopTracingRequest := true
    default TtyWinResizeRequest := true
    default UpdateContainerRequest := true
    default UpdateEphemeralMountsRequest := true
    default UpdateInterfaceRequest := true
    default UpdateRoutesRequest := true
    default WaitProcessRequest := true
    default WriteStreamRequest := true
    Copy to Clipboard Toggle word wrap

    기본 정책은 모든 API 호출을 허용합니다. 필요에 따라 정책을 추가로 사용자 지정하도록 true 또는 false 값을 조정합니다.

  2. 다음 명령을 실행하여 policy.rego 파일을 Base64 인코딩 문자열로 변환합니다.

    $ base64 -w0 policy.rego
    Copy to Clipboard Toggle word wrap

    출력을 기록합니다.

  3. Base64로 인코딩된 정책 문자열을 my-pod.yaml 매니페스트에 추가합니다.

    apiVersion: v1
    kind: Pod
    metadata:
      name: my-pod
      annotations:
        io.katacontainers.config.agent.policy: <base64_encoded_policy>
    spec:
      runtimeClassName: kata-remote
      containers:
      - name: <container_name>
        image: registry.access.redhat.com/ubi9/ubi:latest
        command:
        - sleep
        - "36000"
        securityContext:
          privileged: false
          seccompProfile:
            type: RuntimeDefault
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 Pod를 생성합니다.

    $ oc create -f my-pod.yaml
    Copy to Clipboard Toggle word wrap

6.11. KataConfig 사용자 지정 리소스 생성

KataConfig CR(사용자 정의 리소스)을 생성하여 작업자 노드에 kata-remote 를 런타임 클래스로 설치해야 합니다.

OpenShift 샌드박스 컨테이너는 kata-remote 를 기본 런타임이 아닌 클러스터의 선택적 런타임으로 설치합니다.

KataConfig CR을 생성하면 작업자 노드가 자동으로 재부팅됩니다. 재부팅에는 10분에서 60분 이상 걸릴 수 있습니다. 다음 요인은 재부팅 시간을 늘릴 수 있습니다.

  • 더 많은 작업자 노드가 있는 대규모 OpenShift Container Platform 배포
  • BIOS 및 Cryostat 유틸리티 활성화.
  • SSD가 아닌 하드 디스크 드라이브에 배포합니다.
  • 가상 노드가 아닌 베어 메탈과 같은 물리적 노드에 배포됩니다.
  • 느린 CPU 및 네트워크입니다.

프로세스

  1. 다음 예에 따라 example-kataconfig.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      enablePeerPods: true
      logLevel: info
    #  kataConfigPoolSelector:
    #    matchLabels:
    #      <label_key>: '<label_value>' 
    1
    Copy to Clipboard Toggle word wrap
    1
    선택 사항: 노드 레이블을 적용하여 특정 노드에 kata-remote 를 설치한 경우 키와 값(예: osc: 'true' )을 지정합니다.
  2. 다음 명령을 실행하여 KataConfig CR을 생성합니다.

    $ oc create -f example-kataconfig.yaml
    Copy to Clipboard Toggle word wrap

    새로운 KataConfig CR이 생성되고 작업자 노드에 kata-remote 가 런타임 클래스로 설치됩니다.

    설치를 확인하기 전에 kata-remote 설치가 완료되고 작업자 노드가 재부팅될 때까지 기다립니다.

  3. 다음 명령을 실행하여 설치 진행 상황을 모니터링합니다.

    $ watch "oc describe kataconfig | sed -n /^Status:/,/^Events/p"
    Copy to Clipboard Toggle word wrap

    kataNodes 아래의 모든 작업자의 상태가 설치되고 이유를 지정하지 않고 InProgress 조건이 False 이면 클러스터에 kata-remote 가 설치됩니다.

  4. 다음 명령을 실행하여 피어 Pod 이미지를 빌드하고 libvirt 볼륨에 업로드했는지 확인합니다.

    $ oc describe configmap peer-pods-cm -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    Name: peer-pods-cm
    Namespace: openshift-sandboxed-containers-operator
    Labels: <none>
    Annotations: <none>
    
    Data
    ====
    CLOUD_PROVIDER: libvirt
    
    BinaryData
    ====
    Events: <none>
    Copy to Clipboard Toggle word wrap

  5. 다음 명령을 실행하여 UPDATEDMACHINECOUNTMACHINECOUNT 와 같은 경우 UPDATED MACHINECOUNT가 UPDATED 상태에 있는지 확인하려면 kata-oc 머신 구성 풀 진행 상황을 모니터링합니다.

    $ watch oc get mcp/kata-oc
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 데몬 세트를 확인합니다.

    $ oc get -n openshift-sandboxed-containers-operator ds/osc-caa-ds
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 런타임 클래스를 확인합니다.

    $ oc get runtimeclass
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME             HANDLER          AGE
    kata-remote      kata-remote      152m
    Copy to Clipboard Toggle word wrap

6.12. 노드당 피어 Pod VM 수 수정

peerpodConfig CR(사용자 정의 리소스)을 편집하여 노드당 피어 Pod 가상 머신(VM) 제한을 수정할 수 있습니다.

프로세스

  1. 다음 명령을 실행하여 현재 제한을 확인합니다.

    $ oc get peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      -o jsonpath='{.spec.limit}{"\n"}'
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 limit 키의 새 값을 지정합니다.

    $ oc patch peerpodconfig peerpodconfig-openshift -n openshift-sandboxed-containers-operator \
      --type merge --patch '{"spec":{"limit":"<value>"}}'
    Copy to Clipboard Toggle word wrap

6.13. OpenShift 샌드박스 컨테이너의 워크로드 구성

kata-remote 를 다음 pod 템플릿 오브젝트의 런타임 클래스로 설정하여 OpenShift 샌드박스 컨테이너에 대한 워크로드를 구성합니다.

  • Pod 오브젝트
  • ReplicaSet 오브젝트
  • ReplicationController 오브젝트
  • StatefulSet 오브젝트
  • Deployment 오브젝트
  • DeploymentConfig 오브젝트
중요

Operator 네임스페이스에 워크로드를 배포하지 마십시오. 이러한 리소스에 대한 전용 네임스페이스를 생성합니다.

사전 요구 사항

  • KataConfig CR(사용자 정의 리소스)을 생성했습니다.

프로세스

  1. 다음 예와 같이 spec.runtimeClassName: kata-remote 를 각 pod 템플릿 워크로드 오브젝트의 매니페스트에 추가합니다.

    apiVersion: v1
    kind: <object>
    # ...
    spec:
      runtimeClassName: kata-remote
    # ...
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 워크로드 오브젝트에 변경 사항을 적용합니다.

    $ oc apply -f <object.yaml>
    Copy to Clipboard Toggle word wrap

    OpenShift Container Platform은 워크로드 오브젝트를 생성하고 스케줄링을 시작합니다.

검증

  • pod-templated 오브젝트의 spec.runtimeClassName 필드를 검사합니다. 값이 kata-remote 인 경우 워크로드는 OpenShift 샌드박스 컨테이너에서 실행됩니다.

!:ibm-osc:

7장. 모니터링

OpenShift Container Platform 웹 콘솔을 사용하여 샌드박스된 워크로드 및 노드의 상태와 관련된 메트릭을 모니터링할 수 있습니다.

OpenShift 샌드박스 컨테이너에는 OpenShift Container Platform 웹 콘솔에서 사전 구성된 대시보드가 있습니다. 관리자는 Prometheus를 통해 원시 지표에 액세스하고 쿼리할 수도 있습니다.

7.1. 메트릭 정보

OpenShift 샌드박스 컨테이너 메트릭을 사용하면 관리자가 샌드박스 컨테이너를 실행하는 방법을 모니터링할 수 있습니다. OpenShift Container Platform 웹 콘솔에서 Metrics UI에서 이러한 메트릭을 쿼리할 수 있습니다.

OpenShift 샌드박스 컨테이너 지표는 다음 카테고리에 대해 수집됩니다.

Kata 에이전트 메트릭
Kata 에이전트 메트릭은 샌드박스 컨테이너에 포함된 VM에서 실행되는 kata 에이전트 프로세스에 대한 정보를 표시합니다. 이러한 메트릭에는 /proc/<pid>/[io, stat, status] 의 데이터가 포함됩니다.
Kata 게스트 운영 체제 메트릭
Kata 게스트 운영 체제 메트릭은 샌드박스 컨테이너에서 실행되는 게스트 운영 체제의 데이터를 표시합니다. 이러한 메트릭에는 /proc/[stats, diskstats, meminfo, vmstats]/proc/net/dev 의 데이터가 포함됩니다.
하이퍼바이저 지표
하이퍼바이저 지표는 샌드박스 컨테이너에 포함된 VM을 실행하는 하이퍼바이저와 관련된 데이터를 표시합니다. 이러한 메트릭에는 주로 /proc/<pid>/[io, stat, status] 의 데이터가 포함됩니다.
Kata 모니터 메트릭
Kata 모니터는 지표 데이터를 수집하여 Prometheus에서 사용할 수 있도록 하는 프로세스입니다. kata 모니터 메트릭에는 kata-monitor 프로세스 자체의 리소스 사용량에 대한 자세한 정보가 표시됩니다. 이러한 메트릭에는 Prometheus 데이터 수집의 카운터도 포함됩니다.
Kata containerd shim v2 메트릭
Kata containerd shim v2 메트릭에는 kata shim 프로세스에 대한 자세한 정보가 표시됩니다. 이러한 메트릭에는 /proc/<pid>/[io, stat, status] 및 세부 리소스 사용량 메트릭의 데이터가 포함됩니다.

7.2. 메트릭 보기

OpenShift Container Platform 웹 콘솔의 Metrics 페이지에서 OpenShift 샌드박스 컨테이너의 메트릭에 액세스할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할 또는 모든 프로젝트에 대한 보기 권한이 있는 사용자로 클러스터에 액세스할 수 있습니다.

프로세스

  1. OpenShift Container Platform 웹 콘솔에서 모니터링메트릭 으로 이동합니다.
  2. 입력 필드에 모니터링할 지표 쿼리를 입력합니다.

    모든 카타 관련 메트릭은 카타 로 시작합니다. kata 를 입력하면 사용 가능한 모든 카타 메트릭 목록이 표시됩니다.

쿼리의 메트릭은 페이지에 시각화됩니다.

8장. OpenShift 샌드박스 컨테이너 설치 제거

다음 작업을 수행하여 OpenShift 샌드박스 컨테이너를 설치 제거합니다.

  1. 워크로드 Pod를 삭제합니다.
  2. KataConfig CR(사용자 정의 리소스)을 삭제합니다.
  3. OpenShift 샌드박스 컨테이너 Operator를 설치 제거합니다.
  4. KataConfig CRD(사용자 정의 리소스 정의)를 삭제합니다.
중요

KataConfig CR을 삭제하기 전에 워크로드 Pod를 삭제해야 합니다. 제공된 경우 포드 이름에 일반적으로 접두사 podvm 및 사용자 지정 태그가 있습니다. 클라우드 공급자에 OpenShift 샌드박스 컨테이너를 배포하고 다음 절차를 수행한 후에도 리소스가 남아 있으면 클라우드 공급자로부터 해당 리소스에 대한 예기치 않은 요금이 발생할 수 있습니다. 클라우드 공급자의 OpenShift 샌드박스 컨테이너 제거를 완료한 후 클라우드 공급자 콘솔을 확인하여 프로시저가 모든 리소스가 삭제되었는지 확인합니다.

8.1. 워크로드 Pod 삭제

CLI를 사용하여 OpenShift 샌드박스 컨테이너 워크로드 Pod를 삭제할 수 있습니다.

사전 요구 사항

  • JSON 프로세서(jq) 유틸리티가 설치되어 있습니다.

프로세스

  1. 다음 명령을 실행하여 Pod를 검색합니다.

    $ oc get pods -A -o json | jq -r '.items[] | \
      select(.spec.runtimeClassName == "<runtime>").metadata.name'
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 각 Pod를 삭제합니다.

    $ oc delete pod <pod>
    Copy to Clipboard Toggle word wrap
중요

클라우드 공급자를 사용하여 배포된 OpenShift 샌드박스 컨테이너를 제거하는 경우 모든 Pod를 삭제해야 합니다. 나머지 Pod 리소스로 인해 클라우드 공급자의 예기치 않은 요금이 발생할 수 있습니다.

8.2. KataConfig 사용자 지정 리소스 삭제

명령줄을 사용하여 KataConfig CR(사용자 정의 리소스)을 삭제합니다.

프로세스

  1. 다음 명령을 실행하여 KataConfig CR을 삭제합니다.

    $ oc delete kataconfig example-kataconfig
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 CR 제거를 확인합니다.

    $ oc get kataconfig example-kataconfig
    Copy to Clipboard Toggle word wrap

    출력 예

    No example-kataconfig instances exist
    Copy to Clipboard Toggle word wrap

중요

모든 Pod가 삭제되었는지 확인해야 합니다. 나머지 Pod 리소스로 인해 클라우드 공급자의 예기치 않은 요금이 발생할 수 있습니다.

8.3. OpenShift 샌드박스 컨테이너 Operator 설치 제거

명령줄을 사용하여 OpenShift 샌드박스 컨테이너 Operator를 설치 제거합니다.

프로세스

  1. 다음 명령을 실행하여 서브스크립션을 삭제합니다.

    $ oc delete subscription sandboxed-containers-operator -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 네임스페이스를 삭제합니다.

    $ oc delete namespace openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

8.4. KataConfig CRD 삭제

명령줄을 사용하여 KataConfig CRD(사용자 정의 리소스 정의)를 삭제합니다.

사전 요구 사항

  • KataConfig 사용자 지정 리소스를 삭제했습니다.
  • OpenShift 샌드박스 컨테이너 Operator를 설치 제거했습니다.

프로세스

  1. 다음 명령을 실행하여 KataConfig CRD를 삭제합니다.

    $ oc delete crd kataconfigs.kataconfiguration.openshift.io
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 CRD가 삭제되었는지 확인합니다.

    $ oc get crd kataconfigs.kataconfiguration.openshift.io
    Copy to Clipboard Toggle word wrap

    출력 예

    Unknown CRD kataconfigs.kataconfiguration.openshift.io
    Copy to Clipboard Toggle word wrap

9장. 업그레이드

OpenShift 샌드박스 컨테이너 구성 요소의 업그레이드는 다음 단계로 구성됩니다.

  1. OpenShift Container Platform을 업그레이드하여 Kata 런타임 및 해당 종속 항목을 업데이트합니다.
  2. OpenShift 샌드박스 컨테이너 Operator를 업그레이드하여 Operator 서브스크립션을 업데이트합니다.

아래에 언급된 한 가지 예외를 제외하고 OpenShift 샌드박스 컨테이너 Operator 업그레이드 전이나 후에 OpenShift Container Platform을 업그레이드할 수 있습니다. OpenShift 샌드박스 컨테이너 Operator를 업그레이드한 직후 KataConfig 패치를 항상 적용합니다.

9.1. 리소스 업그레이드

RHCOS(Red Hat Enterprise Linux CoreOS) 확장 기능은 OpenShift 샌드박스 컨테이너 리소스를 클러스터에 배포합니다.

RHCOS 확장 샌드박스 컨테이너에 는 Kata 컨테이너 런타임, 하이퍼바이저 QEMU 및 기타 종속 항목과 같은 OpenShift 샌드박스 컨테이너를 실행하는 데 필요한 구성 요소가 포함되어 있습니다. 클러스터를 새 OpenShift Container Platform 릴리스로 업그레이드하여 확장을 업그레이드합니다.

OpenShift Container Platform 업그레이드에 대한 자세한 내용은 클러스터 업데이트를 참조하십시오.

9.2. Operator 업그레이드

OLM(Operator Lifecycle Manager)을 사용하여 OpenShift 샌드박스 컨테이너 Operator를 수동 또는 자동으로 업그레이드합니다. 초기 배포 중에 수동 또는 자동 업그레이드 중 하나를 선택하면 향후 업그레이드 모드가 결정됩니다. 수동 업그레이드의 경우 OpenShift Container Platform 웹 콘솔에는 클러스터 관리자가 설치할 수 있는 사용 가능한 업데이트가 표시됩니다.

OLM(Operator Lifecycle Manager)에서 OpenShift 샌드박스 컨테이너 Operator를 업그레이드하는 방법에 대한 자세한 내용은 설치된 Operator 업데이트를 참조하십시오.

9.3. Pod VM 이미지 업데이트

피어 Pod 배포의 경우 Pod VM 이미지를 업데이트해야 합니다. enablePeerpods: 값이 true 인 경우 OpenShift 샌드박스 컨테이너 Operator를 업그레이드해도 Pod VM 이미지가 자동으로 업데이트되지 않습니다. KataConfig CR(사용자 정의 리소스)도 삭제하고 다시 생성해야 합니다.

참고

AWS 및 Azure 배포의 피어 Pod 구성 맵을 확인하여 KataConfig CR을 다시 생성하기 전에 이미지 ID가 비어 있는지 확인할 수도 있습니다.

9.3.1. KataConfig 사용자 지정 리소스 삭제

명령줄을 사용하여 KataConfig CR(사용자 정의 리소스)을 삭제합니다.

프로세스

  1. 다음 명령을 실행하여 KataConfig CR을 삭제합니다.

    $ oc delete kataconfig example-kataconfig
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 CR 제거를 확인합니다.

    $ oc get kataconfig example-kataconfig
    Copy to Clipboard Toggle word wrap

    출력 예

    No example-kataconfig instances exist
    Copy to Clipboard Toggle word wrap

중요

모든 Pod가 삭제되었는지 확인해야 합니다. 나머지 Pod 리소스로 인해 클라우드 공급자의 예기치 않은 요금이 발생할 수 있습니다.

9.3.2. 이미지 ID가 비어 있는지 확인

AWS 및 Azure 배포의 경우 KataConfig CR(사용자 정의 리소스)을 삭제한 후 피어 Pod 구성 맵의 이미지 ID가 비어 있는지 확인해야 합니다.

프로세스

  1. 다음 명령을 실행하여 피어 Pod 구성 맵을 가져옵니다.

    $ oc get configmap -n openshift-sandboxed-containers-operator peer-pods-cm -o jsonpath="{.data.<image_id>}" 
    1
    Copy to Clipboard Toggle word wrap
    1
    AWS의 경우 &lt ;image_id >를 PODVM_AMI_ID 로 바꿉니다. Azure의 경우 &lt ;image_id >를 AZURE_IMAGE_ID 로 바꿉니다.
  2. 값이 비어 있지 않은 경우 다음 명령을 실행하여 값을 업데이트하고 구성 맵을 패치합니다.

    $ oc patch configmap peer-pods-cm -n openshift-sandboxed-containers-operator -p '{"data":{"<image_id>":""}}'
    Copy to Clipboard Toggle word wrap

9.3.3. KataConfig 사용자 지정 리소스 생성

KataConfig CR(사용자 정의 리소스)을 생성하여 작업자 노드에 kata-remote 를 런타임 클래스로 설치해야 합니다.

OpenShift 샌드박스 컨테이너는 kata-remote 를 기본 런타임이 아닌 클러스터의 선택적 런타임으로 설치합니다.

KataConfig CR을 생성하면 작업자 노드가 자동으로 재부팅됩니다. 재부팅에는 10분에서 60분 이상 걸릴 수 있습니다. 다음 요인은 재부팅 시간을 늘릴 수 있습니다.

  • 더 많은 작업자 노드가 있는 대규모 OpenShift Container Platform 배포
  • BIOS 및 Cryostat 유틸리티 활성화.
  • SSD가 아닌 하드 디스크 드라이브에 배포합니다.
  • 가상 노드가 아닌 베어 메탈과 같은 물리적 노드에 배포됩니다.
  • 느린 CPU 및 네트워크입니다.

프로세스

  1. 다음 예에 따라 example-kataconfig.yaml 매니페스트 파일을 생성합니다.

    apiVersion: kataconfiguration.openshift.io/v1
    kind: KataConfig
    metadata:
      name: example-kataconfig
    spec:
      enablePeerPods: true
      logLevel: info
    #  kataConfigPoolSelector:
    #    matchLabels:
    #      <label_key>: '<label_value>' 
    1
    Copy to Clipboard Toggle word wrap
    1
    선택 사항: 노드 레이블을 적용하여 특정 노드에 kata-remote 를 설치한 경우 키와 값(예: osc: 'true' )을 지정합니다.
  2. 다음 명령을 실행하여 KataConfig CR을 생성합니다.

    $ oc create -f example-kataconfig.yaml
    Copy to Clipboard Toggle word wrap

    새로운 KataConfig CR이 생성되고 작업자 노드에 kata-remote 가 런타임 클래스로 설치됩니다.

    설치를 확인하기 전에 kata-remote 설치가 완료되고 작업자 노드가 재부팅될 때까지 기다립니다.

  3. 다음 명령을 실행하여 설치 진행 상황을 모니터링합니다.

    $ watch "oc describe kataconfig | sed -n /^Status:/,/^Events/p"
    Copy to Clipboard Toggle word wrap

    kataNodes 아래의 모든 작업자의 상태가 설치되고 이유를 지정하지 않고 InProgress 조건이 False 이면 클러스터에 kata-remote 가 설치됩니다.

  4. 다음 명령을 실행하여 피어 Pod 이미지를 빌드하고 libvirt 볼륨에 업로드했는지 확인합니다.

    $ oc describe configmap peer-pods-cm -n openshift-sandboxed-containers-operator
    Copy to Clipboard Toggle word wrap

    출력 예

    Name: peer-pods-cm
    Namespace: openshift-sandboxed-containers-operator
    Labels: <none>
    Annotations: <none>
    
    Data
    ====
    CLOUD_PROVIDER: libvirt
    
    BinaryData
    ====
    Events: <none>
    Copy to Clipboard Toggle word wrap

  5. 다음 명령을 실행하여 UPDATEDMACHINECOUNTMACHINECOUNT 와 같은 경우 UPDATED MACHINECOUNT가 UPDATED 상태에 있는지 확인하려면 kata-oc 머신 구성 풀 진행 상황을 모니터링합니다.

    $ watch oc get mcp/kata-oc
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 데몬 세트를 확인합니다.

    $ oc get -n openshift-sandboxed-containers-operator ds/osc-caa-ds
    Copy to Clipboard Toggle word wrap
  7. 다음 명령을 실행하여 런타임 클래스를 확인합니다.

    $ oc get runtimeclass
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME             HANDLER          AGE
    kata-remote      kata-remote      152m
    Copy to Clipboard Toggle word wrap

10장. 문제 해결

OpenShift 샌드박스 컨테이너의 문제를 해결할 때 지원 케이스를 열고 must-gather 툴을 사용하여 디버깅 정보를 제공할 수 있습니다.

클러스터 관리자인 경우 로그를 직접 검토하여 더 자세한 로그 수준을 활성화할 수도 있습니다.

10.1. Red Hat 지원을 위한 데이터 수집

지원 사례를 여는 경우 클러스터에 대한 디버깅 정보를 Red Hat 지원에 제공하면 도움이 됩니다.

must-gather 툴을 사용하면 가상 머신 및 OpenShift 샌드박스 컨테이너와 관련된 기타 데이터를 포함하여 OpenShift Container Platform 클러스터에 대한 진단 정보를 수집할 수 있습니다.

즉각 지원을 받을 수 있도록 OpenShift Container Platform 및 OpenShift 샌드박스 컨테이너 둘 다에 대한 진단 정보를 제공하십시오.

must-gather 툴 사용

oc adm must-gather CLI 명령은 다음을 포함하여 문제를 디버깅하는 데 필요할 가능성이 높은 클러스터에서 정보를 수집합니다.

  • 리소스 정의
  • 서비스 로그

기본적으로 oc adm must-gather 명령은 기본 플러그인 이미지를 사용하고 ./must-gather.local 에 씁니다.

또는 다음 섹션에 설명된 대로 적절한 인수로 명령을 실행하여 특정 정보를 수집할 수 있습니다.

  • 하나 이상의 특정 기능과 관련된 데이터를 수집하려면 다음 섹션에 나열된 대로 이미지와 함께 --image 인수를 사용합니다.

    예를 들면 다음과 같습니다.

    $ oc adm must-gather --image=registry.redhat.io/openshift-sandboxed-containers/osc-must-gather-rhel9:1.10.3
    Copy to Clipboard Toggle word wrap
  • 감사 로그를 수집하려면 다음 섹션에 설명된 대로 -- /usr/bin/gather_audit_logs 인수를 사용하십시오.

    예를 들면 다음과 같습니다.

    $ oc adm must-gather -- /usr/bin/gather_audit_logs
    Copy to Clipboard Toggle word wrap
    참고

    감사 로그는 파일 크기를 줄이기 위해 기본 정보 세트의 일부로 수집되지 않습니다.

oc adm must-gather 를 실행하면 클러스터의 새 프로젝트에 임의의 이름이 있는 새 Pod가 생성됩니다. 해당 Pod에 대한 데이터가 수집되어 must-gather.local로 시작하는 새 디렉터리에 저장됩니다. 이 디렉터리는 현재 작업 중인 디렉터리에 생성되어 있습니다.

예를 들면 다음과 같습니다.

NAMESPACE                      NAME                 READY   STATUS      RESTARTS      AGE
...
openshift-must-gather-5drcj    must-gather-bklx4    2/2     Running     0             72s
openshift-must-gather-5drcj    must-gather-s8sdh    2/2     Running     0             72s
...
Copy to Clipboard Toggle word wrap

필요한 경우 --run-namespace 옵션을 사용하여 특정 네임스페이스에서 oc adm must-gather 명령을 실행할 수 있습니다.

예를 들면 다음과 같습니다.

$ oc adm must-gather --run-namespace <namespace> --image=registry.redhat.io/openshift-sandboxed-containers/osc-must-gather-rhel9:1.10.3
Copy to Clipboard Toggle word wrap

10.2. 로그 데이터 수집

OpenShift 샌드박스 컨테이너와 관련된 기능 및 오브젝트는 다음과 같습니다.

  • OpenShift 샌드박스 컨테이너 리소스에 속하는 모든 네임스페이스 및 해당 하위 오브젝트
  • 모든 OpenShift 샌드박스 컨테이너 CRD(사용자 정의 리소스 정의)

kata 런타임으로 실행되는 각 Pod에 대해 다음 구성 요소 로그를 수집할 수 있습니다.

  • Kata 에이전트 로그
  • Kata 런타임 로그
  • QEMU 로그
  • 감사 로그
  • CRI-O 로그

10.2.1. CRI-O 런타임의 디버그 로그 활성화

KataConfig CR에서 logLevel 필드를 업데이트하여 디버그 로그를 활성화할 수 있습니다. 이렇게 하면 OpenShift 샌드박스 컨테이너를 실행하는 작업자 노드의 CRI-O 런타임의 로그 수준이 변경됩니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. 기존 KataConfig CR의 logLevel 필드를 debug 로 변경합니다.

    $ oc patch kataconfig <kataconfig> --type merge --patch '{"spec":{"logLevel":"debug"}}'
    Copy to Clipboard Toggle word wrap
  2. UPDATED 의 값이 True 가 될 때까지 kata-oc 머신 구성 풀을 모니터링하여 모든 작업자 노드가 업데이트됨을 나타냅니다.

    $ oc get mcp kata-oc
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME     CONFIG                 UPDATED  UPDATING  DEGRADED  MACHINECOUNT  READYMACHINECOUNT  UPDATEDMACHINECOUNT  DEGRADEDMACHINECOUNT  AGE
    kata-oc  rendered-kata-oc-169   False    True      False     3             1                  1                    0                     9h
    Copy to Clipboard Toggle word wrap

검증

  1. 머신 구성 풀에서 노드로 디버그 세션을 시작합니다.

    $ oc debug node/<node_name>
    Copy to Clipboard Toggle word wrap
  2. root 디렉토리를 /host 로 변경합니다.

    # chroot /host
    Copy to Clipboard Toggle word wrap
  3. crio.conf 파일의 변경 사항을 확인합니다.

    # crio config | egrep 'log_level
    Copy to Clipboard Toggle word wrap

    출력 예

    log_level = "debug"
    Copy to Clipboard Toggle word wrap

10.2.2. 구성 요소의 디버그 로그 보기

클러스터 관리자는 디버그 로그를 사용하여 문제를 해결할 수 있습니다. 각 노드의 로그는 노드 저널에 출력됩니다.

다음 OpenShift 샌드박스 컨테이너 구성 요소의 로그를 검토할 수 있습니다.

  • Kata 에이전트
  • Kata 런타임 (containerd-shim-kata-v2)
  • virtiofsd

QEMU는 경고 및 오류 로그만 생성합니다. 이러한 경고 및 오류는 추가 qemuPid 필드를 사용하여 Kata 런타임 로그와 CRI-O 로그 모두에서 노드 저널에 출력됩니다.

QEMU 로그 예

Mar 11 11:57:28 openshift-worker-0 kata[2241647]: time="2023-03-11T11:57:28.587116986Z" level=info msg="Start logging QEMU (qemuPid=2241693)" name=containerd-shim-v2 pid=2241647 sandbox=d1d4d68efc35e5ccb4331af73da459c13f46269b512774aa6bde7da34db48987 source=virtcontainers/hypervisor subsystem=qemu

Mar 11 11:57:28 openshift-worker-0 kata[2241647]: time="2023-03-11T11:57:28.607339014Z" level=error msg="qemu-kvm: -machine q35,accel=kvm,kernel_irqchip=split,foo: Expected '=' after parameter 'foo'" name=containerd-shim-v2 pid=2241647 qemuPid=2241693 sandbox=d1d4d68efc35e5ccb4331af73da459c13f46269b512774aa6bde7da34db48987 source=virtcontainers/hypervisor subsystem=qemu

Mar 11 11:57:28 openshift-worker-0 kata[2241647]: time="2023-03-11T11:57:28.60890737Z" level=info msg="Stop logging QEMU (qemuPid=2241693)" name=containerd-shim-v2 pid=2241647 sandbox=d1d4d68efc35e5ccb4331af73da459c13f46269b512774aa6bde7da34db48987 source=virtcontainers/hypervisor subsystem=qemu
Copy to Clipboard Toggle word wrap

Kata 런타임은 QEMU가 시작될 때 로깅 QEMU 시작 및 QEMU가 중지되면 로깅 QEMU 를 중지합니다. 이러한 두 로그 메시지 사이에 qemuPid 필드가 있는 오류가 표시됩니다. QEMU의 실제 오류 메시지가 빨간색으로 표시됩니다.

QEMU 게스트의 콘솔도 노드 저널에 출력됩니다. Kata 에이전트 로그와 함께 게스트 콘솔 로그를 볼 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  • Kata 에이전트 로그 및 게스트 콘솔 로그를 검토하려면 다음 명령을 실행합니다.

    $ oc debug node/<nodename> -- journalctl -D /host/var/log/journal -t kata -g “reading guest console”
    Copy to Clipboard Toggle word wrap
  • Kata 런타임 로그를 검토하려면 다음 명령을 실행합니다.

    $ oc debug node/<nodename> -- journalctl -D /host/var/log/journal -t kata
    Copy to Clipboard Toggle word wrap
  • virtiofsd 로그를 검토하려면 다음 명령을 실행합니다.

    $ oc debug node/<nodename> -- journalctl -D /host/var/log/journal -t virtiofsd
    Copy to Clipboard Toggle word wrap
  • QEMU 로그를 검토하려면 다음 명령을 실행합니다.

    $ oc debug node/<nodename> -- journalctl -D /host/var/log/journal -t kata -g "qemuPid=\d+"
    Copy to Clipboard Toggle word wrap

부록 A. KataConfig 상태 메시지

다음 표에는 두 개의 작업자 노드가 있는 클러스터의 KataConfig CR(사용자 정의 리소스)의 상태 메시지가 표시됩니다.

Expand
표 A.1. KataConfig 상태 메시지
상태설명

초기 설치

KataConfig CR이 생성되고 두 작업자 모두에 kata-remote 설치를 시작하면 다음 상태가 몇 초 동안 표시됩니다.

 conditions:
    message: Performing initial installation of kata-remote on cluster
    reason: Installing
    status: 'True'
    type: InProgress
 kataNodes:
   nodeCount: 0
   readyNodeCount: 0
Copy to Clipboard Toggle word wrap

설치

몇 초 내에 상태가 변경됩니다.

 kataNodes:
   nodeCount: 2
   readyNodeCount: 0
   waitingToInstall:
   - worker-0
   - worker-1
Copy to Clipboard Toggle word wrap

설치 (Worker-1 설치 시작)

잠시 동안 하나의 노드가 kata-remote 설치를 시작한 것을 나타내는 상태가 변경되는 반면 다른 하나는 대기 상태입니다. 이는 한 번에 하나의 노드만 사용할 수 없기 때문입니다. 두 노드 모두 결국 kata-remote 를 수신하기 때문에 nodeCount 는 2로 유지되지만 readyNodeCount 는 현재 0개 중 하나가 아직 해당 상태에 도달하지 않았기 때문입니다.

 kataNodes:
   installing:
   - worker-1
   nodeCount: 2
   readyNodeCount: 0
   waitingToInstall:
   - worker-0
Copy to Clipboard Toggle word wrap

설치 (Worker-1 설치, worker-0 설치 시작)

잠시 후 worker-1 은 설치를 완료하여 상태가 변경됩니다. readyNodeCount 가 1로 업데이트되어 worker-1 이 이제 kata-remote 워크로드를 실행할 준비가 되었음을 나타냅니다. 설치 프로세스 종료 시 런타임 클래스가 생성될 때까지 kata-remote 워크로드를 예약하거나 실행할 수 없습니다.

 kataNodes:
   installed:
   - worker-1
   installing:
   - worker-0
   nodeCount: 2
   readyNodeCount: 1
Copy to Clipboard Toggle word wrap

설치됨

설치하는 경우 두 작업자 모두 설치된 것으로 나열되고 InProgress 조건이 클러스터에 kata-remote 가 성공적으로 설치되었음을 나타내는 이유를 지정하지 않고 False 로 전환됩니다.

 conditions:
    message: ""
    reason: ""
    status: 'False'
    type: InProgress
 kataNodes:
   installed:
   - worker-0
   - worker-1
   nodeCount: 2
   readyNodeCount: 2
Copy to Clipboard Toggle word wrap
Expand
상태설명

초기 설치 제거

kata-remote 가 두 작업자 모두에 설치되어 있고 KataConfig 를 삭제하여 클러스터에서 kata-remote 를 제거하면 두 작업자 모두 잠시 대기 상태를 간략하게 입력합니다.

 conditions:
    message: Removing kata-remote from cluster
    reason: Uninstalling
    status: 'True'
    type: InProgress
 kataNodes:
   nodeCount: 0
   readyNodeCount: 0
   waitingToUninstall:
   - worker-0
   - worker-1
Copy to Clipboard Toggle word wrap

설치 제거

몇 초 후에 작업자 중 하나가 제거를 시작합니다.

 kataNodes:
   nodeCount: 0
   readyNodeCount: 0
   uninstalling:
   - worker-1
   waitingToUninstall:
   - worker-0
Copy to Clipboard Toggle word wrap

설치 제거

worker-1이 완료되고 worker-0이 제거를 시작합니다.

 kataNodes:
   nodeCount: 0
   readyNodeCount: 0
   uninstalling:
   - worker-0
Copy to Clipboard Toggle word wrap
참고

reason 필드는 다음 원인도 보고할 수 있습니다.

  • Failed: 노드가 전환을 완료할 수 없는 경우 보고됩니다. 상태는 True 이고 메시지는 Node <node_name> Degraded: <error_message_from_the_node >입니다.
  • BlockedByExistingKataPods: kata-remote를 제거하는 동안 kata-remote 런타임을 사용하는 클러스터에서 실행 중인 Pod가 있는 경우 보고됩니다. status 필드는 False 이고 메시지는 kata-remote" RuntimeClass를 사용하는 기존 Pod입니다. KataConfig 삭제의 경우 Pod를 수동으로 삭제하여 다음을 진행합니다.. 클러스터 컨트롤 플레인과의 통신에 실패하는 경우 Failed to list kata pods: <error_message >와 같은 기술 오류 메시지가 표시될 수도 있습니다.

법적 공지

Copyright © 2025 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat