5.5. GCP PD CSI Driver Operator
5.5.1. 개요
OpenShift Dedicated는 GCP(Google Cloud Platform) PD(영구 디스크) 스토리지용 CSI(Container Storage Interface) 드라이버를 사용하여 PV(영구 볼륨)를 프로비저닝할 수 있습니다.
CSI(Container Storage Interface) Operator 및 드라이버를 사용할 때는 영구 스토리지 및 CSI 볼륨 구성에 대해 숙지하는 것이 좋습니다.
GCP PD 스토리지 자산에 마운트되는 CSI(영구 볼륨)를 생성하기 위해 OpenShift Dedicated는 openshift-cluster-csi-drivers
네임스페이스에 기본적으로 GCP PD CSI Driver Operator 및 GCP PD CSI 드라이버를 설치합니다.
- GCP PD CSI Driver Operator: 기본적으로 Operator는 PVC를 생성하는 데 사용할 수 있는 스토리지 클래스를 제공합니다. 필요한 경우 이 기본 스토리지 클래스를 비활성화할 수 있습니다( 기본 스토리지 클래스 관리참조). GCE 영구 디스크를 사용하는 영구 스토리지에 설명된 대로 GCP PD 스토리지 클래스를 생성하는 옵션도 있습니다.
GCP PD 드라이버: 이 드라이버를 사용하면 GCP PD PV를 생성 및 마운트할 수 있습니다.
GCP PD CSI 드라이버는 베어 메탈 및 N4 머신 시리즈의 C3 인스턴스 유형을 지원합니다. C3 인스턴스 유형 및 N4 시스템 시리즈는 hyperdisk-balanced 디스크를 지원합니다.
5.5.2. 베어 메탈 및 N4 머신 시리즈의 C3 인스턴스 유형
5.5.2.1. C3 및 N4 인스턴스 유형 제한 사항
베어 메탈 및 N4 머신 시리즈의 C3 인스턴스 유형에 대한 GCP PD CSI 드라이버 지원에는 다음과 같은 제한 사항이 있습니다.
- 스토리지 풀을 사용할 때는 볼륨 복제가 지원되지 않습니다.
- 복제 또는 크기 조정을 위해 원래 볼륨 크기는 6Gi 이상이어야 합니다.
기본 스토리지 클래스는 standard-csi입니다.
중요스토리지 클래스를 수동으로 생성해야 합니다.
스토리지 클래스 생성에 대한 자세한 내용은 hyperdisk-balanced 디스크 설정 섹션의 2단계를 참조하십시오.
- 다양한 스토리지 유형을 사용하는 혼합 VM(가상 머신)이 있는 클러스터는 지원되지 않습니다. 이는 대부분의 기존 VM에서 하이퍼 디스크 분산 디스크를 사용할 수 없기 때문입니다. 마찬가지로 일반 영구 디스크는 N4/C3 VM에서 사용할 수 없습니다.
- c3-standard-2, c3-standard-4, n4-standard-2, n4-standard-4 노드가 있는 GCP 클러스터는 연결할 수 있는 최대 디스크 번호(JIRA 링크)를 잘못 초과할 수 있습니다.
5.5.2.2. hyperdisk-balanced 디스크용 스토리지 풀 개요
대규모 스토리지를 위해 Compute Engine과 함께 Hyperdisk 스토리지 풀을 사용할 수 있습니다. 하이퍼 디스크 스토리지 풀은 구매한 용량, 처리량 및 IOPS 컬렉션으로, 필요에 따라 애플리케이션을 프로비저닝할 수 있습니다. 하이퍼 디스크 스토리지 풀을 사용하여 풀에서 디스크를 생성 및 관리하고 여러 워크로드의 디스크를 사용할 수 있습니다. 디스크를 집계하여 관리하면 예상 용량 및 성능 증가를 달성하면서 비용을 절감할 수 있습니다. 하이퍼 디스크 스토리지 풀에서 필요한 스토리지만 사용하면 예측 용량의 복잡성을 줄이고 수백 개의 디스크를 관리에서 단일 스토리지 풀 관리로 이동하여 관리를 줄일 수 있습니다.
스토리지 풀을 설정하려면 hyperdisk-balanced 디스크 설정을 참조하십시오.
5.5.2.3. hyperdisk-balanced 디스크 설정
사전 요구 사항
- 관리 권한이 있는 클러스터에 액세스
절차
hyperdisk-balanced 디스크를 설정하려면 다음을 수행합니다.
다음 예제 YAML 파일을 사용하여 하이퍼 디스크별 스토리지 클래스를 사용하는 PVC(영구 볼륨 클레임)를 생성합니다.
PVC YAML 파일의 예
apiVersion: v1 kind: PersistentVolumeClaim metadata: name: my-pvc spec: storageClassName: hyperdisk-sc 1 accessModes: - ReadWriteOnce resources: requests: storage: 2048Gi 2
방금 생성한 PVC를 사용하는 배포를 생성합니다. 배포를 사용하면 Pod를 재시작하고 일정을 변경한 후에도 애플리케이션이 영구 스토리지에 액세스할 수 있도록 합니다.
- 배포를 생성하기 전에 지정된 머신 시리즈가 있는 노드 풀이 실행 중인지 확인합니다. 그러지 않으면 Pod를 예약하지 못합니다.
다음 예제 YAML 파일을 사용하여 배포를 생성합니다.
배포 YAML 파일의 예
apiVersion: apps/v1 kind: Deployment metadata: name: postgres spec: selector: matchLabels: app: postgres template: metadata: labels: app: postgres spec: nodeSelector: cloud.google.com/machine-family: n4 1 containers: - name: postgres image: postgres:14-alpine args: [ "sleep", "3600" ] volumeMounts: - name: sdk-volume mountPath: /usr/share/data/ volumes: - name: sdk-volume persistentVolumeClaim: claimName: my-pvc 2
다음 명령을 실행하여 배포가 성공적으로 생성되었는지 확인합니다.
$ oc get deployment
출력 예
NAME READY UP-TO-DATE AVAILABLE AGE postgres 0/1 1 0 42s
하이퍼 디스크 인스턴스가 프로비저닝을 완료하고 READY 상태를 표시하는 데 몇 분이 걸릴 수 있습니다.
다음 명령을 실행하여 PVC
my-pvc
가 PV(영구 볼륨)에 성공적으로 바인딩되었는지 확인합니다.$ oc get pvc my-pvc
출력 예
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS VOLUMEATTRIBUTESCLASS AGE my-pvc Bound pvc-1ff52479-4c81-4481-aa1d-b21c8f8860c6 2Ti RWO hyperdisk-sc <unset> 2m24s
hyperdisk-balanced 디스크의 예상 구성을 확인합니다.
$ gcloud compute disks list
출력 예
NAME LOCATION LOCATION_SCOPE SIZE_GB TYPE STATUS instance-20240914-173145-boot us-central1-a zone 150 pd-standard READY instance-20240914-173145-data-workspace us-central1-a zone 100 pd-balanced READY c4a-rhel-vm us-central1-a zone 50 hyperdisk-balanced READY 1
- 1
- Hyperdisk-balanced 디스크.
스토리지 풀을 사용하는 경우 다음 명령을 실행하여 스토리지 클래스 및 PVC에 지정된 대로 볼륨이 프로비저닝되었는지 확인합니다.
$ gcloud compute storage-pools list-disks pool-us-east4-c --zone=us-east4-c
출력 예
NAME STATUS PROVISIONED_IOPS PROVISIONED_THROUGHPUT SIZE_GB pvc-1ff52479-4c81-4481-aa1d-b21c8f8860c6 READY 3000 140 2048
5.5.3. CSI 정보
스토리지 벤더는 일반적으로 Kubernetes의 일부로 스토리지 드라이버를 제공합니다. CSI(Container Storage Interface) 구현을 통해 타사 공급자는 코어 Kubernetes 코드를 변경하지 않고도 표준 인터페이스를 사용하여 스토리지 플러그인을 제공할 수 있습니다.
CSI Operator는 in-tree 볼륨 플러그인에서 사용할 수 없는 볼륨 스냅샷과 같은 OpenShift Dedicated 사용자 스토리지 옵션을 제공합니다.
5.5.4. GCP PD CSI 드라이버 스토리지 클래스 매개변수
GCP(Google Cloud Platform) PD(영구 디스크) CSI(Container Storage Interface) 드라이버는 CSI 외부 프로비저너
사이드카를 컨트롤러로 사용합니다. 이 컨테이너는 CSI 드라이버와 함께 배포된 별도의 Helper 컨테이너입니다. 사이드카는 CreateVolume
작업을 트리거하여 PV(영구 볼륨)를 관리합니다.
GCP PD CSI 드라이버는 csi.storage.k8s.io/fstype
매개변수 키를 사용하여 동적 프로비저닝을 지원합니다. 다음 표에서는 OpenShift Dedicated에서 지원하는 모든 GCP PD CSI 스토리지 클래스 매개변수를 설명합니다.
매개변수 | 값 | 기본 | 설명 |
---|---|---|---|
|
|
| 표준 PV 또는 솔리드 스테이트 드라이브 PV 중 하나를 선택할 수 있습니다. 드라이버는 값을 확인하지 않으므로 가능한 모든 값이 허용됩니다. |
|
|
| 존 또는 지역 PV 중 하나를 선택할 수 있습니다. |
| 새 디스크를 암호화하는 데 사용할 키가 정규화된 리소스 식별자입니다. | 빈 문자열 | CMEK(고객 관리 암호화 키)를 사용하여 새 디스크를 암호화합니다. |
5.5.5. 사용자 정의 암호화 영구 볼륨 생성
PersistentVolumeClaim
오브젝트를 생성할 때 OpenShift Dedicated는 새 PV(영구 볼륨)를 프로비저닝하고 PersistentVolume
오브젝트를 생성합니다. 새로 생성된 PV를 암호화하여 클러스터에서 PV를 보호하기 위해 GCP(Google Cloud Platform)에 사용자 지정 암호화 키를 추가할 수 있습니다.
암호화를 위해 새로 연결된 PV는 신규 또는 기존 Google Cloud KMS(키 관리 서비스) 키를 사용하여 클러스터에서 CMEK(고객 관리 암호화 키)를 사용합니다.
사전 요구 사항
- 실행 중인 OpenShift Dedicated 클러스터에 로그인되어 있습니다.
- Cloud KMS 키 링 및 키 버전이 생성되어 있습니다.
CMEK 및 Cloud KMS 리소스에 대한 자세한 내용은 CMEK(고객 관리 암호화 키) 사용을 참조하십시오.
절차
사용자 정의 PV를 생성하려면 다음 단계를 완료합니다.
Cloud KMS 키를 사용하여 스토리지 클래스를 생성합니다. 다음 예시에서는 암호화된 볼륨의 동적 프로비저닝을 활성화합니다.
apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: csi-gce-pd-cmek provisioner: pd.csi.storage.gke.io volumeBindingMode: "WaitForFirstConsumer" allowVolumeExpansion: true parameters: type: pd-standard disk-encryption-kms-key: projects/<key-project-id>/locations/<location>/keyRings/<key-ring>/cryptoKeys/<key> 1
- 1
- 이 필드는 새 디스크를 암호화하는 데 사용할 키의 리소스 식별자여야 합니다. 값은 대소문자를 구분합니다. 키 ID 값을 제공하는 방법에 대한 자세한 내용은 리소스의 ID 검색 및 Cloud KMS 리소스 ID 가져오기를 참조하십시오.
참고disk-encryption-✓s-key
매개변수를 기존 스토리지 클래스에 추가할 수 없습니다. 그러나 스토리지 클래스를 삭제하고 동일한 이름과 다른 매개변수 세트로 다시 생성할 수 있습니다. 이렇게 하는 경우 기존 클래스의 프로비저너가pd.csi.storage.gke.io
여야 합니다.oc
명령을 사용하여 OpenShift Dedicated 클러스터에 스토리지 클래스를 배포합니다.$ oc describe storageclass csi-gce-pd-cmek
출력 예
Name: csi-gce-pd-cmek IsDefaultClass: No Annotations: None Provisioner: pd.csi.storage.gke.io Parameters: disk-encryption-kms-key=projects/key-project-id/locations/location/keyRings/ring-name/cryptoKeys/key-name,type=pd-standard AllowVolumeExpansion: true MountOptions: none ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: none
이전 단계에서 생성한 스토리지 클래스 오브젝트의 이름과 일치하는
pvc.yaml
파일을 생성합니다.kind: PersistentVolumeClaim apiVersion: v1 metadata: name: podpvc spec: accessModes: - ReadWriteOnce storageClassName: csi-gce-pd-cmek resources: requests: storage: 6Gi
참고새 스토리지 클래스를 기본값으로 표시한 경우
storageClassName
필드를 생략할 수 있습니다.클러스터에 PVC를 적용합니다.
$ oc apply -f pvc.yaml
PVC 상태를 가져온 후 새로 프로비저닝된 PV에 바인딩되었는지 확인합니다.
$ oc get pvc
출력 예
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE podpvc Bound pvc-e36abf50-84f3-11e8-8538-42010a800002 10Gi RWO csi-gce-pd-cmek 9s
참고스토리지 클래스에
WaitForFirstConsumer
로 설정된volumeBindingMode
필드가 있는 경우 이를 확인하기 전에 PVC를 사용하도록 Pod를 생성해야 합니다.
이제 CMEK 보호 PV를 OpenShift Dedicated 클러스터와 함께 사용할 준비가 되었습니다.