5.2. 새 장치 세트의 스토리지 연결
프로세스
-
OpenShift 웹 콘솔에서 스토리지
데이터 Foundation 스토리지 시스템 탭으로 이동합니다. - 필요한 스토리지 시스템 옆에 있는 Action 메뉴를 클릭하고 Attach Storage 를 선택합니다.
- LSO StorageClass 에서 새로 생성된 로컬 스토리지 클래스를 선택합니다.
장치 세트에서 암호화 활성화를 선택하여 암호화를 활성화합니다.
참고이 옵션을 사용하여 OSD 암호화를 활성화하거나 비활성화하면 이러한 새 OSD 스토리지 장치에 대한 클러스터 전체 암호화 설정이 재정의됩니다.
- 볼륨 유형을 선택합니다.
- 풀의 이름을 입력합니다.
데이터 보호 정책을 선택합니다.
3방향 복제를 선택하는 것이 좋습니다.- 복제본 내에서 데이터 압축 을 활성화하여 스토리지 효율성을 최적화하려면 압축 옵션을 선택합니다.
- Reclaim Policy 를 선택합니다.
- 볼륨 바인딩 모드를 선택합니다.
- 새 사용자 스토리지 클래스 이름의 이름을 입력합니다.
- 스토리지 클래스를 사용하여 생성된 각 영구 볼륨에 대한 암호화 키를 생성하려면 암호화 옵션 사용을 선택합니다.
- 스토리지 연결을 클릭합니다.
검증 단계
PV 및 PVC가
Bound상태인지 확인합니다.예를 들면 다음과 같습니다.
$ oc get pv | grep localvolume2 local-pv-14c0b1d 130Gi RWO Delete Bound openshift-storage/localvolume2-0-data-0kp29f localvolume2 <unset> 31m local-pv-41d0d077 130Gi RWO Delete Bound openshift-storage/localvolume2-0-data-2vwk54 localvolume2 <unset> 30m local-pv-6c57a345 130Gi RWO Delete Bound openshift-storage/localvolume2-0-data-1255ts localvolume2 <unset> 28m$ oc get pvc | grep localvolume2 localvolume2-0-data-0kp29f Bound local-pv-14c0b1d 130Gi RWO localvolume2 <unset> 19m localvolume2-0-data-1255ts Bound local-pv-6c57a345 130Gi RWO localvolume2 <unset> 19m localvolume2-0-data-2vwk54 Bound local-pv-41d0d077 130Gi RWO localvolume2 <unset> 19m새 OSD가 생성되고 모든 OSD가 실행 중인지 확인합니다.
예를 들면 다음과 같습니다.
$ oc -n openshift-storage get pods -l app=rook-ceph-osd NAME READY STATUS RESTARTS AGE rook-ceph-osd-0-7899b89478-bmg2l 2/2 Running 2 16h rook-ceph-osd-1-6d7df8dbfc-z29jx 2/2 Running 2 16h rook-ceph-osd-2-66b9dc8cd7-vd77d 2/2 Running 2 16h rook-ceph-osd-3-79b59f44d7-cb9m7 2/2 Running 0 15m rook-ceph-osd-4-766bcd8646-z4zvz 2/2 Running 0 15m rook-ceph-osd-5-845554d78-qqcm4 2/2 Running 0 15mstoragecluster가
Ready상태이고 Ceph 클러스터 상태가OK인지 확인합니다.예를 들면 다음과 같습니다.
$ oc -n openshift-storage get storagecluster NAME AGE PHASE EXTERNAL CREATED AT VERSION ocs-storagecluster 2d2h Ready 2025-02-11T12:03:37Z 4.20.0 $ oc -n openshift-storage get cephcluster NAME DATADIRHOSTPATH MONCOUNT AGE PHASE MESSAGE HEALTH EXTERNAL FSID ocs-storagecluster-cephcluster /var/lib/rook 3 2d2h Ready Cluster created successfully HEALTH_OK 8ec4e898-5386-42c7-b01b-169fe8f08ba4Ceph 클러스터에서 Ceph OSD 트리를 확인하여 새 장치 클래스가 올바르게 분배되고 OSD가
작동중인지 확인합니다.예를 들면 다음과 같습니다.
$ oc rsh -n openshift-storage $(oc get pods -o wide -n openshift-storage|grep tool|awk '{print$1}') ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.67406 root default -7 0.22469 host compute-0 3 localvolume2 0.12700 osd.3 up 1.00000 1.00000 0 ssd 0.09769 osd.0 up 1.00000 1.00000 -3 0.22469 host compute-1 4 localvolume2 0.12700 osd.4 up 1.00000 1.00000 2 ssd 0.09769 osd.2 up 1.00000 1.00000 -5 0.22469 host compute-2 5 localvolume2 0.12700 osd.5 up 1.00000 1.00000 1 ssd 0.09769 osd.1 up 1.00000 1.00000사용자 storageclass가 생성되었는지 확인합니다.
예를 들면 다음과 같습니다.
$ oc get sc NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE localblock kubernetes.io/no-provisioner Delete WaitForFirstConsumer false 16h localvolume2 kubernetes.io/no-provisioner Delete WaitForFirstConsumer false 63m ocs-storagecluster-ceph-rbd openshift-storage.rbd.csi.ceph.com Delete Immediate true 16h ocs-storagecluster-ceph-rgw openshift-storage.ceph.rook.io/bucket Delete Immediate false 16h ocs-storagecluster-cephfs openshift-storage.cephfs.csi.ceph.com Delete Immediate true 16h openshift-storage.noobaa.io openshift-storage.noobaa.io/obc Delete Immediate false 16h ssd2 openshift-storage.rbd.csi.ceph.com Delete WaitForFirstConsumer true 16m thin-csi csi.vsphere.vmware.com Delete WaitForFirstConsumer true 17h thin-csi-odf csi.vsphere.vmware.com Delete WaitForFirstConsumer true 16h