2.3.3. 사용자 프로비저닝 인프라에서 실패한 Amazon EC2 노드 교체
OpenShift Container Storage용 Amazon EC2 I3의 임시 스토리지는 인스턴스 전원이 꺼지면 데이터가 손실될 수 있습니다. Amazon EC2 인프라의 전원을 끄는 이러한 인스턴스를 복구하려면 다음 절차를 사용하십시오.
Amazon EC2 I3 인프라에서 스토리지 노드를 교체하는 것은 기술 프리뷰 기능입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
사전 요구 사항
- 교체 중인 노드와 유사한 인프라 및 리소스로 교체된 교체 노드를 구성하는 것이 좋습니다.
- RHOCP(OpenShift Container Platform) 클러스터에 로그인해야 합니다.
절차
노드를 식별하고 교체할 노드의 레이블을 가져옵니다.
$ oc get nodes --show-labels | grep <node_name>교체할 노드에서 실행 중인 mon(있는 경우) 및 OSD를 식별합니다.
$ oc get pods -n openshift-storage -o wide | grep -i <node_name>이전 단계에서 확인한 포드의 배포를 축소합니다.
예를 들어 다음과 같습니다.
$ oc scale deployment rook-ceph-mon-c --replicas=0 -n openshift-storage $ oc scale deployment rook-ceph-osd-0 --replicas=0 -n openshift-storage $ oc scale deployment --selector=app=rook-ceph-crashcollector,node_name=<node_name> --replicas=0 -n openshift-storage노드를 예약 불가로 표시합니다.
$ oc adm cordon <node_name>Terminating 상태인 Pod를 제거합니다.
$ oc get pods -A -o wide | grep -i <node_name> | awk '{if ($4 == "Terminating") system ("oc -n " $1 " delete pods " $2 " --grace-period=0 " " --force ")}'노드를 드레이닝합니다.
$ oc adm drain <node_name> --force --delete-local-data --ignore-daemonsets노드를 삭제합니다.
$ oc delete node <node_name>- 필요한 인프라를 사용하여 새 Amazon EC2 I3 머신 인스턴스를 생성합니다. 지원되는 인프라 및 플랫폼을 참조하십시오.
- 새로운 Amazon EC2 I3 머신 인스턴스를 사용하여 새 OpenShift Container Platform 노드를 생성합니다.
보류 중인 OpenShift Container Platform과 관련된 CSR(인증서 서명 요청)을 확인합니다.
$ oc get csr새 노드에 필요한 모든 OpenShift Container Platform CSR을 승인합니다.
$ oc adm certificate approve <Certificate_Name>- OpenShift 웹 콘솔에서 컴퓨팅 → 노드를 클릭합니다. 새 노드가 Ready 상태인지 확인합니다.
다음 중 하나를 사용하여 OpenShift Container Storage 레이블을 새 노드에 적용합니다.
- 사용자 인터페이스에서
-
새 노드의 Action Menu(작업 메뉴)
Edit Labels 를 클릭합니다. -
cluster.ocs.openshift.io/openshift-storage를 추가하고 저장을 클릭합니다.
-
새 노드의 Action Menu(작업 메뉴)
- 명령줄 인터페이스에서
- 다음 명령을 실행하여 OpenShift Container Storage 레이블을 새 노드에 적용합니다.
$ oc label node <new_node_name> cluster.ocs.openshift.io/openshift-storage=""
OpenShift 로컬 스토리지 Operator가 설치된 네임스페이스를 확인하고
local_storage_project변수에 할당합니다.$ local_storage_project=$(oc get csv --all-namespaces | awk '{print $1}' | grep local)예를 들어 다음과 같습니다.
$ local_storage_project=$(oc get csv --all-namespaces | awk '{print $1}' | grep local) echo $local_storage_project openshift-local-storage새 작업자 노드에서 사용 가능한 로컬 스토리지 장치를 OpenShift Container StorageCluster에 추가합니다.
새 디스크 항목을 LocalVolume CR에 추가합니다.
LocalVolumeCR을 편집합니다./dev/disk/by-id/{id}장치를 제거하거나 주석 처리하고 새/dev/disk/by-id/{id}를 추가할 수 있습니다.$ oc get -n $local_storage_project localvolume출력 예:
NAME AGE local-block 25h$ oc edit -n $local_storage_project localvolume local-block출력 예:
[...] storageClassDevices: - devicePaths: - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS10382E5D7441494EC - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS1F45C01D7E84FE3E9 - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS136BC945B4ECB9AE4 - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS10382E5D7441464EP # - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS1F45C01D7E84F43E7 # - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS136BC945B4ECB9AE8 - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS6F45C01D7E84FE3E9 - /dev/disk/by-id/nvme-Amazon_EC2_NVMe_Instance_Storage_AWS636BC945B4ECB9AE4 storageClassName: localblock volumeMode: Block [...]CR을 편집한 후 변경 사항을 저장해야 합니다.
이 CR에서 by-id를 사용하는 두 개의 새 장치가 추가된 것을 확인할 수 있습니다.
-
nvme-Amazon_EC2_NVMe_Instance_Storage_AWS6F45C01D7E84FE3E9 -
nvme-Amazon_EC2_NVMe_Instance_Storage_AWS636BC945B4ECB9AE4
-
로컬 블록으로PV를 표시합니다.$ oc get pv | grep localblock출력 예:
local-pv-3646185e 2328Gi RWO Delete Available localblock 9s local-pv-3933e86 2328Gi RWO Delete Bound openshift-storage/ocs-deviceset-2-1-v9jp4 localblock 5h1m local-pv-8176b2bf 2328Gi RWO Delete Bound openshift-storage/ocs-deviceset-0-0-nvs68 localblock 5h1m local-pv-ab7cabb3 2328Gi RWO Delete Available localblock 9s local-pv-ac52e8a 2328Gi RWO Delete Bound openshift-storage/ocs-deviceset-1-0-knrgr localblock 5h1m local-pv-b7e6fd37 2328Gi RWO Delete Bound openshift-storage/ocs-deviceset-2-0-rdm7m localblock 5h1m local-pv-cb454338 2328Gi RWO Delete Bound openshift-storage/ocs-deviceset-0-1-h9hfm localblock 5h1m local-pv-da5e3175 2328Gi RWO Delete Bound openshift-storage/ocs-deviceset-1-1-g97lq localblock 5h ...
장애가 발생한 노드와 연결된 스토리지 리소스를 삭제합니다.
교체할 OSD와 연결된 DeviceSet을 식별합니다.
$ osd_id_to_remove=0 $ oc get -n openshift-storage -o yaml deployment rook-ceph-osd-${osd_id_to_remove} | grep ceph.rook.io/pvc여기서
osd_id_to_remove는rook-ceph-osd접두사 바로 뒤의 Pod 이름의 정수입니다. 이 예에서 배포 이름은rook-ceph-osd-0입니다.출력 예:
ceph.rook.io/pvc: ocs-deviceset-0-0-nvs68 ceph.rook.io/pvc: ocs-deviceset-0-0-nvs68PVC와 연결된 PV를 확인합니다.
$ oc get -n openshift-storage pvc ocs-deviceset-<x>-<y>-<pvc-suffix>여기서
x,y,pvc-suffix는 이전 단계에서 식별되는 DeviceSet의 값입니다.출력 예:
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE ocs-deviceset-0-0-nvs68 Bound local-pv-8176b2bf 2328Gi RWO localblock 4h49m이 예에서 연결된 PV는
local-pv-8176b2bf입니다.openshift-storage프로젝트로 변경합니다.$ oc project openshift-storage클러스터에서 오류가 발생한 OSD를 제거합니다. 필요한 경우 실패한 OSD를 여러 개 지정할 수 있습니다.
$ oc process -n openshift-storage ocs-osd-removal -p FAILED_OSD_IDS=${osd_ids_to_remove} | oc create -f -ocs-osd-removal-job포드의 상태를 확인하여 OSD가 제거되었는지 확인합니다.Completed상태는 OSD 제거 작업이 성공했는지 확인합니다.# oc get pod -l job-name=ocs-osd-removal-job -n openshift-storage참고ocs-osd-removal-job이 실패하고 Pod가 예상Completed상태가 아닌 경우 Pod 로그에서 추가 디버깅을 확인합니다. 예를 들어 다음과 같습니다.# oc logs -l job-name=ocs-osd-removal-job -n openshift-storage이전 단계에서 확인한 PV를 삭제합니다. 이 예에서 PV 이름은
local-pv-8176b2bf입니다.$ oc delete pv local-pv-8176b2bf출력 예:
persistentvolume "local-pv-8176b2bf" deleted
이전 단계에서 확인한
크래시collectorPod 배포를 삭제합니다.$ oc delete deployment --selector=app=rook-ceph-crashcollector,node_name=<old_node_name> -n openshift-storageocs-osd-removal-job을 삭제합니다.# oc delete -n openshift-storage job ocs-osd-removal-job출력 예:
job.batch "ocs-osd-removal-job" deleted
검증 단계
다음 명령을 실행하고 새 노드가 출력에 있는지 확인합니다.
$ oc get nodes --show-labels | grep cluster.ocs.openshift.io/openshift-storage= |cut -d' ' -f1워크로드
Pod 를 클릭하여 새 노드의 다음 Pod가 실행 중 상태인지 확인합니다. -
csi-cephfsplugin-* -
csi-rbdplugin-*
-
기타 모든 필수 OpenShift Container Storage Pod가 Running 상태인지 확인합니다.
또한 새로운 증분식 mon 이 생성되고 Running 상태인지 확인합니다.
$ oc get pod -n openshift-storage | grep mon출력 예:
rook-ceph-mon-a-64556f7659-c2ngc 1/1 Running 0 5h1m rook-ceph-mon-b-7c8b74dc4d-tt6hd 1/1 Running 0 5h1m rook-ceph-mon-d-57fb8c657-wg5f2 1/1 Running 0 27mOSD 및 mon의 경우 Running 상태가 되는 데 몇 분이 걸릴 수 있습니다.
새 OSD pod가 교체 노드에서 실행되고 있는지 확인합니다.
$ oc get pods -o wide -n openshift-storage| egrep -i new-node-name | egrep osd(선택 사항) 클러스터에서 클러스터 전체 암호화가 활성화된 경우 새 OSD 장치가 암호화되었는지 확인합니다.
이전 단계에서 식별한 각 새 노드에 대해 다음을 수행합니다.
디버그 Pod를 만들고 선택한 호스트에 대해 chroot 환경을 엽니다.
$ oc debug node/<node name> $ chroot /host"lsblk"를 실행하고
ocs-deviceset이름 옆에 있는 "crypt" 키워드가 있는지 확인합니다.$ lsblk
- 확인 단계에 실패하는 경우 Red Hat 지원팀에 문의하십시오.