15.2. Ceph Storage 노드 축소 및 교체


Ceph Storage 클러스터를 축소하거나 Ceph Storage 노드를 교체해야 하는 경우도 있습니다. 두 경우 모두 데이터 손실을 방지하기 위해 오버클라우드에서 삭제하려는 Ceph Storage 노드를 비활성화하고 재조정해야 합니다.

프로세스

Ceph Storage 클러스터에 OSD를 손실할 수 있는 용량이 없는 경우 이 절차를 진행하지 마십시오.

  1. 오버클라우드 컨트롤러 노드에 tripleo-admin 사용자로 로그인합니다.
  2. sudo cephadm shell 명령을 사용하여 Ceph 쉘을 시작합니다.
  3. ceph osd tree 명령을 사용하여 서버에서 제거할 OSD를 식별합니다.

    다음 예제에서는 ceph-2 호스트의 OSD를 식별하려고 합니다.

    [ceph: root@oc0-controller-0 /]# ceph osd tree
    ID  CLASS  WEIGHT   TYPE NAME            STATUS  REWEIGHT  PRI-AFF
    -1         0.58557  root default
    -7         0.19519  host ceph-2
     5    hdd  0.04880       osd.5           up      1.00000  1.00000
     7    hdd  0.04880       osd.7           up      1.00000  1.00000
     9    hdd  0.04880       osd.9           up      1.00000  1.00000
    11    hdd  0.04880       osd.11          up      1.00000  1.00000
    Copy to Clipboard Toggle word wrap
  4. Ceph 클러스터 사양을 YAML 파일로 내보냅니다.

    [ceph: root@oc0-controller-0 /]# ceph orch ls --export > spec.yml
    Copy to Clipboard Toggle word wrap
  5. 적용 가능한 호스트가 service-type: osd 호스트 목록에서 제거되고 해당 호스트에 placement: hosts 값이 제거되도록 내보낸 사양 파일을 편집합니다.
  6. 편집한 파일을 저장합니다.
  7. 수정된 Ceph 사양 파일을 적용합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch apply -i spec.yml
    Copy to Clipboard Toggle word wrap
    중요

    OSD를 제거하기 전에 Ceph 사양 파일을 내보내고 편집하지 않으면 Ceph Manager에서 OSD를 다시 생성합니다.

  8. ceph orch osd rm --zap <osd_list > 명령을 사용하여 OSD를 제거합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch osd rm --zap 5 7 9 11
    Scheduled OSD(s) for removal
    [ceph: root@oc0-controller-0 /]# ceph orch osd rm status
    OSD_ID HOST   STATE    PG_COUNT REPLACE  FORCE  DRAIN_STARTED_AT
    7      ceph-2 draining 27       False    False  2021-04-23 21:35:51.215361
    9      ceph-2 draining 8        False    False  2021-04-23 21:35:49.111500
    11     ceph-2 draining 14       False    False  2021-04-23 21:35:50.243762
    Copy to Clipboard Toggle word wrap
  9. ceph orch osd status 명령을 사용하여 OSD 제거 상태를 확인합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch osd rm status
    OSD_ID HOST   STATE    PG_COUNT REPLACE FORCE DRAIN_STARTED_AT
    7      ceph-2 draining 34       False   False 2021-04-23 21:35:51.215361
    11     ceph-2 draining 14       False   False 2021-04-23 21:35:50.243762
    Copy to Clipboard Toggle word wrap
    주의

    이 명령에서 결과를 반환하지 않을 때까지 다음 단계를 진행하지 마십시오.

  10. ceph orch host drain <HOST> 명령을 사용하여 나머지 데몬을 드레이닝합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch host drain ceph-2
    Copy to Clipboard Toggle word wrap
  11. ceph orch host rm <HOST&gt; 명령을 사용하여 호스트를 제거합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch host rm ceph-2
    Copy to Clipboard Toggle word wrap
  12. Ceph 쉘 세션을 종료합니다.
  13. tripleo-admin 계정에서 로그아웃합니다.
  14. stack 사용자로 언더클라우드 노드에 로그인합니다.
  15. 다음과 같은 방법으로 ~/overcloud-baremetal-deploy.yaml 을 수정합니다.

    • 축소할 역할의 count 속성을 줄입니다.
    • 프로비저닝 해제 중인 각 노드의 instances 항목을 추가합니다. 각 항목에는 다음이 포함되어야 합니다.

      • baremetal 노드의 이름입니다.
      • 해당 노드에 할당된 호스트 이름입니다.
      • 프로비저닝: false value.

        다음 예제에서는 overcloud-compute-1 노드를 삭제합니다.

        - name: Compute
          count: 1
          instances:
          - hostname: overcloud-compute-0
            name: node10
            # Removed from deployment due to disk failure
            provisioned: false
          - hostname: overcloud-compute-1
            name: node11
        Copy to Clipboard Toggle word wrap
  16. openstack overcloud node delete 명령을 사용하여 노드를 삭제합니다.

    openstack overcloud node delete \
    --stack overcloud \
    --baremetal-deployment ~/overcloud-baremetal-deploy.yaml
    Copy to Clipboard Toggle word wrap
    참고

    삭제할 노드 목록에 노드가 삭제되기 전에 확인 프롬프트가 제공됩니다.

참고

Ceph 클러스터를 축소하면 노드가 나중에 복원되고 노드가 나중에 복원되면 확장 작업을 늘리며 이전에 provisioned: false 를 설정한 노드에서 provisioned: true 를 설정할 수 있습니다. 노드를 재사용하지 않으면 provisioned: false 를 무기한 설정하고 확장 작업을 수행하면 새 인스턴스 항목을 지정할 수 있습니다.

+ 다음 파일 샘플은 각 인스턴스의 몇 가지 예를 제공합니다.

+

- name: Compute
  count: 2
  instances:
  - hostname: overcloud-compute-0
    name: node10
    # Removed from deployment due to disk failure
    provisioned: false
  - hostname: overcloud-compute-1
    name: node11
  - hostname: overcloud-compute-2
    name: node12
Copy to Clipboard Toggle word wrap
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat