15.2. Red Hat Ceph Storage 노드 축소 및 교체


경우에 따라 Red Hat Ceph Storage 클러스터를 축소하거나 Red Hat Ceph Storage 노드를 교체해야 할 수 있습니다. 두 경우 모두 데이터 손실을 방지하기 위해 오버클라우드에서 삭제하려는 Red Hat Ceph Storage 노드를 비활성화하고 재조정해야 합니다.

프로세스

Red Hat Ceph Storage 클러스터에 OSD 손실 용량이 없는 경우 이 절차를 진행하지 마십시오.

  1. 오버클라우드 컨트롤러 노드에 tripleo-admin 사용자로 로그인합니다.
  2. sudo cephadm shell 명령을 사용하여 Ceph 쉘을 시작합니다.
  3. ceph osd tree 명령을 사용하여 서버에서 제거할 OSD를 식별합니다.

    다음 예제에서는 ceph-2 호스트의 OSD를 식별하려고 합니다.

    [ceph: root@oc0-controller-0 /]# ceph osd tree
    ID  CLASS  WEIGHT   TYPE NAME            STATUS  REWEIGHT  PRI-AFF
    -1         0.58557  root default
    -7         0.19519  host ceph-2
     5    hdd  0.04880       osd.5           up      1.00000  1.00000
     7    hdd  0.04880       osd.7           up      1.00000  1.00000
     9    hdd  0.04880       osd.9           up      1.00000  1.00000
    11    hdd  0.04880       osd.11          up      1.00000  1.00000
  4. cephadm 쉘 종료
  5. Ceph 클러스터 사양을 YAML 파일로 내보냅니다.

    $ sudo cephadm shell -- ceph orch ls --export > spec.yaml
  6. 이전 단계에서 내보낸 사양 파일을 편집합니다. spec.yaml 파일의 placement:hosts 섹션에서 축소된 노드의 모든 항목을 제거합니다.
  7. 편집한 파일을 저장합니다.
  8. 수정된 Ceph 사양 파일을 적용합니다.

    $ sudo cephadm shell -m spec.yaml -- ceph orch apply -i /mnt/spec.yaml
    중요

    OSD를 제거하기 전에 Ceph 사양 파일을 내보내고 편집하지 않으면 Ceph Manager에서 OSD를 다시 생성합니다.

  9. sudo cephadm shell 명령을 사용하여 Ceph 쉘을 시작합니다.
  10. ceph orch osd rm --zap <osd_list > 명령을 사용하여 OSD를 제거합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch osd rm --zap 5 7 9 11
    Scheduled OSD(s) for removal
    [ceph: root@oc0-controller-0 /]# ceph orch osd rm status
    OSD_ID HOST   STATE    PG_COUNT REPLACE  FORCE  DRAIN_STARTED_AT
    7      ceph-2 draining 27       False    False  2021-04-23 21:35:51.215361
    9      ceph-2 draining 8        False    False  2021-04-23 21:35:49.111500
    11     ceph-2 draining 14       False    False  2021-04-23 21:35:50.243762
  11. ceph orch osd status 명령을 사용하여 OSD 제거 상태를 확인합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch osd rm status
    OSD_ID HOST   STATE    PG_COUNT REPLACE FORCE DRAIN_STARTED_AT
    7      ceph-2 draining 34       False   False 2021-04-23 21:35:51.215361
    11     ceph-2 draining 14       False   False 2021-04-23 21:35:50.243762
    주의

    이 명령에서 결과를 반환하지 않을 때까지 다음 단계를 진행하지 마십시오.

  12. ceph orch host drain <HOST> 명령을 사용하여 나머지 데몬을 드레이닝합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch host drain ceph-2
  13. ceph orch host rm <HOST&gt; 명령을 사용하여 호스트를 제거합니다.

    [ceph: root@oc0-controller-0 /]# ceph orch host rm ceph-2
    참고

    이 노드는 더 이상 Ceph 클러스터에서 사용되지 않지만 director에서 베어 메탈 노드로 관리합니다.

  14. Ceph 쉘 세션을 종료합니다.

    참고

    Ceph 클러스터를 축소하면 노드가 나중에 복원되고 노드가 나중에 복원되면 확장 작업을 늘리며 이전에 provisioned: false 를 설정한 노드에서 provisioned: true 를 설정할 수 있습니다. 노드를 재사용하지 않으면 provisioned: false 를 무기한 설정하고 확장 작업을 수행하면 새 인스턴스 항목을 지정할 수 있습니다.

    다음 파일 샘플은 각 인스턴스의 몇 가지 예를 제공합니다.

    - name: Compute
      count: 2
      instances:
      - hostname: overcloud-compute-0
        name: node10
        # Removed from deployment due to disk failure
        provisioned: false
      - hostname: overcloud-compute-1
        name: node11
      - hostname: overcloud-compute-2
        name: node12
  15. director에서 노드를 삭제하려면 director를 사용하여 Red Hat OpenStack Platform 설치 및 관리에서 베어 메탈 노드 축소 참조하십시오.
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat
맨 위로 이동