5.5. 세 개의 가용성 영역을 사용하여 OSD 호스트 추가


일반 크기의 확장 클러스터에서 세 개의 가용성 영역이 있는 Ceph OSD를 추가할 수 있습니다. 이 절차는 일반 크기 확장 클러스터가 활성화되지 않은 클러스터에서 OSD 호스트를 추가하는 것과 유사합니다. 자세한 내용은 Red Hat Ceph Storage 설치 가이드에서 OSD 추가 를 참조하십시오.

사전 요구 사항

시작하기 전에 * Red Hat Ceph Storage 클러스터를 실행 중인 다음과 같은 사전 요구 사항이 있는지 확인하십시오. * 클러스터에서 3개의 가용성 영역이 활성화되어 있습니다. 자세한 내용은 풀에서 세 개의 가용성 영역 활성화를 참조하십시오. * 노드에 대한 루트 수준 액세스.

프로세스

  1. admin 인증 키가 포함된 노드에서 스토리지 클러스터의 공개 SSH 키를 새 호스트의 root 사용자의 authorized_keys 파일에 설치합니다.

    구문

    ssh-copy-id -f -i /etc/ceph/ceph.pub user@NEWHOST

    [ceph: root@host10 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host11
    [ceph: root@host10 /]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@host12

  2. 선택 사항: ceph orch host ls 명령을 사용하여 스토리지 클러스터의 상태와 각 새 호스트가 추가되었는지 확인합니다. 새 호스트가 추가되었으며 출력에 각 호스트의 Status 가 비어 있는지 확인합니다.
  3. OSD를 배포할 사용 가능한 장치를 나열합니다.

    다음 방법 중 하나로 배포합니다.

    • 특정 호스트의 특정 장치에서 OSD를 생성합니다.

      구문

      ceph orch daemon add osd _HOST_:_DEVICE_PATH_

      [ceph: root@host10 /]# ceph orch daemon add osd host11:/dev/sdb

    • 사용 가능한 사용되지 않는 장치에 OSD를 배포합니다.

      중요

      이 명령은 배치된 WAL 및 DB 장치를 생성합니다. 공동 배치되지 않은 장치를 생성하려면 이 명령을 사용하지 마십시오.

      구문

      ceph orch apply osd --all-available-devices

  4. CRUSH 버킷 아래에 OSD 호스트를 이동합니다.

    구문

    ceph osd crush move HOST datacenter=DATACENTER

    [ceph: root@host10 /]# ceph osd crush move host10 datacenter=DC1
    [ceph: root@host10 /]# ceph osd crush move host11 datacenter=DC2
    [ceph: root@host10 /]# ceph osd crush move host12 datacenter=DC3

    참고

    모든 사이트에 동일한 토폴로지 노드를 추가해야 합니다. 호스트가 한 사이트에만 추가되면 문제가 발생할 수 있습니다.

검증

ceph osd tree 명령을 사용하여 모든 호스트가 할당된 데이터 센터로 이동되었는지 확인합니다.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.