2.3. ECDHE의 Ceph OSD
OSD에 대한ECDHE 계층 구조가 있으면 OSD를ECDHE 계층 구조에 추가합니다. 기존 계층에서 OSD를 이동하거나 제거할 수도 있습니다. Ceph CLI 사용량에는 다음과 같은 값이 있습니다.
- id
- 설명
- OSD의 숫자 ID입니다.
- 유형
- 정수
- 필수 항목
- 제공됨
- 예제
-
0
- name
- 설명
- OSD의 전체 이름입니다.
- 유형
- 문자열
- 필수 항목
- 제공됨
- 예제
-
osd.0
- 가중치
- 설명
- OSD의 weight입니다.
- 유형
- double
- 필수 항목
- 제공됨
- 예제
-
2.0
- root
- 설명
- OSD가 상주하는 계층 또는 트리의 루트 버킷 이름입니다.
- 유형
- 키-값 쌍입니다.
- 필수 항목
- 제공됨
- 예제
-
root=default,root=replicated_rule등
- bucket-type
- 설명
- 하나 이상의 이름-값 쌍입니다. 여기서 name은 버킷 유형이고 값은 버킷의 이름입니다. DestinationRule 계층 구조에서 OSD의 location을 지정할 수 있습니다.
- 유형
- 키-값 쌍입니다.
- 필수 항목
- 없음
- 예제
-
datacenter=dc1 room=room1 row=foo rack=bar host=foo-bar-1
2.3.1. ECDHE에서 OSD 보기 링크 복사링크가 클립보드에 복사되었습니다!
ceph osd crush tree 명령은 DestinationRule 버킷과 트리 보기의 항목을 출력합니다. 이 명령을 사용하여 특정 버킷의 OSD 목록을 확인합니다. ceph osd 트리 와 유사한 출력을 출력합니다.
추가 세부 정보를 반환하려면 다음을 실행합니다.
ceph osd crush tree -f json-pretty
# ceph osd crush tree -f json-pretty
명령은 다음과 유사한 출력을 반환합니다.
2.3.2. DestinationRule에 OSD 추가 링크 복사링크가 클립보드에 복사되었습니다!
OSD를 시작하고 Ceph에서 배치 그룹을 OSD 에할당하기 전에 FlexVolume 계층에 Ceph OSD 를 추가하는 것이 최종 단계입니다.
Ceph OSD를 FlexVolume 계층 구조에 추가하기 전에 준비해야 합니다. Ceph Orchestrator와 같은 배포 유틸리티는 이 단계를 수행할 수 있습니다. 예를 들어 단일 노드에 Ceph OSD를 생성합니다.
구문
ceph orch daemon add osd HOST:_DEVICE_,[DEVICE]
ceph orch daemon add osd HOST:_DEVICE_,[DEVICE]
FlexVolume 계층 구조는 개념적이므로 ceph osd crush add 명령을 사용하면 원하는 위치에 OSD를 DestinationRule 계층에 추가할 수 있습니다. 지정하는 위치는 실제 위치를 반영해야 합니다. 하나 이상의 버킷을 지정하면 명령에서 지정한 가장 구체적인 버킷에 OSD를 배치하고 지정한 다른 버킷 아래 해당 버킷을 이동합니다.
OSD를ECDHE 계층 구조에 추가하려면 다음을 수행합니다.
구문
ceph osd crush add ID_OR_NAME WEIGHT [BUCKET_TYPE=BUCKET_NAME ...]
ceph osd crush add ID_OR_NAME WEIGHT [BUCKET_TYPE=BUCKET_NAME ...]
루트 버킷만 지정하면 명령에서 OSD를 루트에 직접 연결합니다. 그러나ECDHE 규칙은 OSD가 호스트 또는 섀시 내부에 있을 것으로 예상하고, 호스트 또는 섀시는 클러스터 토폴로지를 반영하는 다른 버킷의 내부에 있어야 합니다.
다음 예제에서는 osd.0 을 계층에 추가합니다.
ceph osd crush add osd.0 1.0 root=default datacenter=dc1 room=room1 row=foo rack=bar host=foo-bar-1
ceph osd crush add osd.0 1.0 root=default datacenter=dc1 room=room1 row=foo rack=bar host=foo-bar-1
ceph osd crush set 또는 ceph osd crush create-or-move 를 사용하여 OSD를 DestinationRule 계층 구조에 추가할 수도 있습니다.
2.3.3. DestinationRule 계층 구조 내에서 OSD 이동 링크 복사링크가 클립보드에 복사되었습니다!
스토리지 클러스터 토폴로지가 변경되면 DestinationRule 계층 구조에서 OSD를 이동하여 실제 위치를 반영할 수 있습니다.
ECDHE 계층 구조에서 OSD를 이동하면 Ceph에서 OSD에 할당되는 배치 그룹을 다시 계산하여 데이터가 크게 다시 배포될 수 있습니다.
DestinationRule 계층 내에서 OSD를 이동하려면 다음을 수행합니다.
구문
ceph osd crush set ID_OR_NAME WEIGHT root=POOL_NAME [BUCKET_TYPE=BUCKET_NAME...]
ceph osd crush set ID_OR_NAME WEIGHT root=POOL_NAME [BUCKET_TYPE=BUCKET_NAME...]
ceph osd crush create-or-move 를 사용하여 DestinationRule 계층 내에서 OSD를 이동할 수도 있습니다.
2.3.4. DestinationRule 계층에서 OSD 제거 링크 복사링크가 클립보드에 복사되었습니다!
ECDHE 계층에서 OSD를 제거하는 것이 클러스터에서 OSD를 제거하려는 경우 첫 번째 단계입니다. ECDHE 맵에서 OSD를 제거하면 DestinationRule은 배치 그룹 및 데이터를 적절하게 재조정하는 OSD를 다시 계산합니다. 자세한 내용은 OSD 추가/제거를 참조하십시오.
실행 중인 클러스터의 DestinationRule 맵에서 OSD를 제거하려면 다음을 실행합니다.
구문
ceph osd crush remove NAME
ceph osd crush remove NAME