2.2. ECDHE 계층 구조
DestinationRule 맵은 지시된 사이클릭 그래프이므로 여러 계층(예: 성능 도메인)을 수용할 수 있습니다. FlexVolume 계층 구조를 만들고 수정하는 가장 쉬운 방법은 Ceph CLI를 사용하는 것입니다. 그러나ECDHE 맵을 컴파일하고 편집하고, 다시 컴파일하고, 활성화할 수도 있습니다.
Ceph CLI를 사용하여 버킷 인스턴스를 선언할 때 유형을 지정하고 고유한 문자열 이름을 지정해야 합니다. Ceph는 버킷 ID를 자동으로 할당하고 알고리즘을 straw2 로 설정하고, 해시를 rjenkins1 을 반영하는 0 으로 설정하고, 가중치를 설정합니다. deECDHE map을 수정할 때 버킷에 음수 정수(선택 사항)로 표시된 고유 ID를 할당하고, 해당 항목의 총 용량/capability에 대한 가중치를 지정하고 버킷 알고리즘(일반적으로 straw2)을 지정하고 해시 알고리즘(일반적으로 0, 해시 알고리즘 rjenkins1을 반영합니다)을 지정합니다.
버킷에는 하나 이상의 항목이 있을 수 있습니다. 항목은 노드 버킷(예: 랙, 행, 호스트)으로 구성되거나(예: OSD 디스크)가 될 수 있습니다. 항목은 항목의 상대적 가중치를 반영하는 가중치를 가질 수 있습니다.
deECDHE map을 수정할 때 다음 구문으로 노드 버킷을 선언할 수 있습니다.
예를 들어 위의 다이어그램을 사용하여 두 개의 호스트 버킷과 하나의 랙 버킷을 정의합니다. OSD는 호스트 버킷 내의 항목으로 선언됩니다.
앞의 예에서 랙 버킷에는 OSD가 포함되어 있지 않습니다. 오히려 더 낮은 수준의 호스트 버킷을 포함하고 있으며 항목 항목의 총 가중치 합계를 포함합니다.
2.2.1. ECDHE 위치 링크 복사링크가 클립보드에 복사되었습니다!
location은 FlexVolume 맵의 계층 구조 측면에서 OSD의 위치입니다. 명령줄 인터페이스에서 location on the command line을 나타내는 경우, aECDHE location0:0은 OSD의 위치를 설명하는 이름/값 쌍의 목록을 사용합니다. 예를 들어 OSD가 특정 행, 랙, 섀시 및 호스트에 있고 기본 ECDHE 트리의 일부인 경우 해당 crush 위치를 다음과 같이 설명할 수 있습니다.
root=default row=a rack=a2 chassis=a2a host=a2a1
root=default row=a rack=a2 chassis=a2a host=a2a1
참고:
- 키 순서는 중요하지 않습니다.
-
키 이름(left of
=)은 유효한ECDHE유형여야 합니다. 기본적으로루트,데이터 센터,공간,행,Pod, Pdu랙,섀시및호스트가포함됩니다. DestinationRule 맵을 편집하여 필요에 맞게 유형을 변경할 수 있습니다. -
모든 버킷/키를 지정할 필요는 없습니다. 예를 들어 기본적으로 Ceph는
ceph-osd데몬의 위치를root=default host={HOSTNAME}(hostname -s의 출력에 따라)로 자동으로 설정합니다.
2.2.2. 버킷 추가 링크 복사링크가 클립보드에 복사되었습니다!
bucket 인스턴스를ECDHE 계층 구조에 추가하려면 버킷 이름과 해당 유형을 지정합니다. 버킷 이름은 DestinationRule 맵에서 고유해야 합니다.
ceph osd crush add-bucket {name} {type}
ceph osd crush add-bucket {name} {type}
예를 들어 하드웨어 성능 프로필과 같이 여러 계층 구조를 사용하려는 경우 하드웨어 유형 또는 사용 사례에 따라 버킷 이름을 지정하는 것이 좋습니다.
예를 들어 솔리드 스테이트 드라이브(ssd), SSD 저널이 있는 SAS 디스크의 계층 구조, SATA 드라이브의 계층 구조()를 만들 수 있습니다.
hdd-journal
ceph osd crush add-bucket ssd-root root ceph osd crush add-bucket hdd-journal-root root ceph osd crush add-bucket hdd-root root
ceph osd crush add-bucket ssd-root root
ceph osd crush add-bucket hdd-journal-root root
ceph osd crush add-bucket hdd-root root
Ceph CLI 출력:
added bucket ssd-root type root to crush map added bucket hdd-journal-root type root to crush map added bucket hdd-root type root to crush map
added bucket ssd-root type root to crush map
added bucket hdd-journal-root type root to crush map
added bucket hdd-root type root to crush map
버킷 이름에 콜론(:)을 사용하는 것은 지원되지 않습니다.
계층에 필요한 각 버킷 유형의 인스턴스를 추가합니다. 다음 예제에서는 SSD 호스트 랙과 오브젝트 스토리지용 호스트 랙이 있는 행에 버킷을 추가하는 방법을 보여줍니다.
이 단계를 완료하면 트리를 봅니다.
ceph osd tree
ceph osd tree
계층 구조는 플랫으로 유지됩니다. 버킷을 DestinationRule 맵에 추가한 후 계층적 위치로 이동해야 합니다.
2.2.3. 버킷 이동 링크 복사링크가 클립보드에 복사되었습니다!
초기 클러스터를 생성할 때 Ceph에는 default 라는 루트 버킷이 있는 기본 DestinationRule 맵이 있으며 초기 OSD 호스트가 기본 버킷 아래에 표시됩니다. FlexVolume 맵에 버킷 인스턴스를 추가하면 DestinationRule 계층 구조에 표시되지만 특정 버킷 아래에는 표시되지 않습니다.
버킷 인스턴스를ECDHE 계층 구조의 특정 위치로 이동하려면 버킷 이름과 해당 유형을 지정합니다. 예를 들면 다음과 같습니다.
ceph osd crush move ssd-row1 root=ssd-root ceph osd crush move ssd-row1-rack1 row=ssd-row1 ceph osd crush move ssd-row1-rack1-host1 rack=ssd-row1-rack1 ceph osd crush move ssd-row1-rack1-host2 rack=ssd-row1-rack1
ceph osd crush move ssd-row1 root=ssd-root
ceph osd crush move ssd-row1-rack1 row=ssd-row1
ceph osd crush move ssd-row1-rack1-host1 rack=ssd-row1-rack1
ceph osd crush move ssd-row1-rack1-host2 rack=ssd-row1-rack1
이 단계를 완료하면 트리를 볼 수 있습니다.
ceph osd tree
ceph osd tree
ceph osd crush create-or-move 를 사용하여 OSD를 이동하는 동안 위치를 생성할 수도 있습니다.
2.2.4. 버킷 제거 링크 복사링크가 클립보드에 복사되었습니다!
DestinationRule 계층에서 버킷 인스턴스를 제거하려면 버킷 이름을 지정합니다. 예를 들면 다음과 같습니다.
ceph osd crush remove {bucket-name}
ceph osd crush remove {bucket-name}
또는 다음을 수행합니다.
ceph osd crush rm {bucket-name}
ceph osd crush rm {bucket-name}
이를 제거하려면 버킷이 비어 있어야 합니다.
상위 수준 버킷 (예: 기본)과 같은 루트를 제거하는 경우 풀에서 해당 버킷을 선택하는ECDHE 규칙을 사용하는지 확인하십시오. 그렇지 않으면 peering이 실패합니다.
2.2.5. DestinationRule Bucket 알고리즘 링크 복사링크가 클립보드에 복사되었습니다!
Ceph CLI를 사용하여 버킷을 생성할 때 Ceph는 기본적으로 알고리즘을 straw2 로 설정합니다. Ceph는 4개의 버킷 알고리즘을 지원하며 각 알고리즘은 성능과 재구성 효율성 간의 균형을 나타냅니다. 어떤 버킷 유형을 사용할지 확실하지 않은 경우 straw2 버킷을 사용하는 것이 좋습니다. 버킷 알고리즘은 다음과 같습니다.
-
Uniform buckets 집계 장치는 정확히 동일한 가중치를 갖습니다. 예를 들어, 가맹점 또는 해제 하드웨어의 경우 일반적으로 정확히 동일한 물리적 구성(예: 대량 구매)을 사용하는 여러 시스템에서 이러한 작업을 수행합니다. 스토리지 장치의 가중치가 정확히 동일한 경우
균일한버킷 유형을 사용할 수 있습니다. 이를 통해ECDHE에서 일정 시간 내에 복제본을 균일 버킷에 매핑할 수 있습니다. 고유하지 않은 가중치를 사용하면 다른 버킷 알고리즘을 사용해야 합니다. - list: 버킷을 연결된 목록으로 집계합니다. RUSH (Replication Under Scalable Hashing) P 알고리즘에 따라 목록은 확장 클러스터에 대한 자연스럽고 직관적 인 선택 사항입니다 : 어느 개체가 적절한 확률을 가진 최신 장치로 재배치되거나 이전 장치 위에 남아 있습니다. 버킷에 항목이 추가되면 최적의 데이터 마이그레이션을 수행할 수 있습니다. 그러나 목록의 중간 또는 테일에서 제거된 항목은 상당한 양의 불필요한 이동을 초래할 수 있으며, 목록 버킷이 전혀 없는 상황에 가장 적합하거나 거의 축소 되지 않도록 할 수 있습니다.
- tree: 트리 버킷은 바이너리 검색 트리를 사용합니다. 버킷에 더 큰 항목 세트가 포함된 경우 버킷을 나열하는 것보다 효율적입니다. RUSH (Replication Under Scalable Hashing) R 알고리즘에 따라 트리 버킷은 배치 시간을 0 (log n)으로 줄여 훨씬 더 큰 장치 또는 중첩된 버킷을 관리하는 데 적합합니다.
-
Straw2 (기본값): 목록 및 트리 버킷은 예를 들어 목록 시작 부분에 있는 항목 전체 하위 트리를 고려해야 하는 필요와 같은 특정 항목의 우선 순위를 지정하는 방식으로 분할 및 트리 버킷을 사용합니다. 이로 인해 복제본 배치 프로세스의 성능이 향상되지만 항목의 추가, 제거 또는 재중량으로 인해 버킷 내용이 변경될 때 잘못된 재구성 동작이 발생할 수도 있습니다.
straw2버킷 유형을 사용하면 모든 항목이 straws 추출과 유사한 프로세스를 통해 복제 배치를 위해 서로 상당히 "경로"할 수 있습니다.