2.3. ECDHE의 Ceph OSD


OSD에 대한ECDHE 계층 구조가 있으면 OSD를ECDHE 계층 구조에 추가합니다. 기존 계층에서 OSD를 이동하거나 제거할 수도 있습니다. Ceph CLI 사용량에는 다음과 같은 값이 있습니다.

id
설명
OSD의 숫자 ID입니다.
유형
정수
필수 항목
제공됨
예제
0
name
설명
OSD의 전체 이름입니다.
유형
문자열
필수 항목
제공됨
예제
osd.0
가중치
설명
OSD의 weight입니다.
유형
double
필수 항목
제공됨
예제
2.0
root
설명
OSD가 상주하는 계층 또는 트리의 루트 버킷 이름입니다.
유형
키-값 쌍입니다.
필수 항목
제공됨
예제
root=default,root=replicated_rule
bucket-type
설명
하나 이상의 이름-값 쌍입니다. 여기서 name은 버킷 유형이고 값은 버킷의 이름입니다. DestinationRule 계층 구조에서 OSD의 location을 지정할 수 있습니다.
유형
키-값 쌍입니다.
필수 항목
없음
예제
datacenter=dc1 room=room1 row=foo rack=bar host=foo-bar-1

2.3.1. ECDHE에서 OSD 보기

ceph osd crush tree 명령은 DestinationRule 버킷과 트리 보기의 항목을 출력합니다. 이 명령을 사용하여 특정 버킷의 OSD 목록을 확인합니다. ceph osd 트리 와 유사한 출력을 출력합니다.

추가 세부 정보를 반환하려면 다음을 실행합니다.

# ceph osd crush tree -f json-pretty
Copy to Clipboard Toggle word wrap

명령은 다음과 유사한 출력을 반환합니다.

[
    {
        "id": -2,
        "name": "ssd",
        "type": "root",
        "type_id": 10,
        "items": [
            {
                "id": -6,
                "name": "dell-per630-11-ssd",
                "type": "host",
                "type_id": 1,
                "items": [
                    {
                        "id": 6,
                        "name": "osd.6",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.099991,
                        "depth": 2
                    }
                ]
            },
            {
                "id": -7,
                "name": "dell-per630-12-ssd",
                "type": "host",
                "type_id": 1,
                "items": [
                    {
                        "id": 7,
                        "name": "osd.7",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.099991,
                        "depth": 2
                    }
                ]
            },
            {
                "id": -8,
                "name": "dell-per630-13-ssd",
                "type": "host",
                "type_id": 1,
                "items": [
                    {
                        "id": 8,
                        "name": "osd.8",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.099991,
                        "depth": 2
                    }
                ]
            }
        ]
    },
    {
        "id": -1,
        "name": "default",
        "type": "root",
        "type_id": 10,
        "items": [
            {
                "id": -3,
                "name": "dell-per630-11",
                "type": "host",
                "type_id": 1,
                "items": [
                    {
                        "id": 0,
                        "name": "osd.0",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.449997,
                        "depth": 2
                    },
                    {
                        "id": 3,
                        "name": "osd.3",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.289993,
                        "depth": 2
                    }
                ]
            },
            {
                "id": -4,
                "name": "dell-per630-12",
                "type": "host",
                "type_id": 1,
                "items": [
                    {
                        "id": 1,
                        "name": "osd.1",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.449997,
                        "depth": 2
                    },
                    {
                        "id": 4,
                        "name": "osd.4",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.289993,
                        "depth": 2
                    }
                ]
            },
            {
                "id": -5,
                "name": "dell-per630-13",
                "type": "host",
                "type_id": 1,
                "items": [
                    {
                        "id": 2,
                        "name": "osd.2",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.449997,
                        "depth": 2
                    },
                    {
                        "id": 5,
                        "name": "osd.5",
                        "type": "osd",
                        "type_id": 0,
                        "crush_weight": 0.289993,
                        "depth": 2
                    }
                ]
            }
        ]
    }
]
Copy to Clipboard Toggle word wrap

2.3.2. DestinationRule에 OSD 추가

OSD를 시작하고 Ceph에서 배치 그룹을 OSD 할당하기 전에 FlexVolume 계층에 Ceph OSD 추가하는 것이 최종 단계입니다.

Ceph OSD를 FlexVolume 계층 구조에 추가하기 전에 준비해야 합니다. Ceph Orchestrator와 같은 배포 유틸리티는 이 단계를 수행할 수 있습니다. 예를 들어 단일 노드에 Ceph OSD를 생성합니다.

구문

ceph orch daemon add osd HOST:_DEVICE_,[DEVICE]
Copy to Clipboard Toggle word wrap

FlexVolume 계층 구조는 개념적이므로 ceph osd crush add 명령을 사용하면 원하는 위치에 OSD를 DestinationRule 계층에 추가할 수 있습니다. 지정하는 위치는 실제 위치를 반영해야 합니다. 하나 이상의 버킷을 지정하면 명령에서 지정한 가장 구체적인 버킷에 OSD를 배치하고 지정한 다른 버킷 아래 해당 버킷을 이동합니다.

OSD를ECDHE 계층 구조에 추가하려면 다음을 수행합니다.

구문

ceph osd crush add ID_OR_NAME WEIGHT [BUCKET_TYPE=BUCKET_NAME ...]
Copy to Clipboard Toggle word wrap

중요

루트 버킷만 지정하면 명령에서 OSD를 루트에 직접 연결합니다. 그러나ECDHE 규칙은 OSD가 호스트 또는 섀시 내부에 있을 것으로 예상하고, 호스트 또는 섀시는 클러스터 토폴로지를 반영하는 다른 버킷의 내부에 있어야 합니다.

다음 예제에서는 osd.0 을 계층에 추가합니다.

ceph osd crush add osd.0 1.0 root=default datacenter=dc1 room=room1 row=foo rack=bar host=foo-bar-1
Copy to Clipboard Toggle word wrap
참고

ceph osd crush set 또는 ceph osd crush create-or-move 를 사용하여 OSD를 DestinationRule 계층 구조에 추가할 수도 있습니다.

2.3.3. DestinationRule 계층 구조 내에서 OSD 이동

스토리지 클러스터 토폴로지가 변경되면 DestinationRule 계층 구조에서 OSD를 이동하여 실제 위치를 반영할 수 있습니다.

중요

ECDHE 계층 구조에서 OSD를 이동하면 Ceph에서 OSD에 할당되는 배치 그룹을 다시 계산하여 데이터가 크게 다시 배포될 수 있습니다.

DestinationRule 계층 내에서 OSD를 이동하려면 다음을 수행합니다.

구문

ceph osd crush set ID_OR_NAME WEIGHT root=POOL_NAME  [BUCKET_TYPE=BUCKET_NAME...]
Copy to Clipboard Toggle word wrap

참고

ceph osd crush create-or-move 를 사용하여 DestinationRule 계층 내에서 OSD를 이동할 수도 있습니다.

2.3.4. DestinationRule 계층에서 OSD 제거

ECDHE 계층에서 OSD를 제거하는 것이 클러스터에서 OSD를 제거하려는 경우 첫 번째 단계입니다. ECDHE 맵에서 OSD를 제거하면 DestinationRule은 배치 그룹 및 데이터를 적절하게 재조정하는 OSD를 다시 계산합니다. 자세한 내용은 OSD 추가/제거를 참조하십시오.

실행 중인 클러스터의 DestinationRule 맵에서 OSD를 제거하려면 다음을 실행합니다.

구문

ceph osd crush remove NAME
Copy to Clipboard Toggle word wrap

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat