5.3. 사양 파일을 사용하여 Ceph 클러스터 부트스트랩
spec 구성 파일을 사용하여 CRUSH 위치를 클러스터의 데몬으로 설정하여 일반화된 확장 클러스터를 배포합니다.
서비스 구성 파일을 사용하여 CRUSH 위치를 클러스터의 데몬으로 설정합니다. 구성 파일을 사용하여 배포 중에 적절한 위치에 호스트를 추가합니다.
Ceph 부트스트랩 및 다른 cephadm bootstrap
명령 옵션에 대한 자세한 내용은 Red Hat Ceph Storage 설치 가이드에서 새 스토리지 클러스터 부팅을 참조하십시오.
클러스터의 초기 모니터 노드가 될 노드에서 cephadm bootstrap
을 실행합니다. IP_ADDRESS
옵션은 cephadm bootstrap
을 실행하는 데 사용 중인 노드의 IP 주소여야 합니다.
- 스토리지 클러스터에 여러 네트워크와 인터페이스가 포함된 경우 스토리지 클러스터를 사용하는 모든 노드에서 액세스할 수 있는 네트워크를 선택해야 합니다.
-
IPV6 주소를 사용하여 스토리지 클러스터를 배포하려면
--mon-ip <IP_ADDRESS
> 옵션에 IPV6 주소 형식을 사용합니다. 예:cephadm bootstrap --mon-ip 2620:52:0:880:90ff:fefc:2536 --registry-json /etc/mylogin.json
. -
내부 클러스터 트래픽을 공용 네트워크를 통해 라우팅하려면
--cluster-network SUBNET
옵션을 생략합니다.
이 절차에서는 CIDR(Classless Inter-Domain Routing)을 서브넷 이라고 합니다.
사전 요구 사항
노드에 대한 루트 수준 액세스 권한이 있는지 확인합니다.
프로세스
서비스 구성 YAML 파일을 생성합니다. YAML 파일은 노드를 Red Hat Ceph Storage 클러스터에 추가하고 서비스가 실행되는 위치에 대한 특정 레이블도 설정합니다. 다음 예제는 필요한 특정 OSD 및 Ceph Object Gateway(RGW) 구성에 따라 다릅니다.
구문
Copy to Clipboard Copied! Toggle word wrap Toggle overflow OSD 및 Object Gateway의 사용자 지정 사양을 변경하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage 운영 가이드의 고급 서비스 사양을 사용하여 Ceph OSD 배포 지침을 참조하십시오. * Red Hat Ceph Storage Object Gateway 가이드의 서비스 사양을 사용하여 Ceph Object Gateway 배포.
--apply-spec
옵션을 사용하여 스토리지 클러스터를 부트스트랩합니다.구문
cephadm bootstrap --apply-spec CONFIGURATION_FILE_NAME --mon-ip MONITOR_IP_ADDRESS --ssh-private-key PRIVATE_KEY --ssh-public-key PUBLIC_KEY --registry-url REGISTRY_URL --registry-username USER_NAME --registry-password PASSWORD
cephadm bootstrap --apply-spec CONFIGURATION_FILE_NAME --mon-ip MONITOR_IP_ADDRESS --ssh-private-key PRIVATE_KEY --ssh-public-key PUBLIC_KEY --registry-url REGISTRY_URL --registry-username USER_NAME --registry-password PASSWORD
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
cephadm bootstrap --apply-spec initial-config.yaml --mon-ip 10.10.128.68 --ssh-private-key /home/ceph/.ssh/id_rsa --ssh-public-key /home/ceph/.ssh/id_rsa.pub --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1
[root@host01 ~]# cephadm bootstrap --apply-spec initial-config.yaml --mon-ip 10.10.128.68 --ssh-private-key /home/ceph/.ssh/id_rsa --ssh-public-key /home/ceph/.ssh/id_rsa.pub --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 중요cephadm bootstrap
명령과 함께 다른 명령 옵션을 사용할 수 있지만 항상--apply-spec
옵션을 포함하여 서비스 구성 파일을 사용하고 호스트 위치를 구성할 수 있습니다.cephadm
쉘에 로그인합니다.구문
cephadm shell
cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 서브넷을 사용하여 공용 네트워크를 구성합니다. 클러스터에 여러 공용 네트워크를 구성하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage 구성 가이드에서 클러스터에 여러 공용 네트워크 구성을 참조하십시오.
구문
ceph config set global public_network "SUBNET_1,SUBNET_2, ..."
ceph config set global public_network "SUBNET_1,SUBNET_2, ..."
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
[ceph: root@host01 /]# ceph config global mon public_network "10.0.208.0/22,10.0.212.0/22,10.0.64.0/22,10.0.56.0/22"
[ceph: root@host01 /]# ceph config global mon public_network "10.0.208.0/22,10.0.212.0/22,10.0.64.0/22,10.0.56.0/22"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 선택 사항: 클러스터 네트워크를 구성합니다. 클러스터에 여러 클러스터 네트워크를 구성하는 방법에 대한 자세한 내용은 Red Hat Ceph Storage 구성 가이드에서 프라이빗 네트워크구성을 참조하십시오.
구문
ceph config set global cluster_network "SUBNET_1,SUBNET_2, ..."
ceph config set global cluster_network "SUBNET_1,SUBNET_2, ..."
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
[ceph: root@host01 /]# ceph config set global cluster_network "10.0.208.0/22,10.0.212.0/22,10.0.64.0/22,10.0.56.0/22"
[ceph: root@host01 /]# ceph config set global cluster_network "10.0.208.0/22,10.0.212.0/22,10.0.64.0/22,10.0.56.0/22"
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 선택 사항: 네트워크 구성 확인.
구문
ceph config dump | grep network
ceph config dump | grep network
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
[ceph: root@host01 /]# ceph config dump | grep network
[ceph: root@host01 /]# ceph config dump | grep network
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 데몬을 다시 시작합니다. Ceph 데몬은 동적으로 바인딩되므로 특정 데몬의 네트워크 구성을 변경하는 경우 한 번에 전체 클러스터를 다시 시작할 필요가 없습니다.
구문
ceph orch restart mon
ceph orch restart mon
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 선택 사항: admin 노드에서 root 사용자로 클러스터를 다시 시작하려면
systemctl restart
명령을 실행합니다.참고클러스터의 FSID를 가져오려면
ceph fsid
명령을 사용합니다.구문
systemctl restart ceph-FSID_OF_CLUSTER.target
systemctl restart ceph-FSID_OF_CLUSTER.target
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 예
systemctl restart ceph-1ca9f6a8-d036-11ec-8263-fa163ee967ad.target
[root@host01 ~]# systemctl restart ceph-1ca9f6a8-d036-11ec-8263-fa163ee967ad.target
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
검증
사양 파일 세부 정보와 부트스트랩이 성공적으로 설치되었는지 확인합니다.
절차의 1 단계에 지정된 대로 모든 호스트가 예상 데이터 센터에 배치되었는지 확인합니다.
구문
ceph osd tree
ceph osd tree
Copy to Clipboard Copied! Toggle word wrap Toggle overflow root 아래에 3개의 데이터 센터가 있고 호스트가 예상되는 각 데이터 센터에 배치되었는지 확인합니다.
참고OSD가 있는 호스트는 사양 파일을 사용하여 부트스트랩 중에 OSD가 배포되는 경우에만 부트스트랩 후 표시됩니다.
예
Copy to Clipboard Copied! Toggle word wrap Toggle overflow - cephadm 쉘에서 프로세스의 1단계에 지정된 대로 mon 데몬이 CRUSH 위치에 배포되었는지 확인합니다.
구문
ceph mon dump
ceph mon dump
+ 모든 mon 데몬이 출력에 있고 올바른 CRUSH 위치가 추가되었는지 확인합니다.
+ .example ---[root@host01 ~]# ceph mon dump epoch 19 fsid b556497a-693a-11ef-b9d1-fa163e841fd7 last_changed 2024-09-03T12:47:08.419495+0000 생성 2024-09-02T14:50:51.49810000 min_mon_release 19 (squid) election_strategy: 3 0: [v2:10.0.67.43:3300/0, v1:10.0.67.43:6789/0] mon.host01-installer; crush_location {datacenter=DC1} 1: [v2:10.0.67.67.20:10.0.67.20:6789/0] mon.host02; crush_location {datacenter=DC1} 2: [v2:10.0.67.67.20:6789/0] mon.host02; [v2:10.0.30024. v1:10.0.64.242:6789/0] mon.host03; crush_location {datacenter=DC1} 3: [v2:10.0.66.17:3300/0,v1:66.17:6789/0] mon.host06; crush_location {datacenter=DC2} 4: [v2:10.0.66.17:6789/0] 4: [v2:10.0.66.17:6789/0] v1:10.0.66.228:6789/0] mon.host09; crush_location {datacenter=DC3} 5: [v2:10.0.65.65.1300/0,v1:10.0.65.125:6789/0] mon.host05; crush_location {datacenter=DC2}: [v2:10.0.65.65.125:6789/0] mon.host. v1:10.0.66.252:6789/0] mon.host07; crush_location {datacenter=DC3} 7: [v2:10.0.64.145:0:10.0.64.145:6789/0] mon.host08; crush_location {datacenter=DC3} 8: [v2:10.0.64.64.145.145.6789/0] mon.h_location {datacenter=DC3} v1:10.0.64.125.125:6789/0] mon.host04; crush_location {datacenter=DC2} 덤프된 monmap epoch 19 ---
서비스 사양 및 모든 위치 속성이 올바르게 추가되었는지 확인합니다.
ceph orch ls
명령을 사용하여 클러스터에서 mon 데몬의 서비스 이름을 확인합니다.예
Copy to Clipboard Copied! Toggle word wrap Toggle overflow ceph orch ls mon --export
명령을 사용하여 mon 데몬 서비스를 확인합니다.예
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
-
cephadm shell
ceph -s
명령을 실행하여 부트스트랩이 성공적으로 설치되었는지 확인합니다. 자세한 내용은 클러스터 설치 확인을 참조하십시오.