3.19. 관리 노드 설정
관리 노드를 사용하여 스토리지 클러스터를 관리합니다.
관리 노드에는 클러스터 구성 파일과 관리자 인증 키가 모두 포함되어 있습니다. 이러한 두 파일은 모두 /etc/ceph
디렉터리에 저장되며 스토리지 클러스터 이름을 접두사로 사용합니다.
예를 들어 기본 ceph 클러스터 이름은 ceph
입니다. 기본 이름을 사용하는 클러스터에서 관리자 인증 키의 이름은 /etc/ceph/ceph.client.admin.keyring
입니다. 해당 클러스터 구성 파일의 이름은 /etc/ceph/ceph.conf
입니다.
스토리지 클러스터에서 추가 호스트를 admin 노드로 설정하려면 관리자 노드로 지정할 호스트에 _admin
레이블을 적용합니다.
기본적으로 _admin
레이블을 노드에 적용한 후 cephadm
은 ceph.conf
및 client.admin
인증 키 파일을 해당 노드에 복사합니다. cephadm bootstrap
명령을 사용하여 --skip-admin-label
옵션을 지정하지 않으면 _admin
레이블이 부트스트랩 노드에 자동으로 적용됩니다.
사전 요구 사항
-
cephadm
이 설치된 실행 중인 스토리지 클러스터. - 스토리지 클러스터에는 모니터 및 관리자 노드가 실행 중입니다.
- 클러스터의 모든 노드에 대한 루트 수준 액세스.
절차
ceph orch host ls
를 사용하여 스토리지 클러스터의 호스트를 확인합니다.예제
ceph orch host ls
[root@host01 ~]# ceph orch host ls HOST ADDR LABELS STATUS host01 mon,mgr,_admin host02 mon host03 mon,mgr host04 host05 host06
Copy to Clipboard Copied! _admin
레이블을 사용하여 스토리지 클러스터에서 관리 호스트를 지정합니다. 최상의 결과를 얻으려면 이 호스트에 Monitor 및 Manager 데몬이 모두 실행되고 있어야 합니다.구문
ceph orch host label add HOSTNAME _admin
ceph orch host label add HOSTNAME _admin
Copy to Clipboard Copied! 예제
ceph orch host label add host03 _admin
[root@host01 ~]# ceph orch host label add host03 _admin
Copy to Clipboard Copied! 관리자 호스트에
_admin
레이블이 있는지 확인합니다.예제
ceph orch host ls
[root@host01 ~]# ceph orch host ls HOST ADDR LABELS STATUS host01 mon,mgr,_admin host02 mon host03 mon,mgr,_admin host04 host05 host06
Copy to Clipboard Copied! - 관리 노드에 로그인하여 스토리지 클러스터를 관리합니다.
3.19.1. 호스트 레이블을 사용하여 Ceph 모니터 노드 배포
일반적인 Red Hat Ceph Storage 스토리지 클러스터에는 서로 다른 호스트에 배포된 3개 또는 5개의 Ceph Monitor 데몬이 있습니다. 스토리지 클러스터에 5개 이상의 호스트가 있는 경우 5개의 Ceph Monitor 노드를 배포하는 것이 좋습니다.
Ceph Monitor 노드 또는 전체 클러스터가 단일 서브넷에 있는 경우 cephadm
은 클러스터에 새 노드를 추가할 때 최대 5개의 Ceph Monitor 데몬을 자동으로 추가합니다. cephadm
은 새 노드에 Ceph Monitor 데몬을 자동으로 구성합니다. 새 노드는 스토리지 클러스터의 첫 번째(bootstrap) 노드와 동일한 서브넷에 있습니다. cephadm
은 모니터를 배포 및 스케일링하여 스토리지 클러스터 크기에 대응합니다.
호스트 레이블을 사용하여 Ceph Monitor 노드가 포함된 호스트를 식별합니다.
사전 요구 사항
- 스토리지 클러스터의 모든 노드에 대한 루트 수준 액세스.
- 실행 중인 스토리지 클러스터입니다.
절차
호스트에 mon 레이블을 할당합니다.
구문
ceph orch host label add HOSTNAME mon
ceph orch host label add HOSTNAME mon
Copy to Clipboard Copied! 예제
[ceph: root@host01 /]# ceph orch host label add host02 mon [ceph: root@host01 /]# ceph orch host label add host03 mon
[ceph: root@host01 /]# ceph orch host label add host02 mon [ceph: root@host01 /]# ceph orch host label add host03 mon
Copy to Clipboard Copied! 현재 호스트 및 라벨을 표시합니다.
구문
ceph orch host ls
ceph orch host ls
Copy to Clipboard Copied! 예제
[ceph: root@host01 /]# ceph orch host ls HOST ADDR LABELS STATUS host01 mon,mgr,_admin host02 mon host03 mon host04 host05 host06
[ceph: root@host01 /]# ceph orch host ls HOST ADDR LABELS STATUS host01 mon,mgr,_admin host02 mon host03 mon host04 host05 host06
Copy to Clipboard Copied! host 레이블을 기반으로 Ceph Monitor 데몬을 배포합니다.
구문
ceph orch apply mon label:mon
ceph orch apply mon label:mon
Copy to Clipboard Copied! 특정 호스트 세트에 Ceph Monitor 데몬을 배포합니다.
구문
ceph orch apply mon HOSTNAME1,HOSTNAME2,HOSTNAME3
ceph orch apply mon HOSTNAME1,HOSTNAME2,HOSTNAME3
Copy to Clipboard Copied! 예제
[ceph: root@host01 /]# ceph orch apply mon host01,host02,host03
[ceph: root@host01 /]# ceph orch apply mon host01,host02,host03
Copy to Clipboard Copied! 참고배포하려는 호스트 목록에 부트스트랩 노드를 포함해야 합니다.
3.19.2. IP 주소 또는 네트워크 이름으로 Ceph Monitor 노드 추가
일반적인 Red Hat Ceph Storage 스토리지 클러스터에는 다른 호스트에 배포된 모니터 데몬이 3개 또는 5개 이상 있습니다. 스토리지 클러스터에 5개 이상의 호스트가 있는 경우 5개의 모니터 노드를 배포하는 것이 좋습니다.
모니터 노드 또는 전체 클러스터가 단일 서브넷에 있는 경우 클러스터에 새 노드를 추가할 때 cephadm
에서 최대 5개의 모니터 데몬을 자동으로 추가합니다. 새 노드에서 모니터 데몬을 구성할 필요가 없습니다. 새 노드는 스토리지 클러스터의 첫 번째 노드와 동일한 서브넷에 있습니다. 스토리지 클러스터의 첫 번째 노드는 부트 스트랩 노드입니다. cephadm
은 모니터도 배포 및 스케일링하여 스토리지 클러스터의 크기에 해당할 수 있습니다.
사전 요구 사항
- 스토리지 클러스터의 모든 노드에 대한 루트 수준 액세스.
- 실행 중인 스토리지 클러스터입니다.
절차
각각의 추가 Ceph 모니터 노드를 배포하려면 다음을 수행합니다.
구문
ceph orch apply mon NODE:IP_ADDRESS_OR_NETWORK_NAME [NODE:IP_ADDRESS_OR_NETWORK_NAME...]
ceph orch apply mon NODE:IP_ADDRESS_OR_NETWORK_NAME [NODE:IP_ADDRESS_OR_NETWORK_NAME...]
Copy to Clipboard Copied! 예제
[ceph: root@host01 /]# ceph orch apply mon host02:10.10.128.69 host03:mynetwork
[ceph: root@host01 /]# ceph orch apply mon host02:10.10.128.69 host03:mynetwork
Copy to Clipboard Copied!
3.19.3. 호스트에서 admin 레이블 제거
Ceph 오케스트레이터를 사용하여 호스트에서 admin 레이블을 제거할 수 있습니다.
사전 요구 사항
-
cephadm
이 설치되어 부트스트랩된 실행 중인 스토리지 클러스터 - 스토리지 클러스터에는 모니터 및 관리자 노드가 실행 중입니다.
- 클러스터의 모든 노드에 대한 루트 수준 액세스.
절차
ceph orch 호스트 ls
를 사용하여 호스트를 확인하고 스토리지 클러스터에서 관리 호스트를 확인합니다.예제
ceph orch host ls
[root@host01 ~]# ceph orch host ls HOST ADDR LABELS STATUS host01 mon,mgr,_admin host02 mon host03 mon,mgr,_admin host04 host05 host06
Copy to Clipboard Copied! Cephadm 쉘에 로그인합니다.
예제
cephadm shell
[root@host01 ~]# cephadm shell
Copy to Clipboard Copied! ceph 오케스트레이터를 사용하여 호스트에서 admin 레이블을 제거합니다.
구문
ceph orch host label rm HOSTNAME LABEL
ceph orch host label rm HOSTNAME LABEL
Copy to Clipboard Copied! 예제
[ceph: root@host01 /]# ceph orch host label rm host03 _admin
[ceph: root@host01 /]# ceph orch host label rm host03 _admin
Copy to Clipboard Copied! 관리자 호스트에
_admin
레이블이 있는지 확인합니다.예제
ceph orch host ls
[root@host01 ~]# ceph orch host ls HOST ADDR LABELS STATUS host01 mon,mgr,_admin host02 mon host03 mon,mgr host04 host05 host06
Copy to Clipboard Copied!
노드에서 admin 레이블을 제거한 후 해당 노드에서 ceph.conf
및 client.admin
키링 파일을 삭제해야 합니다. 또한 노드는 [admin] ansible 인벤토리 파일에서 제거해야 합니다.