9장. 고가용성 Red Hat Ceph Storage 클러스터 모니터링
Red Hat Ceph Storage를 사용하여 오버클라우드를 배포할 때 Red Hat OpenStack Platform은 ceph-mon
모니터 데몬을 사용하여 Ceph 클러스터를 관리합니다. director는 모든 컨트롤러 노드에 데몬을 배포합니다.
Ceph 모니터링 서비스의 상태 보기
컨트롤러 노드에서 service ceph status
명령을 실행하여 Ceph 모니터링 서비스가 실행 중인지 확인합니다.
$ sudo service ceph status === mon.overcloud-controller-0 === mon.overcloud-controller-0: running {"version":"0.94.1"}
Ceph 모니터링 구성 보기
컨트롤러 노드 또는 Ceph 노드에서 /etc/ceph/ceph.conf
파일을 열어 모니터링 구성 매개변수를 확인합니다.
[global] osd_pool_default_pgp_num = 128 osd_pool_default_min_size = 1 auth_service_required = cephx mon_initial_members = overcloud-controller-0,overcloud-controller-1,overcloud-controller-2 fsid = 8c835acc-6838-11e5-bb96-2cc260178a92 cluster_network = 172.19.0.11/24 auth_supported = cephx auth_cluster_required = cephx mon_host = 172.18.0.17,172.18.0.15,172.18.0.16 auth_client_required = cephx osd_pool_default_size = 3 osd_pool_default_pg_num = 128 public_network = 172.18.0.17/24
이 예에서는 다음 정보를 보여줍니다.
- 세 개의 컨트롤러 노드는 모두 mon_initial_members 매개변수를 사용하여 Red Hat Ceph Storage 클러스터를 모니터링하도록 구성됩니다.
- 172.19.0.11/24 네트워크는 컨트롤러 노드와 Red Hat Ceph Storage 노드 간에 통신 경로를 제공하도록 구성되어 있습니다.
- Red Hat Ceph Storage 노드는 컨트롤러 노드에서 별도의 네트워크에 할당되며 모니터링 컨트롤러 노드의 IP 주소는 172.18.0.15,172.18.0.16 및 172.18.0.17 입니다.
개별 Ceph 노드 상태 보기
Ceph 노드에 로그인하고 ceph -s
명령을 실행합니다.
# ceph -s cluster 8c835acc-6838-11e5-bb96-2cc260178a92 health HEALTH_OK monmap e1: 3 mons at {overcloud-controller-0=172.18.0.17:6789/0,overcloud-controller-1=172.18.0.15:6789/0,overcloud-controller-2=172.18.0.16:6789/0} election epoch 152, quorum 0,1,2 overcloud-controller-1,overcloud-controller-2,overcloud-controller-0 osdmap e543: 6 osds: 6 up, 6 in pgmap v1736: 256 pgs, 4 pools, 0 bytes data, 0 objects 267 MB used, 119 GB / 119 GB avail 256 active+clean
이 예제 출력에서는 상태 매개변수 값이 HEALTH_OK 임을 보여줍니다. 이는 Ceph 노드가 활성 상태이고 정상임을 나타냅니다. 또한 3개의 overcloud-controller 노드에서 실행 중인 3개의 Ceph 모니터 서비스와 서비스의 IP 주소 및 포트도 표시됩니다.
Red Hat Ceph Storage에 대한 자세한 내용은 Red Hat Ceph 제품 페이지를 참조하십시오.