3장. 관리
관리자는 radosgw-admin
명령줄 인터페이스를 사용하여 Ceph 개체 게이트웨이를 관리할 수 있습니다.
- 관리 데이터 스토리지
- 스토리지 정책
- Indexless Buckets
- 버킷 공유
- 압축
- 사용자 관리
- 할당량 관리
- 사용법
- 버킷 관리
- 버킷 라이프사이클
- Ceph Object Gateway 데이터 레이아웃
- Object Gateway 데이터 레이아웃 매개변수
- STS의 속성 기반 액세스 제어(ABAC)에 대한 세션 태그
- Ceph Object Gateway의 가비지 컬렉션 최적화
- Ceph Object Gateway의 데이터 개체 스토리지 최적화
- Ceph Object Gateway 및 다단계 인증
- Ansible을 사용하여 Ceph Object Gateway 제거
3.1. 관리 데이터 스토리지
Ceph 개체 게이트웨이는 인스턴스의 영역 구성에 정의된 일련의 풀에 관리 데이터를 저장합니다. 예를 들어 이후 섹션에서 설명하는 버킷, 사용자, 사용자 할당량 및 사용 통계는 Ceph Storage 클러스터의 풀에 저장됩니다. 기본적으로 Ceph Object Gateway는 다음 풀을 만들어 기본 영역에 매핑합니다.
-
.rgw.root
-
.default.rgw.control
-
.default.rgw.meta
-
.default.rgw.log
-
.default.rgw.buckets.index
-
.default.rgw.buckets.data
-
.default.rgw.buckets.non-ec
CRUSH 규칙 세트와 배치 그룹 수를 설정할 수 있도록 이러한 풀을 수동으로 생성해야 합니다. 일반적인 구성에서는 Ceph Object Gateway의 관리 데이터를 저장하는 풀에서 동일한 CRUSH 규칙 세트를 사용하는 경우가 많으며 관리 데이터에 대한 풀 10개가 있으므로 배치 그룹의 수가 줄어듭니다. 자세한 내용은 Red Hat Ceph Storage 4에 대한 Pools 및 Storage Strategies 가이드를 참조하십시오.
배치 그룹 계산에 대한 자세한 내용은 풀 계산기당 Ceph 배치 그룹(PG) 을 참조하십시오. mon_pg_warn_max_per_osd
설정은 풀에 너무 많은 배치 그룹을 할당하는 경우 경고합니다(기본값은 300개). 요구 사항 및 하드웨어 기능에 맞게 값을 조정할 수 있습니다. 여기서 n
은 OSD당 최대 PG 수입니다.
mon_pg_warn_max_per_osd = n
mon_pg_warn_max_per_osd = n