3.12. 새 스토리지 클러스터 부트스트랩
cephadm
유틸리티는 부트스트랩 프로세스 중에 다음 작업을 수행합니다.
- 로컬 노드에서 새 Red Hat Ceph Storage 클러스터의 Ceph Monitor 데몬과 Ceph Manager 데몬을 컨테이너로 설치 및 시작합니다.
-
/etc/ceph
디렉터리를 생성합니다. -
공개 키 사본을 Red Hat Ceph Storage 클러스터의
/etc/ceph/ceph.pub
에 작성하고 SSH 키를 루트 사용자의/root/.ssh/authorized_keys
파일에 추가합니다. -
_admin
레이블을 부트스트랩 노드에 적용합니다. -
/etc/ceph/ceph.conf
에 새 클러스터와 통신하는 데 필요한 최소 구성 파일을 작성합니다. -
client.admin
관리 보안 키 사본을/etc/ceph/ceph.client.admin.keyring
에 씁니다. -
Prometheus, Grafana 및
node-exporter
및alert-manager
와 같은 기타 도구를 사용하여 기본 모니터링 스택을 배포합니다.
비연결 설치를 수행하는 경우 비연결 설치 수행을 참조하십시오.
새 스토리지 클러스터에서 실행하려는 기존 Prometheus 서비스가 있거나 Rook을 사용하여 Ceph를 실행하는 경우 cephadm 부트스트랩
명령과 함께 --skip-monitoring-stack
옵션을 사용합니다. 이 옵션은 나중에 수동으로 구성할 수 있도록 기본 모니터링 스택을 바이패스합니다.
모니터링 스택을 배포하는 경우 Red Hat Ceph Storage Operations 가이드의 Ceph Orchestrator를 사용하여 모니터링 스택 배포를 참조하십시오.
부트스트랩은 대시보드에 처음 로그인할 때 기본 사용자 이름 및 암호를 제공합니다. 부트스트랩은 로그인 후 암호를 변경해야 합니다.
부트스트랩 프로세스를 시작하기 전에 사용하려는 컨테이너 이미지에 cephadm
과 동일한 Red Hat Ceph Storage 버전이 있는지 확인합니다. 두 버전이 일치하지 않으면 Creating initial admin user
단계에서 부트스트랩이 실패합니다.
부트스트랩 프로세스를 시작하기 전에 registry.redhat.io
컨테이너 레지스트리의 사용자 이름과 암호를 생성해야 합니다. Red Hat 컨테이너 레지스트리 인증에 대한 자세한 내용은 지식 베이스 문서 Red Hat Container Registry Authentication을 참조하십시오.
사전 요구 사항
- 첫 번째 Ceph Monitor 컨테이너의 IP 주소이며, 이는 스토리지 클러스터의 첫 번째 노드의 IP 주소이기도 합니다.
-
registry.redhat.io
에 대한 로그인 액세스 -
/var/lib/containers/
용으로 최소 10GB의 여유 공간이 필요 - 모든 노드에 대한 루트 수준 액세스.
스토리지 클러스터에 여러 네트워크와 인터페이스가 포함된 경우 스토리지 클러스터를 사용하는 모든 노드에서 액세스할 수 있는 네트워크를 선택해야 합니다.
로컬 노드에서 FQDN(정규화된 도메인 이름)을 사용하는 경우 명령줄에서 --allow-fqdn-hostname
옵션을 cephadm bootstrap
에 추가합니다.
클러스터의 초기 모니터 노드가 될 노드에서 cephadm bootstrap
을 실행합니다. IP_ADDRESS 옵션은 cephadm bootstrap
을 실행하는 데 사용 중인 노드의 IP 주소여야 합니다.
IPV6 주소를 사용하여 스토리지 클러스터를 배포하려면 --mon-ip IP_ADDRESS
옵션에 IPV6 주소 형식을 사용합니다. 예: cephadm 부트스트랩 --mon-ip 2620:52:0:880:225:90ff:fefc:2536 --registry-json /etc/mylogin.json
.
Red Hat Ceph Storage 5.1에서 Ceph Object Gateway 다중 사이트 구성은 여러 미해결 문제로 인해 지원되지 않습니다. 자세한 내용은 기술 자료 문서 Red Hat Ceph Storage 5.1이 다중 사이트 구성을 지원하지 않음 을 참조하십시오.
새로운 Red Hat Ceph Storage 클러스터를 부트 스트랩하는 동안 --yes-i-know
플래그를 사용하여 다중 사이트 회귀에 대한 경고를 출력합니다.
Red Hat Ceph Storage 5.0z4를 새로 설치하려는 경우 부트스트랩 절차에 따라 지식베이스 문서인 Red Hat Ceph Storage 4.2z4에서 5.0z4로 업그레이드 하는 방법을 따르십시오.
절차
스토리지 클러스터를 부트스트랩합니다.
구문
cephadm bootstrap --cluster-network NETWORK_CIDR --mon-ip IP_ADDRESS --registry-url registry.redhat.io --registry-username USER_NAME --registry-password PASSWORD --yes-i-know
cephadm bootstrap --cluster-network NETWORK_CIDR --mon-ip IP_ADDRESS --registry-url registry.redhat.io --registry-username USER_NAME --registry-password PASSWORD --yes-i-know
Copy to Clipboard Copied! 예제
cephadm bootstrap --cluster-network 10.10.128.0/24 --mon-ip 10.10.128.68 --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1 --yes-i-know
[root@host01 ~]# cephadm bootstrap --cluster-network 10.10.128.0/24 --mon-ip 10.10.128.68 --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1 --yes-i-know
Copy to Clipboard Copied! 참고공용 네트워크를 통해 내부 클러스터 트래픽을 라우팅하려면
--cluster-network NETWORK_CIDR
옵션을 생략할 수 있습니다.스크립트가 완료되는 데 몇 분이 걸립니다. 스크립트가 완료되면 Red Hat Ceph Storage 대시보드 URL에 인증 정보, Ceph CLI(명령줄 인터페이스)에 액세스하는 명령, Telemetry를 활성화하는 요청을 제공합니다.
예제
Ceph Dashboard is now available at: URL: https://host01:8443/ User: admin Password: i8nhu7zham Enabling client.admin keyring and conf on hosts with "admin" label You can access the Ceph CLI with: sudo /usr/sbin/cephadm shell --fsid 266ee7a8-2a05-11eb-b846-5254002d4916 -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring Please consider enabling telemetry to help improve Ceph: ceph telemetry on For more information see: https://docs.ceph.com/docs/master/mgr/telemetry/ Bootstrap complete.
Ceph Dashboard is now available at: URL: https://host01:8443/ User: admin Password: i8nhu7zham Enabling client.admin keyring and conf on hosts with "admin" label You can access the Ceph CLI with: sudo /usr/sbin/cephadm shell --fsid 266ee7a8-2a05-11eb-b846-5254002d4916 -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring Please consider enabling telemetry to help improve Ceph: ceph telemetry on For more information see: https://docs.ceph.com/docs/master/mgr/telemetry/ Bootstrap complete.
Copy to Clipboard Copied!
3.12.1. 권장되는 cephadm 부트스트랩 명령 옵션
cephadm bootstrap
명령에는 파일 위치 지정, ssh
설정 구성, 암호 설정, 다른 초기 구성 작업을 수행할 수 있는 여러 옵션이 있습니다.
cephadm bootstrap
에 대한 기본 명령 옵션 세트를 사용하는 것이 좋습니다. 초기 클러스터가 가동되어 실행된 후 추가 옵션을 구성할 수 있습니다.
다음 예제에서는 권장 옵션을 지정하는 방법을 보여줍니다.
구문
cephadm bootstrap --ssh-user USER_NAME --mon-ip IP_ADDRESS --allow-fqdn-hostname --registry-json REGISTRY_JSON
cephadm bootstrap --ssh-user USER_NAME --mon-ip IP_ADDRESS --allow-fqdn-hostname --registry-json REGISTRY_JSON
예제
cephadm bootstrap --ssh-user ceph-admin --mon-ip 10.10.128.68 --allow-fqdn-hostname --registry-json /etc/mylogin.json
[root@host01 ~]# cephadm bootstrap --ssh-user ceph-admin --mon-ip 10.10.128.68 --allow-fqdn-hostname --registry-json /etc/mylogin.json
루트가 아닌 사용자는 Creating an Ansible user with sudo access 섹션 및 Enabling passwordless SSH for Ansible 섹션을 참조하십시오.
3.12.2. JSON 파일을 사용하여 로그인 정보 보호
스토리지 관리자는 JSON 파일에 로그인 및 암호 정보를 추가하도록 선택할 수 있으며 부트스트랩을 위해 JSON 파일을 참조하십시오. 이렇게 하면 로그인 인증 정보가 노출되지 않도록 보호됩니다.
cephadm --registry-login
명령과 함께 JSON 파일을 사용할 수도 있습니다.
사전 요구 사항
- 첫 번째 Ceph Monitor 컨테이너의 IP 주소이며, 이는 스토리지 클러스터의 첫 번째 노드의 IP 주소이기도 합니다.
-
registry.redhat.io
에 대한 로그인 액세스 -
/var/lib/containers/
용으로 최소 10GB의 여유 공간이 필요 - 모든 노드에 대한 루트 수준 액세스.
절차
JSON 파일을 생성합니다. 이 예제에서 파일의 이름은
mylogin.json
입니다.구문
{ "url":"REGISTRY_URL", "username":"USER_NAME", "password":"PASSWORD" }
{ "url":"REGISTRY_URL", "username":"USER_NAME", "password":"PASSWORD" }
Copy to Clipboard Copied! 예제
{ "url":"registry.redhat.io", "username":"myuser1", "password":"mypassword1" }
{ "url":"registry.redhat.io", "username":"myuser1", "password":"mypassword1" }
Copy to Clipboard Copied! 스토리지 클러스터를 부트스트랩합니다.
구문
cephadm bootstrap --mon-ip IP_ADDRESS --registry-json /etc/mylogin.json
cephadm bootstrap --mon-ip IP_ADDRESS --registry-json /etc/mylogin.json
Copy to Clipboard Copied! 예제
cephadm bootstrap --mon-ip 10.10.128.68 --registry-json /etc/mylogin.json
[root@host01 ~]# cephadm bootstrap --mon-ip 10.10.128.68 --registry-json /etc/mylogin.json
Copy to Clipboard Copied!
3.12.3. 서비스 구성 파일을 사용하여 스토리지 클러스터 부트스트랩
스토리지 클러스터를 부트스트랩하고 서비스 구성 파일을 사용하여 추가 호스트 및 데몬을 구성하려면 cephadm bootstrap
명령과 함께 --apply-spec
옵션을 사용합니다. 구성 파일은 배포하려는 서비스 유형, 배치 및 지정된 노드가 포함된 .yaml
파일입니다.
다중 사이트 등의 애플리케이션에 기본이 아닌 영역 또는 영역을 사용하려면 구성 파일에 추가하고 --apply-spec
옵션을 사용하여 스토리지 클러스터를 부트스트랩한 후 Ceph Object Gateway 데몬을 구성합니다. 그러면 Ceph Object Gateway 데몬을 배포하기 전에 필요한 영역 또는 영역을 만들 수 있습니다. 자세한 내용은 Red Hat Ceph Storage Operations 가이드를 참조하십시오.
Ceph iSCSI 게이트웨이, NFS-Ganesha 게이트웨이 또는 메타데이터 서버(MDS) 서비스를 배포하는 경우 스토리지 클러스터를 부트 스트랩한 후 구성합니다.
- Ceph iSCSI 게이트웨이 또는 Ceph NFS-Ganesha 게이트웨이를 배포하려면 먼저 RADOS 풀을 생성해야 합니다.
- MDS 서비스를 배포하려면 먼저 CephFS 볼륨을 생성해야 합니다.
자세한 내용은 Red Hat Ceph Storage Operations 가이드를 참조하십시오.
Red Hat Ceph Storage 5.1부터 --apply-spec
옵션으로 부트스트랩 명령을 실행하는 경우 사양 파일에 부트스트랩 호스트의 IP 주소를 포함해야 합니다. 이렇게 하면 활성 Ceph Manager가 이미 실행 중인 부트스트랩 호스트를 다시 추가하는 동안 IP 주소를 루프백 주소로 확인할 수 없습니다.
부트스트랩 중에 --apply spec
옵션을 사용하지 않고 대신 호스트 다시 추가 및 실행 중인 활성 Ceph Manager가 포함된 다른 사양 파일과 함께 ceph orch apply
명령을 사용하는 경우, addr
필드를 명시적으로 제공해야 합니다. 부트 스트랩 후 모든 사양 파일을 적용하는 데 적용됩니다.
사전 요구 사항
- 실행 중인 VM(가상 머신) 또는 서버 중 하나 이상
- Red Hat Enterprise Linux 8.4 EUS 이상.
- 모든 노드에 대한 루트 수준 액세스.
-
registry.redhat.io
에 대한 로그인 액세스 -
암호 없는
ssh
는 스토리지 클러스터의 모든 호스트에 설정됩니다. -
cephadm
은 스토리지 클러스터의 첫 번째 모니터 노드가 될 노드에 설치됩니다.
절차
- 부트스트랩 호스트에 로그인합니다.
스토리지 클러스터에 대한 서비스 구성
.yaml
파일을 생성합니다. 예제 파일에서는cephadm 부트스트랩
에 초기 호스트와 두 개의 추가 호스트를 구성하도록 지시합니다. 이 파일은 사용 가능한 모든 디스크에서 OSD를 만들도록 지정합니다.예제
service_type: host addr: host01 hostname: host01 --- service_type: host addr: host02 hostname: host02 --- service_type: host addr: host03 hostname: host03 --- service_type: host addr: host04 hostname: host04 --- service_type: mon placement: host_pattern: "host[0-2]" --- service_type: osd service_id: my_osds placement: host_pattern: "host[1-3]" data_devices: all: true
service_type: host addr: host01 hostname: host01 --- service_type: host addr: host02 hostname: host02 --- service_type: host addr: host03 hostname: host03 --- service_type: host addr: host04 hostname: host04 --- service_type: mon placement: host_pattern: "host[0-2]" --- service_type: osd service_id: my_osds placement: host_pattern: "host[1-3]" data_devices: all: true
Copy to Clipboard Copied! --apply-spec
옵션을 사용하여 스토리지 클러스터를 부트스트랩합니다.구문
cephadm bootstrap --apply-spec CONFIGURATION_FILE_NAME --mon-ip MONITOR_IP_ADDRESS --ssh-private-key PRIVATE_KEY --ssh-public-key PUBLIC_KEY --registry-url registry.redhat.io --registry-username USER_NAME --registry-password PASSWORD
cephadm bootstrap --apply-spec CONFIGURATION_FILE_NAME --mon-ip MONITOR_IP_ADDRESS --ssh-private-key PRIVATE_KEY --ssh-public-key PUBLIC_KEY --registry-url registry.redhat.io --registry-username USER_NAME --registry-password PASSWORD
Copy to Clipboard Copied! 예제
cephadm bootstrap --apply-spec initial-config.yaml --mon-ip 10.10.128.68 --ssh-private-key /home/ceph/.ssh/id_rsa --ssh-public-key /home/ceph/.ssh/id_rsa.pub --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1
[root@host01 ~]# cephadm bootstrap --apply-spec initial-config.yaml --mon-ip 10.10.128.68 --ssh-private-key /home/ceph/.ssh/id_rsa --ssh-public-key /home/ceph/.ssh/id_rsa.pub --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1
Copy to Clipboard Copied! 스크립트가 완료되는 데 몇 분이 걸립니다. 스크립트가 완료되면 Red Hat Ceph Storage 대시보드 URL에 인증 정보, Ceph CLI(명령줄 인터페이스)에 액세스하는 명령, Telemetry를 활성화하는 요청을 제공합니다.
- 스토리지 클러스터가 가동되어 실행되면 추가 데몬 및 서비스 구성에 대한 자세한 내용은 Red Hat Ceph Storage Operations Guide를 참조하십시오.
3.12.4. 루트가 아닌 사용자로 스토리지 클러스터 부트스트랩
부트스트랩 노드에서 루트가 아닌 사용자로 Red Hat Ceph Storage 클러스터를 부트스트랩하려면 cephadm bootstrap
명령과 함께 --ssh-user
옵션을 사용합니다. --ssh-user
는 클러스터 노드에 대한 SSH 연결을 위한 사용자를 지정합니다.
루트가 아닌 사용자는 암호 없이 sudo
액세스 권한이 있어야 합니다. 자세한 내용은 Creating an Ansible user with sudo access 섹션 및 Enabling password-less SSH for Ansible_ 섹션을 참조하십시오.
사전 요구 사항
- 스토리지 클러스터의 초기 모니터 노드에 대한 IP 주소이기도 한 첫 번째 Ceph Monitor 컨테이너의 IP 주소입니다
-
registry.redhat.io
에 대한 로그인 액세스 -
/var/lib/containers/
용으로 최소 10GB의 여유 공간이 필요 - SSH 공개 및 개인 키
-
부트 스트랩 노드에 대한 암호 없는
sudo
액세스
절차
부트 스트랩 노드에서
sudo
로 변경합니다.구문
su - SSH_USER_NAME
su - SSH_USER_NAME
Copy to Clipboard Copied! 예제
su - ceph
[root@host01 ~]# su - ceph Last login: Tue Sep 14 12:00:29 EST 2021 on pts/0
Copy to Clipboard Copied! 부트 스트랩 노드에 대한 SSH 연결을 설정합니다.
예제
ssh host01
[ceph@host01 ~]# ssh host01 Last login: Tue Sep 14 12:03:29 EST 2021 on pts/0
Copy to Clipboard Copied! 선택 사항:
cephadm bootstrap
명령을 호출합니다.참고개인 키 및 공개 키는 선택 사항입니다. SSH 키가 이전에 생성되지 않은 경우 이 단계에서 생성할 수 있습니다.
--ssh-private-key
및--ssh-public-key
옵션을 포함합니다.구문
cephadm bootstrap --ssh-user USER_NAME --mon-ip IP_ADDRESS --ssh-private-key PRIVATE_KEY --ssh-public-key PUBLIC_KEY --registry-url registry.redhat.io --registry-username USER_NAME --registry-password PASSWORD
cephadm bootstrap --ssh-user USER_NAME --mon-ip IP_ADDRESS --ssh-private-key PRIVATE_KEY --ssh-public-key PUBLIC_KEY --registry-url registry.redhat.io --registry-username USER_NAME --registry-password PASSWORD
Copy to Clipboard Copied! 예제
cephadm bootstrap --ssh-user ceph-admin --mon-ip 10.10.128.68 --ssh-private-key /home/ceph/.ssh/id_rsa --ssh-public-key /home/ceph/.ssh/id_rsa.pub --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1
cephadm bootstrap --ssh-user ceph-admin --mon-ip 10.10.128.68 --ssh-private-key /home/ceph/.ssh/id_rsa --ssh-public-key /home/ceph/.ssh/id_rsa.pub --registry-url registry.redhat.io --registry-username myuser1 --registry-password mypassword1
Copy to Clipboard Copied!
3.12.5. 부트스트랩 명령 옵션
cephadm bootstrap
명령은 로컬 호스트에 Ceph 스토리지 클러스터를 부트스트랩합니다. 부트스트랩 노드에 MON 데몬과 MGR 데몬을 배포하고, 로컬 호스트에 모니터링 스택을 자동으로 배포한 다음 ceph orch host add HOSTNAME
을 호출합니다.
다음 표에는 cephadm bootstrap
에 사용할 수 있는 옵션이 나열되어 있습니다.
cephadm bootstrap 옵션 | 설명 |
---|---|
--config CONFIG_FILE, -c CONFIG_FILE |
CONFIG_FILE은 부트스트랩 명령과 함께 사용할 |
--cluster-network NETWORK_CIDR |
내부 클러스터 트래픽에 대해 NETWORK_CIDR에서 정의한 서브넷을 사용합니다. CIDR 표기법으로 지정됩니다. 예를 들어 다음과 같습니다. |
--Mon-id MON_ID | MON_ID 라는 호스트의 부트스트랩 기본값은 로컬 호스트입니다. |
--Mon-addrv MON_ADDRV | Mon IP (예: [v2:localipaddr:3300,v1:localipaddr:6789]) |
--Mon-ip IP_ADDRESS |
|
--mgr-id MGR_ID | MGR 노드를 설치해야 하는 호스트 ID입니다. 기본값: 임의로 생성됩니다. |
--fsid FSID | 클러스터 FSID. |
--output-dir OUTPUT_DIR | 이 디렉터리를 사용하여 config, 인증 키 및 pub 키 파일을 작성합니다. |
--output-keyring OUTPUT_KEYRING | 이 위치를 사용하여 새 클러스터 admin 및 mon 키가 있는 인증 키 파일을 작성합니다. |
--output-config OUTPUT_CONFIG | 이 위치를 사용하여 새 클러스터에 연결할 구성 파일을 작성합니다. |
--output-pub-ssh-key OUTPUT_PUB_SSH_KEY | 이 위치를 사용하여 클러스터에 대한 공용 SSH 키를 작성합니다. |
--skip-ssh | 로컬 호스트에서 ssh 키의 설정을 건너뜁니다. |
--initial-dashboard-user INITIAL_DASHBOARD_USER | 대시보드의 초기 사용자입니다. |
--initial-dashboard-password INITIAL_DASHBOARD_PASSWORD | 초기 대시보드 사용자의 초기 암호입니다. |
--SSL-dashboard-port SSL_DASHBOARD_PORT | SSL을 사용하여 대시보드와 연결하는 데 사용되는 포트 번호입니다. |
--dashboard-key DASHBOARD_KEY | 대시보드 키. |
--dashboard-crt DASHBOARD_CRT | 대시보드 인증서. |
--SSH-config SSH_CONFIG | SSH 구성. |
--SSH-private-key SSH_PRIVATE_KEY | SSH 개인 키. |
--SSH-public-key SSH_PUBLIC_KEY | SSH 공개 키. |
--SSH-user SSH_USER | 클러스터 호스트에 대한 SSH 연결 사용자를 설정합니다. 루트가 아닌 사용자에게 암호가 없는 sudo가 필요합니다. |
--skip-mon-network | 부트 스트랩 mon ip를 기반으로 하는 mon public_network를 설정합니다. |
--skip-dashboard | Ceph 대시보드를 활성화하지 마십시오. |
--dashboard-password-noupdate | 강제 대시보드 암호 변경을 비활성화합니다. |
--no-minimize-config | 구성 파일을 시뮬레이션하고 최소화하지 마십시오. |
--skip-ping-check | mon IP가 ping할 수 있는지 확인하지 마십시오. |
--skip-pull | 부트 스트랩하기 전에 최신 이미지를 가져오지 마십시오. |
--skip-firewalld | firewalld를 구성하지 마십시오. |
--allow-overwrite | 기존 -output-* config/keyring/ssh 파일의 덮어쓰기를 허용합니다. |
--allow-fqdn-hostname | 정규화된 호스트 이름을 허용합니다. |
--skip-prepare-host | 호스트를 준비하지 마십시오. |
--orphan-initial-daemons | 초기 mon, mgr 및 크래시 서비스 사양을 생성하지 마십시오. |
--skip-monitoring-stack | 모니터링 스택(prometheus, grafana, alertmanager, node-exporter)을 자동으로 프로비저닝하지 마십시오. |
--apply-spec APPLY_SPEC | 부트스트랩 후에 클러스터 사양 파일을 적용합니다(ssh 키 복사, 호스트 추가 및 서비스 적용). |
--registry-url REGISTRY_URL |
로그인할 사용자 정의 레지스트리의 URL을 지정합니다. 예: |
--registry-username REGISTRY_USERNAME | 사용자 정의 레지스트리에 대한 로그인 계정의 사용자 이름입니다. |
--registry-password REGISTRY_PASSWORD | 사용자 정의 레지스트리에 대한 로그인 계정의 암호입니다. |
--registry-json REGISTRY_JSON | 레지스트리 로그인 정보가 포함된 JSON 파일입니다. |
3.12.6. 연결이 끊긴 설치를 위한 프라이빗 레지스트리 구성
연결이 끊긴 설치 절차를 사용하여 cephadm
을 설치하고 프라이빗 네트워크에 스토리지 클러스터를 부트스트랩할 수 있습니다. 연결이 끊긴 설치에서는 설치를 위해 프라이빗 레지스트리를 사용합니다. 배포 중에 Red Hat Ceph Storage 노드가 인터넷에 액세스할 수 없는 경우 다음 절차를 사용하십시오.
인증 및 자체 서명된 인증서를 사용하여 보안 프라이빗 레지스트리를 설정하려면 다음 절차를 따르십시오. 인터넷에 액세스할 수 있고 로컬 클러스터에 액세스할 수 있는 노드에서 다음 단계를 수행합니다.
프로덕션에 비보안 레지스트리를 사용하는 것은 권장되지 않습니다.
사전 요구 사항
- 인터넷이 연결된 VM(가상 머신) 또는 서버가 하나 이상 실행되고 있습니다.
- Red Hat Enterprise Linux 8.4 EUS 이상.
-
registry.redhat.io
에 대한 로그인 액세스 - 모든 노드에 대한 루트 수준 액세스.
절차
- 공용 네트워크와 클러스터 노드에 모두 액세스할 수 있는 노드에 로그인합니다.
노드를 등록하고 메시지가 표시되면 적절한 Red Hat Customer Portal 자격 증명을 입력합니다.
예제
subscription-manager register
[root@admin ~]# subscription-manager register
Copy to Clipboard Copied! 최신 서브스크립션 데이터를 가져옵니다.
예제
subscription-manager refresh
[root@admin ~]# subscription-manager refresh
Copy to Clipboard Copied! Red Hat Ceph Storage에 사용 가능한 모든 서브스크립션을 나열합니다.
예제
subscription-manager list --available --all --matches="*Ceph*"
[root@admin ~]# subscription-manager list --available --all --matches="*Ceph*"
Copy to Clipboard Copied! Red Hat Ceph Storage에 사용 가능한 서브스크립션 목록에서 풀 ID를 복사합니다.
서브스크립션을 첨부하여 소프트웨어 권한에 액세스할 수 있습니다.
구문
subscription-manager attach --pool=POOL_ID
subscription-manager attach --pool=POOL_ID
Copy to Clipboard Copied! POOL_ID 를 이전 단계에서 확인한 풀 ID로 교체합니다.
기본 소프트웨어 리포지토리를 비활성화하고 서버와 추가 리포지토리를 활성화합니다.
Red Hat Enterprise Linux 8
subscription-manager repos --disable=* subscription-manager repos --enable=rhel-8-for-x86_64-baseos-rpms subscription-manager repos --enable=rhel-8-for-x86_64-appstream-rpms
[root@admin ~]# subscription-manager repos --disable=* [root@admin ~]# subscription-manager repos --enable=rhel-8-for-x86_64-baseos-rpms [root@admin ~]# subscription-manager repos --enable=rhel-8-for-x86_64-appstream-rpms
Copy to Clipboard Copied! Red Hat Enterprise Linux 9
subscription-manager repos --disable=* subscription-manager repos --enable=rhel-9-for-x86_64-baseos-rpms subscription-manager repos --enable=rhel-9-for-x86_64-appstream-rpms
[root@admin ~]# subscription-manager repos --disable=* [root@admin ~]# subscription-manager repos --enable=rhel-9-for-x86_64-baseos-rpms [root@admin ~]# subscription-manager repos --enable=rhel-9-for-x86_64-appstream-rpms
Copy to Clipboard Copied! podman
및httpd-tools
패키지를 설치합니다.예제
dnf install -y podman httpd-tools
[root@admin ~]# dnf install -y podman httpd-tools
Copy to Clipboard Copied! 프라이빗 레지스트리의 폴더를 생성합니다.
예제
mkdir -p /opt/registry/{auth,certs,data}
[root@admin ~]# mkdir -p /opt/registry/{auth,certs,data}
Copy to Clipboard Copied! 레지스트리는
/opt/registry
에 저장되고 디렉터리는 레지스트리를 실행하는 컨테이너에 마운트됩니다.-
auth
디렉터리는 레지스트리가 인증에 사용하는htpasswd
파일을 저장합니다. -
certs
디렉터리는 레지스트리가 인증에 사용하는 인증서를 저장합니다. -
data
디렉터리는 레지스트리 이미지를 저장합니다.
-
프라이빗 레지스트리에 액세스하기 위한 인증 정보를 생성합니다.
구문
htpasswd -bBc /opt/registry/auth/htpasswd PRIVATE_REGISTRY_USERNAME PRIVATE_REGISTRY_PASSWORD
htpasswd -bBc /opt/registry/auth/htpasswd PRIVATE_REGISTRY_USERNAME PRIVATE_REGISTRY_PASSWORD
Copy to Clipboard Copied! -
b
옵션은 명령줄의 암호를 제공합니다. -
B
옵션은Bcrypt
암호화를 사용하여 암호를 저장합니다. -
c
옵션은htpasswd
파일을 생성합니다. - PRIVATE_REGISTRY_USERNAME을 프라이빗 레지스트리에 대해 생성할 사용자 이름으로 교체합니다.
PRIVATE_REGISTRY_PASSWORD를 프라이빗 레지스트리 사용자 이름에 생성할 암호로 바꿉니다.
예제
htpasswd -bBc /opt/registry/auth/htpasswd myregistryusername myregistrypassword1
[root@admin ~]# htpasswd -bBc /opt/registry/auth/htpasswd myregistryusername myregistrypassword1
Copy to Clipboard Copied!
-
자체 서명된 인증서를 생성합니다.
구문
openssl req -newkey rsa:4096 -nodes -sha256 -keyout /opt/registry/certs/domain.key -x509 -days 365 -out /opt/registry/certs/domain.crt -addext "subjectAltName = DNS:LOCAL_NODE_FQDN"
openssl req -newkey rsa:4096 -nodes -sha256 -keyout /opt/registry/certs/domain.key -x509 -days 365 -out /opt/registry/certs/domain.crt -addext "subjectAltName = DNS:LOCAL_NODE_FQDN"
Copy to Clipboard Copied! LOCAL_NODE_FQDN을 프라이빗 레지스트리 노드의 정규화된 호스트 이름으로 교체합니다.
참고인증서의 각 옵션에 대한 메시지가 표시됩니다.
CN=
값은 노드의 호스트 이름이며 DNS 또는/etc/hosts
파일에서 확인할 수 있어야 합니다.예제
openssl req -newkey rsa:4096 -nodes -sha256 -keyout /opt/registry/certs/domain.key -x509 -days 365 -out /opt/registry/certs/domain.crt -addext "subjectAltName = DNS:admin.lab.redhat.com"
[root@admin ~]# openssl req -newkey rsa:4096 -nodes -sha256 -keyout /opt/registry/certs/domain.key -x509 -days 365 -out /opt/registry/certs/domain.crt -addext "subjectAltName = DNS:admin.lab.redhat.com"
Copy to Clipboard Copied! 참고자체 서명된 인증서를 생성할 때 적절한 SAN(주체 대체 이름)을 사용하여 인증서를 생성해야 합니다. 적절한 SAN이 포함되지 않은 인증서에 대해 TLS 확인이 필요한 Podman 명령은 다음 오류를 반환합니다. x509: certificate relies on legacy Common Name field, use SANs or temporarily enable Common Name matching with GODEBUG=x509ignoreCN=0
skopeo
가 파일 확장자.cert
인 .cert인 인증서를 찾을 수 있도록domain.cert
에 대한 심볼릭 링크를 만듭니다.예제
ln -s /opt/registry/certs/domain.crt /opt/registry/certs/domain.cert
[root@admin ~]# ln -s /opt/registry/certs/domain.crt /opt/registry/certs/domain.cert
Copy to Clipboard Copied! 프라이빗 레지스트리 노드의 신뢰할 수 있는 목록에 인증서를 추가합니다.
구문
cp /opt/registry/certs/domain.crt /etc/pki/ca-trust/source/anchors/ update-ca-trust trust list | grep -i "LOCAL_NODE_FQDN"
cp /opt/registry/certs/domain.crt /etc/pki/ca-trust/source/anchors/ update-ca-trust trust list | grep -i "LOCAL_NODE_FQDN"
Copy to Clipboard Copied! LOCAL_NODE_FQDN을 프라이빗 레지스트리 노드의 FQDN으로 바꿉니다.
예제
cp /opt/registry/certs/domain.crt /etc/pki/ca-trust/source/anchors/ update-ca-trust trust list | grep -i "admin.lab.redhat.com"
[root@admin ~]# cp /opt/registry/certs/domain.crt /etc/pki/ca-trust/source/anchors/ [root@admin ~]# update-ca-trust [root@admin ~]# trust list | grep -i "admin.lab.redhat.com" label: admin.lab.redhat.com
Copy to Clipboard Copied! 인증서를 설치하기 위해 프라이빗 레지스트리에 액세스하는 노드에 복사하고 신뢰할 수 있는 목록을 업데이트합니다.
예제
scp /opt/registry/certs/domain.crt root@host01:/etc/pki/ca-trust/source/anchors/ ssh root@host01 update-ca-trust trust list | grep -i "admin.lab.redhat.com"
[root@admin ~]# scp /opt/registry/certs/domain.crt root@host01:/etc/pki/ca-trust/source/anchors/ [root@admin ~]# ssh root@host01 [root@host01 ~]# update-ca-trust [root@host01 ~]# trust list | grep -i "admin.lab.redhat.com" label: admin.lab.redhat.com
Copy to Clipboard Copied! 로컬 보안 프라이빗 레지스트리를 시작합니다.
구문
podman run --restart=always --name NAME_OF_CONTAINER \ -p 5000:5000 -v /opt/registry/data:/var/lib/registry:z \ -v /opt/registry/auth:/auth:z \ -v /opt/registry/certs:/certs:z \ -e "REGISTRY_AUTH=htpasswd" \ -e "REGISTRY_AUTH_HTPASSWD_REALM=Registry Realm" \ -e REGISTRY_AUTH_HTPASSWD_PATH=/auth/htpasswd \ -e "REGISTRY_HTTP_TLS_CERTIFICATE=/certs/domain.crt" \ -e "REGISTRY_HTTP_TLS_KEY=/certs/domain.key" \ -e REGISTRY_COMPATIBILITY_SCHEMA1_ENABLED=true \ -d registry:2
[root@admin ~]# podman run --restart=always --name NAME_OF_CONTAINER \ -p 5000:5000 -v /opt/registry/data:/var/lib/registry:z \ -v /opt/registry/auth:/auth:z \ -v /opt/registry/certs:/certs:z \ -e "REGISTRY_AUTH=htpasswd" \ -e "REGISTRY_AUTH_HTPASSWD_REALM=Registry Realm" \ -e REGISTRY_AUTH_HTPASSWD_PATH=/auth/htpasswd \ -e "REGISTRY_HTTP_TLS_CERTIFICATE=/certs/domain.crt" \ -e "REGISTRY_HTTP_TLS_KEY=/certs/domain.key" \ -e REGISTRY_COMPATIBILITY_SCHEMA1_ENABLED=true \ -d registry:2
Copy to Clipboard Copied! NAME_OF_CONTAINER 를 컨테이너에 할당할 이름으로 교체합니다.
예제
podman run --restart=always --name myprivateregistry \ -p 5000:5000 -v /opt/registry/data:/var/lib/registry:z \ -v /opt/registry/auth:/auth:z \ -v /opt/registry/certs:/certs:z \ -e "REGISTRY_AUTH=htpasswd" \ -e "REGISTRY_AUTH_HTPASSWD_REALM=Registry Realm" \ -e REGISTRY_AUTH_HTPASSWD_PATH=/auth/htpasswd \ -e "REGISTRY_HTTP_TLS_CERTIFICATE=/certs/domain.crt" \ -e "REGISTRY_HTTP_TLS_KEY=/certs/domain.key" \ -e REGISTRY_COMPATIBILITY_SCHEMA1_ENABLED=true \ -d registry:2
[root@admin ~]# podman run --restart=always --name myprivateregistry \ -p 5000:5000 -v /opt/registry/data:/var/lib/registry:z \ -v /opt/registry/auth:/auth:z \ -v /opt/registry/certs:/certs:z \ -e "REGISTRY_AUTH=htpasswd" \ -e "REGISTRY_AUTH_HTPASSWD_REALM=Registry Realm" \ -e REGISTRY_AUTH_HTPASSWD_PATH=/auth/htpasswd \ -e "REGISTRY_HTTP_TLS_CERTIFICATE=/certs/domain.crt" \ -e "REGISTRY_HTTP_TLS_KEY=/certs/domain.key" \ -e REGISTRY_COMPATIBILITY_SCHEMA1_ENABLED=true \ -d registry:2
Copy to Clipboard Copied! 이는 포트 5000에서 개인 레지스트리를 시작하고 레지스트리를 실행하는 컨테이너에 레지스트리 디렉터리의 볼륨을 마운트합니다.
로컬 레지스트리 노드에서
registry.redhat.io
가 컨테이너 레지스트리 검색 경로에 있는지 확인합니다./etc/containers/registries.conf
파일을 편집하려면 이를 열고registry.redhat.io
를unqualified-search-registries
목록에 추가합니다.예제
unqualified-search-registries = ["registry.redhat.io", "registry.access.redhat.com", "registry.fedoraproject.org", "registry.centos.org", "docker.io"]
unqualified-search-registries = ["registry.redhat.io", "registry.access.redhat.com", "registry.fedoraproject.org", "registry.centos.org", "docker.io"]
Copy to Clipboard Copied!
Red Hat Customer Portal 인증 정보를 사용하여
registry.redhat.io
에 로그인합니다.구문
podman login registry.redhat.io
podman login registry.redhat.io
Copy to Clipboard Copied! Red Hat 고객 포털에서 프라이빗 레지스트리로 다음 Red Hat Ceph Storage 5 이미지, Prometheus 이미지 및 대시보드 이미지를 복사합니다.
표 3.1. 모니터링 스택의 사용자 정의 이미지 세부 정보 스택 구성 요소 모니터링 이미지 세부 정보 Prometheus
registry.redhat.io/openshift4/ose-prometheus:v4.10
Grafana
registry.redhat.io/rhceph/rhceph-5-dashboard-rhel8:latest
node-exporter
registry.redhat.io/openshift4/ose-prometheus-node-exporter:v4.10
AlertManager
registry.redhat.io/openshift4/ose-prometheus-alertmanager:v4.10
HAProxy
registry.redhat.io/rhceph/rhceph-haproxy-rhel8:latest
Keepalived
registry.redhat.io/rhceph/keepalived-rhel8:latest
SNMP Gateway
registry.redhat.io/rhceph/snmp-notifier-rhel8:latest
구문
podman run -v /CERTIFICATE_DIRECTORY_PATH:/certs:Z -v /CERTIFICATE_DIRECTORY_PATH/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds RED_HAT_CUSTOMER_PORTAL_LOGIN:RED_HAT_CUSTOMER_PORTAL_PASSWORD --dest-cert-dir=./certs/ --dest-creds PRIVATE_REGISTRY_USERNAME:PRIVATE_REGISTRY_PASSWORD docker://registry.redhat.io/SRC_IMAGE:SRC_TAG docker://LOCAL_NODE_FQDN:5000/DST_IMAGE:DST_TAG
podman run -v /CERTIFICATE_DIRECTORY_PATH:/certs:Z -v /CERTIFICATE_DIRECTORY_PATH/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds RED_HAT_CUSTOMER_PORTAL_LOGIN:RED_HAT_CUSTOMER_PORTAL_PASSWORD --dest-cert-dir=./certs/ --dest-creds PRIVATE_REGISTRY_USERNAME:PRIVATE_REGISTRY_PASSWORD docker://registry.redhat.io/SRC_IMAGE:SRC_TAG docker://LOCAL_NODE_FQDN:5000/DST_IMAGE:DST_TAG
Copy to Clipboard Copied! - CERTIFICATE_DIRECTORY_PATH를 자체 서명된 인증서의 디렉터리 경로로 바꿉니다.
- RED_HAT_CUSTOMER_PORTAL_LOGIN 및 RED_HAT_CUSTOMER_PORTAL_PASSWORD를 Red Hat Customer Portal 인증 정보로 교체합니다.
- PRIVATE_REGISTRY_USERNAME 및 PRIVATE_REGISTRY_PASSWORD를 프라이빗 레지스트리 인증 정보로 교체합니다.
- SRC_IMAGE 및 SRC_TAG를 registry.redhat.io에서 복사할 이미지의 이름 및 태그로 교체합니다.
- DST_IMAGE 및 DST_TAG를 프라이빗 레지스트리에 복사할 이미지의 이름 및 태그로 바꿉니다.
LOCAL_NODE_FQDN을 프라이빗 레지스트리의 FQDN으로 바꿉니다.
예제
podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/rhceph/rhceph-5-rhel8:latest docker://admin.lab.redhat.com:5000/rhceph/rhceph-5-rhel8:latest podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/openshift4/ose-prometheus-node-exporter:v4.10 docker://admin.lab.redhat.com:5000/openshift4/ose-prometheus-node-exporter:v4.10 podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/rhceph/rhceph-5-dashboard-rhel8:latest docker://admin.lab.redhat.com:5000/rhceph/rhceph-5-dashboard-rhel8:latest podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/openshift4/ose-prometheus:v4.10 docker://admin.lab.redhat.com:5000/openshift4/ose-prometheus:v4.10 podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/openshift4/ose-prometheus-alertmanager:v4.10 docker://admin.lab.redhat.com:5000/openshift4/ose-prometheus-alertmanager:v4.10
[root@admin ~]# podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/rhceph/rhceph-5-rhel8:latest docker://admin.lab.redhat.com:5000/rhceph/rhceph-5-rhel8:latest [root@admin ~]# podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/openshift4/ose-prometheus-node-exporter:v4.10 docker://admin.lab.redhat.com:5000/openshift4/ose-prometheus-node-exporter:v4.10 [root@admin ~]# podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/rhceph/rhceph-5-dashboard-rhel8:latest docker://admin.lab.redhat.com:5000/rhceph/rhceph-5-dashboard-rhel8:latest [root@admin ~]# podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/openshift4/ose-prometheus:v4.10 docker://admin.lab.redhat.com:5000/openshift4/ose-prometheus:v4.10 [root@admin ~]# podman run -v /opt/registry/certs:/certs:Z -v /opt/registry/certs/domain.cert:/certs/domain.cert:Z --rm registry.redhat.io/rhel8/skopeo:8.5-8 skopeo copy --remove-signatures --src-creds myusername:mypassword1 --dest-cert-dir=./certs/ --dest-creds myregistryusername:myregistrypassword1 docker://registry.redhat.io/openshift4/ose-prometheus-alertmanager:v4.10 docker://admin.lab.redhat.com:5000/openshift4/ose-prometheus-alertmanager:v4.10
Copy to Clipboard Copied!
curl
명령을 사용하여 이미지가 로컬 레지스트리에 있는지 확인합니다.구문
curl -u PRIVATE_REGISTRY_USERNAME:PRIVATE_REGISTRY_PASSWORD https://LOCAL_NODE_FQDN:5000/v2/_catalog
curl -u PRIVATE_REGISTRY_USERNAME:PRIVATE_REGISTRY_PASSWORD https://LOCAL_NODE_FQDN:5000/v2/_catalog
Copy to Clipboard Copied! 예제
curl -u myregistryusername:myregistrypassword1 https://admin.lab.redhat.com:5000/v2/_catalog
[root@admin ~]# curl -u myregistryusername:myregistrypassword1 https://admin.lab.redhat.com:5000/v2/_catalog {"repositories":["openshift4/ose-prometheus","openshift4/ose-prometheus-alertmanager","openshift4/ose-prometheus-node-exporter","rhceph/rhceph-5-dashboard-rhel8","rhceph/rhceph-5-rhel8"]}
Copy to Clipboard Copied!
3.12.7. 연결이 끊긴 설치를 위해 preflight Playbook 실행
cephadm-preflight.yml
Ansible 플레이북을 사용하여 Ceph 리포지토리를 구성하고 부트스트랩을 위해 스토리지 클러스터를 준비합니다. podman
,lvm2
,chrony
, cephadm
과 같은 몇 가지 사전 요구 사항도 설치합니다.
cephadm-preflight
Playbook은 지원되지 않으므로 Red Hat Enterprise Linux 9에 대해 이 단계를 건너뜁니다.
preflight 플레이북은 cephadm-ansible
인벤토리 hosts
파일을 사용하여 스토리지 클러스터의 모든 노드를 식별합니다. cephadm-ansible
, cephadm-preflight.yml
, 인벤토리 hosts
파일의 기본 위치는 /usr/share/cephadm-ansible/
입니다.
다음 예제는 일반적인 인벤토리 파일의 구조를 보여줍니다.
예제
host02 host03 host04 [admin] host01
host02
host03
host04
[admin]
host01
인벤토리 파일의 [admin]
그룹에는 관리자 인증 키가 저장된 노드의 이름이 포함되어 있습니다.
초기 호스트를 부트스트랩하기 전에 preflight 플레이북을 실행합니다.
사전 요구 사항
-
cephadm-ansible
패키지가 Ansible 관리 노드에 설치되어 있습니다. - 스토리지 클러스터의 모든 노드에 대한 루트 수준 액세스.
-
암호 없는
ssh
는 스토리지 클러스터의 모든 호스트에 설정됩니다. 다음 리포지토리가 활성화된 로컬 YUM 리포지토리 서버에 액세스하도록 구성된 노드.
- rhel-8-for-x86_64-baseos-rpms
- rhel-8-for-x86_64-appstream-rpms
- rhceph-5-tools-for-rhel-8-x86_64-rpms
로컬 YUM 리포지토리 설정에 대한 자세한 내용은 기술 자료 문서 Creating a Local Repository and Sharing with Disconnected/Offline/Air-gapped Systems를 참조하십시오.
절차
-
Ansible 관리 노드의
/usr/share/cephadm-ansible
디렉터리로 이동합니다. -
hosts
파일을 열고 편집하고 노드를 추가합니다. 로컬 YUM 리포지토리를 사용하려면
ceph_origin
매개변수가custom
으로 설정된 상태에서 preflight 플레이북을 실행합니다.구문
ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=CUSTOM_REPO_URL"
ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=CUSTOM_REPO_URL"
Copy to Clipboard Copied! 예제
ansible-playbook -i hosts cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=http://mycustomrepo.lab.redhat.com/x86_64/os/"
[ceph-admin@admin cephadm-ansible]$ ansible-playbook -i hosts cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=http://mycustomrepo.lab.redhat.com/x86_64/os/"
Copy to Clipboard Copied! 설치가 완료되면
cephadm
은/usr/sbin/
디렉터리에 있습니다.또는
--limit
옵션을 사용하여 스토리지 클러스터에서 선택한 호스트 집합에서 preflight 플레이북을 실행할 수 있습니다.구문
ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=CUSTOM_REPO_URL" --limit GROUP_NAME|NODE_NAME
ansible-playbook -i INVENTORY_FILE cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=CUSTOM_REPO_URL" --limit GROUP_NAME|NODE_NAME
Copy to Clipboard Copied! GROUP_NAME 을 인벤토리 파일의 그룹 이름으로 바꿉니다. NODE_NAME 을 인벤토리 파일의 특정 노드 이름으로 바꿉니다.
예제
ansible-playbook -i hosts cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=http://mycustomrepo.lab.redhat.com/x86_64/os/" --limit clients ansible-playbook -i hosts cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=http://mycustomrepo.lab.redhat.com/x86_64/os/" --limit host02
[ceph-admin@admin cephadm-ansible]$ ansible-playbook -i hosts cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=http://mycustomrepo.lab.redhat.com/x86_64/os/" --limit clients [ceph-admin@admin cephadm-ansible]$ ansible-playbook -i hosts cephadm-preflight.yml --extra-vars "ceph_origin=custom" -e "custom_repo_url=http://mycustomrepo.lab.redhat.com/x86_64/os/" --limit host02
Copy to Clipboard Copied! 참고preflight 플레이북을 실행하면
cephadm-ansible
이 클라이언트 노드에chrony
및ceph-common
을 자동으로 설치합니다.
3.12.8. 연결 해제된 설치 수행
설치를 수행하기 전에 Red Hat 레지스트리에 액세스할 수 있는 프록시 호스트에서 또는 이미지를 로컬 레지스트리에 복사하는 프록시 호스트에서 Red Hat Ceph Storage 컨테이너 이미지를 가져와야 합니다.
로컬 레지스트리에서 로컬 레지스트리가 포함된 자체 서명된 인증서를 사용하는 경우 신뢰할 수 있는 루트 인증서를 부트스트랩 호스트에 추가했는지 확인하십시오. 자세한 내용은 연결 해제된 설치에 대한 프라이빗 레지스트리 구성을 참조하십시오.
Red Hat Ceph Storage 5는 Red Hat Enterprise Linux 8.4 EUS 이상에서 지원됩니다.
부트스트랩 프로세스를 시작하기 전에 사용하려는 컨테이너 이미지에 cephadm
과 동일한 버전의 Red Hat Ceph Storage가 있는지 확인합니다. 두 버전이 일치하지 않으면 Creating initial admin user
단계에서 부트스트랩이 실패합니다.
사전 요구 사항
- 실행 중인 VM(가상 머신) 또는 서버 중 하나 이상
- 모든 노드에 대한 루트 수준 액세스.
-
암호 없는
ssh
는 스토리지 클러스터의 모든 호스트에 설정됩니다. - preflight 플레이북은 스토리지 클러스터의 부트스트랩 호스트에서 실행되었습니다. 자세한 내용은 연결이 해제된 설치의 preflight Playbook 실행을 참조하십시오.
- 프라이빗 레지스트리가 구성되었으며 부트스트랩 노드가 액세스할 수 있습니다. 자세한 내용은 연결 해제된 설치에 대한 프라이빗 레지스트리 구성을 참조하십시오.
- Red Hat Ceph Storage 컨테이너 이미지는 사용자 정의 레지스트리에 있습니다.
절차
- 부트스트랩 호스트에 로그인합니다.
스토리지 클러스터를 부트스트랩합니다.
구문
cephadm --image PRIVATE_REGISTRY_NODE_FQDN:5000/CUSTOM_IMAGE_NAME:IMAGE_TAG bootstrap --mon-ip IP_ADDRESS --registry-url PRIVATE_REGISTRY_NODE_FQDN:5000 --registry-username PRIVATE_REGISTRY_USERNAME --registry-password PRIVATE_REGISTRY_PASSWORD
cephadm --image PRIVATE_REGISTRY_NODE_FQDN:5000/CUSTOM_IMAGE_NAME:IMAGE_TAG bootstrap --mon-ip IP_ADDRESS --registry-url PRIVATE_REGISTRY_NODE_FQDN:5000 --registry-username PRIVATE_REGISTRY_USERNAME --registry-password PRIVATE_REGISTRY_PASSWORD
Copy to Clipboard Copied! - PRIVATE_REGISTRY_NODE_FQDN을 프라이빗 레지스트리의 정규화된 도메인 이름으로 교체합니다.
- CUSTOM_IMAGE_NAME 및 IMAGE_TAG를 프라이빗 레지스트리에 있는 Red Hat Ceph Storage 컨테이너 이미지의 이름 및 태그로 교체합니다.
-
IP_ADDRESS를
cephadm bootstrap
을 실행하는 데 사용 중인 노드의 IP 주소로 바꿉니다. - PRIVATE_REGISTRY_USERNAME을 프라이빗 레지스트리에 대해 생성할 사용자 이름으로 교체합니다.
PRIVATE_REGISTRY_PASSWORD를 프라이빗 레지스트리 사용자 이름에 생성할 암호로 바꿉니다.
예제
cephadm --image admin.lab.redhat.com:5000/rhceph/rhceph-5-rhel8:latest bootstrap --mon-ip 10.10.128.68 --registry-url admin.lab.redhat.com:5000 --registry-username myregistryusername --registry-password myregistrypassword1
[root@host01 ~]# cephadm --image admin.lab.redhat.com:5000/rhceph/rhceph-5-rhel8:latest bootstrap --mon-ip 10.10.128.68 --registry-url admin.lab.redhat.com:5000 --registry-username myregistryusername --registry-password myregistrypassword1
Copy to Clipboard Copied! 스크립트가 완료되는 데 몇 분이 걸립니다. 스크립트가 완료되면 Red Hat Ceph Storage 대시보드 URL에 인증 정보, Ceph CLI(명령줄 인터페이스)에 액세스하는 명령, Telemetry를 활성화하는 요청을 제공합니다.
Ceph Dashboard is now available at: URL: https://host01:8443/ User: admin Password: i8nhu7zham Enabling client.admin keyring and conf on hosts with "admin" label You can access the Ceph CLI with: sudo /usr/sbin/cephadm shell --fsid 266ee7a8-2a05-11eb-b846-5254002d4916 -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring Please consider enabling telemetry to help improve Ceph: ceph telemetry on For more information see: https://docs.ceph.com/docs/master/mgr/telemetry/ Bootstrap complete.
Ceph Dashboard is now available at: URL: https://host01:8443/ User: admin Password: i8nhu7zham Enabling client.admin keyring and conf on hosts with "admin" label You can access the Ceph CLI with: sudo /usr/sbin/cephadm shell --fsid 266ee7a8-2a05-11eb-b846-5254002d4916 -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring Please consider enabling telemetry to help improve Ceph: ceph telemetry on For more information see: https://docs.ceph.com/docs/master/mgr/telemetry/ Bootstrap complete.
Copy to Clipboard Copied!
부트스트랩 프로세스가 완료된 후 연결 해제된 설치의 사용자 지정 컨테이너 이미지 구성 변경을 참조하십시오.
3.12.9. 연결이 해제된 설치를 위한 사용자 정의 컨테이너 이미지 구성 변경
연결이 해제된 노드의 초기 부트스트랩을 수행한 후 스택 데몬 모니터링을 위한 사용자 지정 컨테이너 이미지를 지정해야 합니다. 노드가 기본 컨테이너 레지스트리에 액세스할 수 없으므로 스택 데몬 모니터링에 대한 기본 컨테이너 이미지를 덮어쓸 수 있습니다.
구성을 변경하기 전에 초기 호스트의 부트스트랩 프로세스가 완료되었는지 확인합니다.
기본적으로 모니터링 스택 구성 요소는 기본 Ceph 이미지를 기반으로 배포됩니다. 스토리지 클러스터의 연결이 해제된 환경의 경우 사용 가능한 최신 모니터링 스택 구성 요소 이미지를 사용할 수 있습니다.
사용자 지정 레지스트리를 사용하는 경우 Ceph 데몬을 추가하기 전에 새로 추가된 노드의 사용자 정의 레지스트리에 로그인해야 합니다.
구문
ceph cephadm registry-login --registry-url CUSTOM_REGISTRY_NAME --registry_username REGISTRY_USERNAME --registry_password REGISTRY_PASSWORD
# ceph cephadm registry-login --registry-url CUSTOM_REGISTRY_NAME --registry_username REGISTRY_USERNAME --registry_password REGISTRY_PASSWORD
예제
ceph cephadm registry-login --registry-url myregistry --registry_username myregistryusername --registry_password myregistrypassword1
# ceph cephadm registry-login --registry-url myregistry --registry_username myregistryusername --registry_password myregistrypassword1
사전 요구 사항
- 실행 중인 VM(가상 머신) 또는 서버 중 하나 이상
- Red Hat Enterprise Linux 8.4 EUS 또는 Red Hat Enterprise Linux 8.5.
- 모든 노드에 대한 루트 수준 액세스.
-
암호 없는
ssh
는 스토리지 클러스터의 모든 호스트에 설정됩니다.
절차
ceph config
명령을 사용하여 사용자 정의 컨테이너 이미지를 설정합니다.구문
ceph config set mgr mgr/cephadm/OPTION_NAME CUSTOM_REGISTRY_NAME/CONTAINER_NAME
ceph config set mgr mgr/cephadm/OPTION_NAME CUSTOM_REGISTRY_NAME/CONTAINER_NAME
Copy to Clipboard Copied! OPTION_NAME에 대해 다음 옵션을 사용합니다.
container_image_prometheus container_image_grafana container_image_alertmanager container_image_node_exporter
container_image_prometheus container_image_grafana container_image_alertmanager container_image_node_exporter
Copy to Clipboard Copied! 예제
ceph config set mgr mgr/cephadm/container_image_prometheus myregistry/mycontainer ceph config set mgr mgr/cephadm/container_image_grafana myregistry/mycontainer ceph config set mgr mgr/cephadm/container_image_alertmanager myregistry/mycontainer ceph config set mgr mgr/cephadm/container_image_node_exporter myregistry/mycontainer
[root@host01 ~]# ceph config set mgr mgr/cephadm/container_image_prometheus myregistry/mycontainer [root@host01 ~]# ceph config set mgr mgr/cephadm/container_image_grafana myregistry/mycontainer [root@host01 ~]# ceph config set mgr mgr/cephadm/container_image_alertmanager myregistry/mycontainer [root@host01 ~]# ceph config set mgr mgr/cephadm/container_image_node_exporter myregistry/mycontainer
Copy to Clipboard Copied! node-exporter
를 재배포합니다.구문
ceph orch redeploy node-exporter
ceph orch redeploy node-exporter
Copy to Clipboard Copied!
배포되지 않는 서비스는 ceph orch redeploy
명령으로 재배포할 수 있습니다.
사용자 지정 이미지를 설정하면 구성 이미지 이름 및 태그의 기본값이 재정의되지만 덮어쓰지 않습니다. 업데이트가 사용 가능할 때 기본값이 변경됩니다. 사용자 지정 이미지를 설정하면 자동 업데이트를 위해 사용자 지정 이미지를 설정한 구성 요소를 구성할 수 없습니다. 업데이트를 설치하려면 구성 이미지 이름과 태그를 수동으로 업데이트해야 합니다.
기본 구성을 사용하여 되돌리는 경우 사용자 정의 컨테이너 이미지를 재설정할 수 있습니다.
ceph config rm
을 사용하여 설정 옵션을 재설정합니다.구문
ceph config rm mgr mgr/cephadm/OPTION_NAME
ceph config rm mgr mgr/cephadm/OPTION_NAME
Copy to Clipboard Copied! 예제
ceph config rm mgr mgr/cephadm/container_image_prometheus
ceph config rm mgr mgr/cephadm/container_image_prometheus
Copy to Clipboard Copied!