1.10. 스토리지 클러스터를 cephadm사용으로 변환


스토리지 클러스터를 Red Hat Ceph Storage 5로 업그레이드한 후 cephadm-adopt 플레이북을 실행하여 스토리지 클러스터 데몬을 변환하여 cephadm 을 실행합니다.

cephadm-adopt 플레이북은 Ceph 서비스를 적용하고, 모든 cephadm 종속성을 설치하고, cephadm Orchestrator 백엔드를 활성화하고, 모든 호스트에서 ssh 키를 생성 및 구성하고, 호스트를 Orchestrator 구성에 추가합니다.

참고

cephadm-adopt 플레이북을 실행한 후 ceph-ansible 패키지를 삭제합니다. 클러스터 데몬은 더 이상 ceph-ansible 에서 작동하지 않습니다. cephadm 을 사용하여 클러스터 데몬을 관리해야 합니다.

사전 요구 사항

  • 실행 중인 Red Hat Ceph Storage 클러스터.
  • 스토리지 클러스터의 모든 노드에 대한 루트 수준 액세스.

절차

  1. ceph-ansible 노드에 로그인하고 디렉토리를 /usr/share/ceph-ansible 로 변경합니다.
  2. all.yml 파일을 편집합니다.

    구문

    ceph_origin: custom/rhcs
    ceph_custom_repositories:
      - name: NAME
        state: present
        description: DESCRIPTION
        gpgcheck: 'no'
        baseurl: BASE_URL
        file: FILE_NAME
        priority: '2'
        enabled: 1

    예제

    ceph_origin: custom
    ceph_custom_repositories:
      - name: ceph_custom
        state: present
        description: Ceph custom repo
        gpgcheck: 'no'
        baseurl: https://example.ceph.redhat.com
        file: cephbuild
        priority: '2'
        enabled: 1
      - name: ceph_custom_1
        state: present
        description: Ceph custom repo 1
        gpgcheck: 'no'
        baseurl: https://example.ceph.redhat.com
        file: cephbuild_1
        priority: '2'
        enabled: 1

  3. cephadm-adopt 플레이북을 실행합니다.

    구문

    ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i INVENTORY_FILE

    예제

    [ceph-admin@admin ceph-ansible]$ ansible-playbook infrastructure-playbooks/cephadm-adopt.yml -i hosts

  4. 최소 compat 클라이언트 매개변수를 luminous 로 설정합니다.

    예제

    [ceph: root@node0 /]# ceph osd set-require-min-compat-client luminous

  5. 다음 명령을 실행하여 NFS-Ganesha 풀에서 애플리케이션을 실행할 수 있습니다. POOL_NAMEnfs-ganesha 이고 APPLICATION_NAME 은 사용할 애플리케이션 이름입니다(예: cephfs,rbd 또는 rgw ).

    구문

    ceph osd pool application enable POOL_NAME APPLICATION_NAME

    예제

    [ceph: root@node0 /]# ceph osd pool application enable nfs-ganesha rgw

    중요

    cephadm-adopt 플레이북은 Red Hat Ceph Storage 4에서 Red Hat Ceph Storage 5로 스토리지 클러스터를 마이그레이션한 후 rbd-mirroring을 가져오지 않습니다.

    이 문제를 해결하려면 피어를 수동으로 추가합니다.

    구문

    rbd mirror pool peer add POOL_NAME CLIENT_NAME@CLUSTER_NAME

    예제

    [ceph: root@node0 /]# rbd --cluster site-a mirror pool peer add image-pool client.rbd-mirror-peer@site-b

  6. 업그레이드 후 Grafana 제거:

    1. Cephadm 쉘에 로그인합니다.

      예제

      [root@host01 ~]# cephadm shell

    2. 스토리지 클러스터에서 Grafana 이름을 가져옵니다.

      예제

      [ceph: root@host01 /]# ceph orch ps --daemon_type grafana

    3. Grafana 제거:

      구문

      ceph orch daemon rm GRAFANA_DAEMON_NAME

      예제

      [ceph: root@host01 /]# ceph orch daemon rm grafana.host01
      
      Removed grafana.host01 from host 'host01'

    4. 몇 분 기다렸다가 최신 로그를 확인합니다.

      예제

      [ceph: root@host01 /]# ceph log last cephadm

      cephadm 은 Grafana 서비스 및 데몬을 재배포합니다.

추가 리소스

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.