2.7. OpenShift Data Foundation 배포 확인


OpenShift Data Foundation이 올바르게 배포되었는지 확인하려면 다음을 수행하십시오.

2.7.1. Pod 상태 확인

절차

  1. OpenShift 웹 콘솔에서 워크로드 Pod를 클릭합니다.
  2. 프로젝트 드롭다운 목록에서 openshift-storage 를 선택합니다.

    참고

    기본 프로젝트 표시 옵션이 비활성화된 경우 토글 버튼을 사용하여 모든 기본 프로젝트를 나열합니다.

    각 구성 요소에 대해 예상되는 Pod 수 및 노드 수에 따라 달라지는 방법에 대한 자세한 내용은 표 2.1. “OpenShift Data Foundation 클러스터에 해당하는 Pod” 을 참조하십시오.

  3. 실행 중 및 완료 Pod에 대한 필터를 설정하여 다음 Pod가 RunningCompleted 상태인지 확인합니다.

    표 2.1. OpenShift Data Foundation 클러스터에 해당하는 Pod
    구성 요소해당 Pod

    OpenShift Data Foundation Operator

    • OCS-operator-* (모든 스토리지 노드에 1 Pod)
    • OCS-metrics-exporter-* (모든 스토리지 노드에 1 Pod)
    • ODF-operator-controller-manager-* (모든 스토리지 노드에 1 Pod)
    • ODF-console-* (모든 스토리지 노드에 1 Pod)
    • CSI-addons-controller-manager-* (모든 스토리지 노드에 1 Pod)

    Rook-ceph Operator

    rook-ceph-operator-*

    (모든 스토리지 노드에 1 Pod)

    Multicloud Object Gateway

    • NooBaa-operator-* (모든 스토리지 노드에 1 Pod)
    • NooBaa-core-* (모든 스토리지 노드에 1 Pod)
    • NooBaa-db-pg-* (모든 스토리지 노드에 1 Pod)
    • NooBaa-endpoint-* (모든 스토리지 노드에 1 Pod)

    MON

    rook-ceph-mon-*

    (스토리지 노드에 분산된 3 Pod)

    MGR

    rook-ceph-mgr-*

    (모든 스토리지 노드에 1 Pod)

    MDS

    rook-ceph-mds-ocs-storagecluster-cephfilesystem-*

    (스토리지 노드에 분산된 2 Pod)

    RGW

    rook-ceph-rgw-ocs-storagecluster-cephobjectstore-* (모든 스토리지 노드에 1 Pod)

    CSI

    • cephfs

      • CSI-cephfsplugin-* (각 스토리지 노드에 1 Pod)
      • CSI-cephfsplugin-provisioner-* (스토리지 노드에 분산된 2 Pod)
    • rbd

      • CSI-rbdplugin-* (각 스토리지 노드에 1 Pod)
      • CSI-rbdplugin-provisioner-* (2 스토리지 노드에 분산된 2 Pod)

    rook-ceph-crashcollector

    rook-ceph-crashcollector-*

    (각 스토리지 노드에서 1 pod)

    OSD

    • rook-ceph-osd-* (각 장치의 1 Pod)
    • rook-ceph-osd-prepare-ocs-deviceset-* (각 장치의 1 Pod)

2.7.2. OpenShift Data Foundation 클러스터 상태 확인

절차

  1. OpenShift 웹 콘솔에서 스토리지 데이터 기반 을 클릭합니다.
  2. 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.
  3. 블록 및 파일 탭의 상태 카드에서 스토리지 클러스터에 녹색 눈금 이 있는지 확인합니다.
  4. 세부 정보 카드에서 클러스터 정보가 표시되는지 확인합니다.

블록 및 파일 대시보드를 사용하는 OpenShift Data Foundation 클러스터의 상태에 대한 자세한 내용은 OpenShift Data Foundation 모니터링 을 참조하십시오.

2.7.3. Multicloud Object Gateway의 상태 확인

절차

  1. OpenShift 웹 콘솔에서 스토리지 데이터 기반 을 클릭합니다.
  2. 개요 탭의 상태 카드에서 스토리지 시스템을 클릭한 다음 해당 팝업에서 스토리지 시스템 링크를 클릭합니다.

    1. Object 탭의 상태 카드에서 Object ServiceData Resiliency 모두 녹색 눈금이 있는지 확인합니다.
    2. 세부 정보 카드에 MCG 정보가 표시되는지 확인합니다.

오브젝트 서비스 대시보드를 사용하는 OpenShift Data Foundation 클러스터의 상태에 대한 자세한 내용은 OpenShift Data Foundation 모니터링을 참조하십시오.

중요

Multicloud Object Gateway에는 데이터베이스의 단일 사본만 있습니다(NooBaa DB). 즉, NooBaa DB PVC가 손상되어 복구할 수 없는 경우 Multicloud Object Gateway에 있는 적용 가능한 데이터의 총 데이터 손실이 발생할 수 있습니다. 이로 인해 Red Hat은 NooBaa DB PVC를 정기적으로 백업할 것을 권장합니다. NooBaa DB가 실패하고 복구할 수 없는 경우 최신 백업 버전으로 되돌릴 수 있습니다. NooBaa DB 백업에 대한 자세한 내용은 이 knowledgabase 문서 의 단계를 따르십시오.

2.7.4. 특정 스토리지 클래스가 존재하는지 확인

절차

  1. OpenShift 웹 콘솔의 왼쪽 창에서 스토리지 스토리지 클래스를 클릭합니다.
  2. OpenShift Data Foundation 클러스터 생성과 함께 다음 스토리지 클래스가 생성되었는지 확인합니다.

2.7.5. Multus 네트워킹 확인

Multus가 클러스터에서 작동하는지 확인하려면 Multus 네트워킹을 확인합니다.

절차

네트워크 구성 선택 사항에 따라 OpenShift Data Foundation Operator는 다음 중 하나를 수행합니다.

  • 공용 네트워크 인터페이스에 대해 단일 NetworkAttachmentDefinition(예: ocs-public-cluster)만 선택한 경우 애플리케이션 pod와 OpenShift Data Foundation 클러스터 간의 트래픽이 이 네트워크에서 수행됩니다. 또한 클러스터는 OSD 간 복제 및 트래픽 재조정에 이 네트워크를 사용하도록 자체 구성됩니다.
  • 스토리지 클러스터 설치 중에 공용 네트워크 인터페이스와 클러스터 네트워크 인터페이스에 대해 각각 NetworkAttachmentDefinitions(예: ocs-publicocs-cluster)를 선택한 경우, OSD 간 트래픽 복제 및 균형 재조정을 위해 클라이언트 스토리지 트래픽이 공용 네트워크와 클러스터 네트워크에 있게 됩니다.

네트워크 구성이 올바른지 확인하려면 다음을 완료합니다.

OpenShift 콘솔에서 설치된 Operator OpenShift Data Foundation 스토리지 시스템 ocs-storagecluster-storagesystem 리소스 ocs-storagecluster 로 이동합니다.

YAML 탭에서 spec 섹션에서 r network를 검색하고 네트워크 인터페이스 선택 사항에 대한 구성이 올바른지 확인합니다. 이 예에서는 클라이언트 스토리지 트래픽을 스토리지 복제 트래픽과 분리하기 위한 것입니다.

샘플 출력:

[..]
spec:
  [..]
  network:
    ipFamily: IPv4
    provider: multus
    selectors:
      cluster: openshift-storage/ocs-cluster
      public: openshift-storage/ocs-public
  [..]
Copy to Clipboard

명령줄 인터페이스를 사용하여 네트워크 구성이 올바른지 확인하려면 다음 명령을 실행합니다.

$ oc get storagecluster ocs-storagecluster \
-n openshift-storage \
-o=jsonpath='{.spec.network}{"\n"}'
Copy to Clipboard

샘플 출력:

{"ipFamily":"IPv4","provider":"multus","selectors":{"cluster":"openshift-storage/ocs-cluster","public":"openshift-storage/ocs-public"}}
Copy to Clipboard

OSD pod에서 올바른 네트워크를 사용하고 있는지 확인

openshift-storage 네임스페이스에서 OSD pod 중 하나를 사용하여 Pod가 올바른 네트워크에 연결되어 있는지 확인합니다. 이 예에서는 클라이언트 스토리지 트래픽을 스토리지 복제 트래픽과 분리하기 위한 것입니다.

참고

둘 다 생성되는 경우 OSD pod만 Multus 공용 및 클러스터 네트워크에 연결됩니다. 기타 모든 OCS Pod는 Multus 공용 네트워크에 연결됩니다.

$ oc get -n openshift-storage $(oc get pods -n openshift-storage -o name -l app=rook-ceph-osd | grep 'osd-0') -o=jsonpath='{.metadata.annotations.k8s\.v1\.cni\.cncf\.io/network-status}{"\n"}'
Copy to Clipboard

샘플 출력:

[{
    "name": "openshift-sdn",
    "interface": "eth0",
    "ips": [
        "10.129.2.30"
    ],
    "default": true,
    "dns": {}
},{
    "name": "openshift-storage/ocs-cluster",
    "interface": "net1",
    "ips": [
        "192.168.2.1"
    ],
    "mac": "e2:04:c6:81:52:f1",
    "dns": {}
},{
    "name": "openshift-storage/ocs-public",
    "interface": "net2",
    "ips": [
        "192.168.1.1"
    ],
    "mac": "ee:a0:b6:a4:07:94",
    "dns": {}
}]
Copy to Clipboard

명령줄 인터페이스를 사용하여 OSD Pod가 올바른 네트워크를 사용하고 있는지 확인하려면 다음 명령을 실행합니다( jq 유틸리티 필요).

$ oc get -n openshift-storage $(oc get pods -n openshift-storage -o name -l app=rook-ceph-osd | grep 'osd-0') -o=jsonpath='{.metadata.annotations.k8s\.v1\.cni\.cncf\.io/network-status}{"\n"}' | jq -r '.[].name'
Copy to Clipboard

샘플 출력:

openshift-sdn
openshift-storage/ocs-cluster
openshift-storage/ocs-public
Copy to Clipboard
맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat