5.2. 가장 일반적인 Ceph OSD 오류


다음 표에는 Ceph 상태 세부 정보 명령에서 반환하거나 Ceph 로그에 포함된 가장 일반적인 오류 메시지가 나열되어 있습니다. 테이블에서는 오류를 설명하는 해당 섹션에 대한 링크를 제공하고 문제를 해결하는 특정 절차를 가리킵니다.

5.2.1. 사전 요구 사항

  • Ceph OSD 노드에 대한 루트 수준 액세스.

5.2.2. Ceph OSD 오류 메시지

일반적인 Ceph OSD 오류 메시지 테이블과 잠재적인 수정 사항.

Expand
오류 메시지보기

HEALTH_ERR

전체 osds

Full OSDS

HEALTH_WARN

backfillfull osds

Backfillfull OSDS

거의 전체 osds

거의 전체 OSDS

OSD가 다운되었습니다

OSDS가 다운되었습니다

비활성 OSDS

요청이 차단됨

느린 요청 또는 요청이 차단됨

느린 요청

느린 요청 또는 요청이 차단됨

5.2.3. Ceph 로그의 일반적인 Ceph OSD 오류 메시지

Ceph 로그에 있는 일반적인 Ceph OSD 오류 메시지 테이블과 잠재적인 수정 사항에 대한 링크입니다.

Expand
오류 메시지로그 파일보기

heartbeat_check: osd.X에서 응답하지 않음

기본 클러스터 로그

비활성 OSDS

잘못 표시되었습니다.

기본 클러스터 로그

비활성 OSDS

OSD에 느린 요청이 있습니다.

기본 클러스터 로그

느린 요청 또는 요청이 차단됨

실패 어설션(0 == "hit star timeout")

OSD 로그

OSD 다운

5.2.4. 전체 OSD

ceph 상태 세부 정보 명령은 다음과 유사한 오류 메시지를 반환합니다.

HEALTH_ERR 1 full osds
osd.3 is full at 95%
Copy to Clipboard Toggle word wrap

이 의미

Ceph에서는 클라이언트가 전체 OSD 노드에서 I/O 작업을 수행하지 못하여 데이터 손실을 방지합니다. 클러스터가 mon _osd_full_ratio 매개 변수로 설정된 용량에 도달하면 HEALTH_ ERR full osds 메시지를 반환합니다. 기본적으로 이 매개변수는 0.05로 설정되며 이는 클러스터 용량의 95%를 의미합니다.

이 문제를 해결하려면

사용 원시 스토리지 (%RAW USED)의 백분율을 결정합니다.

# ceph df
Copy to Clipboard Toggle word wrap

%RAW USED 가 70-75%를 초과하면 다음을 수행할 수 있습니다.

  • 불필요한 데이터를 삭제합니다. 이는 생산 가동 중지 시간을 방지하기 위한 단기 솔루션입니다.
  • 새 OSD 노드를 추가하여 클러스터를 확장합니다. 이는 Red Hat에서 권장하는 장기적인 솔루션입니다.

추가 리소스

5.2.5. Backfillfull OSD

ceph 상태 세부 정보 명령은 다음과 유사한 오류 메시지를 반환합니다.

health: HEALTH_WARN
3 backfillfull osd(s)
Low space hindering backfill (add storage if this doesn't resolve itself): 32 pgs backfill_toofull
Copy to Clipboard Toggle word wrap

이것은 무엇을 의미합니까?

하나 이상의 OSD가 백필 풀 임계값을 초과하면 Ceph에서 이 장치로 데이터를 재조정하지 않습니다. 이는 재조정이 완료되지 않고 클러스터가 가득 차 있음을 알리는 조기 경고입니다. 백전체 임계값의 기본값은 90%입니다.

이 문제를 해결하려면

풀에서 사용률을 확인합니다.

ceph df
Copy to Clipboard Toggle word wrap

%RAW USED 가 70-75%를 초과하는 경우 다음 작업 중 하나를 수행할 수 있습니다.

  • 불필요한 데이터를 삭제합니다. 이는 생산 가동 중지 시간을 방지하기 위한 단기 솔루션입니다.
  • 새 OSD 노드를 추가하여 클러스터를 확장합니다. 이는 Red Hat에서 권장하는 장기적인 솔루션입니다.
  • 복구 프로세스를 계속할 수 있도록 PG가 back full_toofull 에 고정된 PG가 포함된 OSD의 백 필 풀 비율을 늘립니다. 가능한 한 빨리 클러스터에 새 스토리지를 추가하거나 데이터를 제거하여 더 많은 OSD를 채우지 않도록 합니다.

    구문

    ceph osd set-backfillfull-ratio VALUE
    Copy to Clipboard Toggle word wrap

    VALUE 의 범위는 0.0에서 1.0입니다.

    예제

    [ceph: root@host01/]# ceph osd set-backfillfull-ratio 0.92
    Copy to Clipboard Toggle word wrap

5.2.6. 거의 전체 OSD

ceph 상태 세부 정보 명령은 다음과 유사한 오류 메시지를 반환합니다.

HEALTH_WARN 1 nearfull osds
osd.2 is near full at 85%
Copy to Clipboard Toggle word wrap

이 의미

클러스터가 mon osd nearfull ratio defaults 매개 변수에 설정된 용량에 도달하면 Ceph에서 nearfull osd s 메시지를 반환합니다. 기본적으로 이 매개변수는 cluster5로 설정되며 이는 클러스터 용량의 85%를 의미합니다.

Ceph는 가능한 최상의 방식으로 CRUSH 계층 구조를 기반으로 데이터를 배포하지만 동일한 배포를 보장할 수는 없습니다. uneven 데이터 배포의 주요 원인과 거의 전체 osds 메시지는 다음과 같습니다.

  • OSD는 클러스터의 OSD 노드에 분산되지 않습니다. 즉, 일부 OSD 노드는 다른 항목보다 훨씬 많은 OSD를 호스팅하거나 CRUSH 맵에 있는 일부 OSD의 가중치는 용량에 적합하지 않습니다.
  • 배치 그룹(PG) 수는 OSD 수, 사용 사례, OSD당 대상 PG, OSD 사용률에 따라 올바르지 않습니다.
  • 클러스터는 부적절한 CRUSH 튜닝 가능 항목을 사용합니다.
  • OSD의 백엔드 스토리지는 거의 가득 차 있습니다.

이 문제를 해결하려면 다음을 수행합니다.

  1. PG 개수가 충분한지 확인하고 필요한 경우 늘립니다.
  2. CRUSH 튜닝 가능 항목을 클러스터 버전에 최적으로 사용하는지 확인하고 그렇지 않은 경우 조정합니다.
  3. 사용률에 따라 OSD의 가중치를 변경합니다.
  4. 분산을 위해 OSD 간에 배치 그룹(PG) 배치를 최적화하는 Ceph Manager 밸런서 모듈을 활성화합니다.

    예제

    [root@mon ~]# ceph mgr module enable balancer
    Copy to Clipboard Toggle word wrap

  5. OSD에서 사용하는 디스크에 남은 공간 크기를 확인합니다.

    1. 일반적으로 사용되는 공간 OSD 양을 보려면 다음을 수행합니다.

      [root@mon ~]# ceph osd df
      Copy to Clipboard Toggle word wrap
    2. 특정 노드에서 사용하는 공간 OSD의 양을 보려면 다음을 수행합니다. 가까운 OSD 가 포함된 노드에서 다음 명령을 사용합니다.

      $ df
      Copy to Clipboard Toggle word wrap
    3. 필요한 경우 새 OSD 노드를 추가합니다.

추가 리소스

5.2.7. OSD 다운

ceph 상태 명령은 다음과 유사한 오류를 반환합니다.

HEALTH_WARN 1/3 in osds are down
Copy to Clipboard Toggle word wrap

이 의미

서비스 실패 또는 다른 OSD와의 통신 문제로 인해 ceph-osd 프로세스 중 하나를 사용할 수 없습니다. 그 결과 남아 있는 ceph-osd 데몬은 이 오류를 모니터에 보고했습니다.

ceph-osd 데몬이 실행 중이지 않은 경우 기본 OSD 드라이브 또는 파일 시스템이 손상되거나 누락된 인증 키와 같은 다른 오류가 발생하면 데몬이 시작되지 않습니다.

대부분의 경우 네트워킹 문제로 인해 ceph-osd 데몬이 실행 중이지만 여전히 down 으로 표시됩니다.

이 문제를 해결하려면

  1. 다운 된 OSD 확인 :

    [root@mon ~]# ceph health detail
    HEALTH_WARN 1/3 in osds are down
    osd.0 is down since epoch 23, last address 192.168.106.220:6800/11080
    Copy to Clipboard Toggle word wrap
  2. ceph-osd 데몬을 다시 시작하십시오.

    [root@mon ~]# systemctl restart ceph-osd@OSD_NUMBER
    Copy to Clipboard Toggle word wrap

    OSD_NUMBER다운 된 OSD의 ID로 바꿉니다. 예를 들면 다음과 같습니다.

    [root@mon ~]# systemctl restart ceph-osd@0
    Copy to Clipboard Toggle word wrap
    1. ceph-osd를 시작할 수 없는 경우 ceph -osd 데몬의 단계를 시작할 수 없습니다.
    2. ceph-osd 데몬을 시작할 수 있지만 down 으로 표시되면 ceph-osd 데몬이 실행 중이지만 아직 '다운'으로 표시되어 있습니다.

ceph-osd 데몬을 시작할 수 없습니다.

  1. 다수의 OSD(일반적으로 12개 이상)가 포함된 노드가 있는 경우 기본 최대 스레드(PID 수)가 충분한지 확인합니다. 자세한 내용은 PID 수 증가를 참조하십시오.
  2. OSD 데이터와 저널 파티션이 올바르게 마운트되었는지 확인합니다. ceph-volume lvm list 명령을 사용하여 Ceph Storage 클러스터와 연결된 모든 장치와 볼륨을 나열한 다음 올바르게 마운트되었는지 수동으로 검사할 수 있습니다. 자세한 내용은 mount(8) 매뉴얼 페이지를 참조하십시오.
  3. ERROR: 누락된 인증 키가 있는 경우 인증 오류 메시지에 cephx를 사용할 수 없는 경우 OSD가 인증 키 누락입니다.
  4. ERROR: /var/lib/ceph/osd/ceph-1 오류 메시지에서 OSD 수퍼 블록을 열 수 없는 경우 ceph-osd 데몬이 기본 파일 시스템을 읽을 수 없습니다. 이 오류의 문제를 해결하고 수정하는 방법에 대한 지침은 다음 단계를 참조하십시오.

    참고

    OSD 호스트 부팅 시 이 오류 메시지가 반환되면 Red Hat Bugzilla 1439210 에서 추적된 알려진 문제를 나타낼 수 있으므로 지원 티켓을 엽니다.

  5. 해당 로그 파일을 확인하여 오류의 원인을 확인합니다. 기본적으로 Ceph는 베어 메탈 배포를 위해 /var/log/ceph/ 디렉터리에 로그 파일을 저장합니다.

    참고

    컨테이너 기반 배포의 경우 Ceph는 journald 에 로그를 생성합니다. Ceph 구성 파일의 [global]에서 log_to_file 매개변수를 true 로 설정하여 /var/log/ceph 의 파일에 로깅을 활성화할 수 있습니다. 자세한 내용은 ceph 로그 이해를 참조하십시오.

    1. 다음과 유사한 EIO 오류 메시지는 기본 디스크의 실패를 나타냅니다.

      이 문제를 해결하려면 기본 OSD 디스크를 교체합니다. 자세한 내용은 OSD 드라이브 교체를 참조하십시오.

    2. 로그에 다음과 같은 other FAILED 어설 션 오류가 포함된 경우 지원 티켓을 엽니다. 자세한 내용은 Red Hat 지원 문의를 참조하십시오.

      FAILED assert(0 == "hit suicide timeout")
      Copy to Clipboard Toggle word wrap
  6. dmesg 출력에 기본 파일 시스템 또는 디스크가 있는 오류가 있는지 확인합니다.

    $ dmesg
    Copy to Clipboard Toggle word wrap
    1. dmesg 출력에 SCSI 오류 오류 메시지가 포함된 경우 Red Hat 고객 포털의 SCSI 오류 코드 솔루션 파인더 솔루션을 참조하여 문제를 해결하는 가장 좋은 방법을 확인하십시오.
    2. 또는 기본 파일 시스템을 수정할 수 없는 경우 OSD 드라이브를 교체합니다. 자세한 내용은 OSD 드라이브 교체를 참조하십시오.
  7. 다음과 같은 분할 오류로 OSD가 실패한 경우 필요한 정보를 수집하고 지원 티켓을 여십시오. 자세한 내용은 Red Hat 지원 문의를 참조하십시오.

    Caught signal (Segmentation fault)
    Copy to Clipboard Toggle word wrap

ceph-osd 가 실행 중이지만 여전히 down으로 표시됩니다.

  1. 해당 로그 파일을 확인하여 오류의 원인을 확인합니다. 기본적으로 Ceph는 베어 메탈 배포의 /var/log/ceph/ 디렉터리에 로그 파일을 저장합니다.

    참고

    컨테이너 기반 배포의 경우 Ceph는 journald 에 로그를 생성합니다. Ceph 구성 파일의 [global]에서 log_to_file 매개변수를 true 로 설정하여 /var/log/ceph 의 파일에 로깅을 활성화할 수 있습니다. 자세한 내용은 ceph 로그 이해를 참조하십시오.

    1. 로그에 다음과 유사한 오류 메시지가 포함된 경우 Flapping OSDs를 참조하십시오.

      wrongly marked me down
      heartbeat_check: no reply from osd.2 since back
      Copy to Clipboard Toggle word wrap
    2. 다른 오류가 표시되면 지원 티켓을 엽니다. 자세한 내용은 Red Hat 지원 문의를 참조하십시오.

추가 리소스

5.2.8. OSD를 래핑

ceph -w | grep osds 명령은 OSD 잠시 중단한 후 다시 한 번 표시합니다.

# ceph -w | grep osds
2021-04-05 06:27:20.810535 mon.0 [INF] osdmap e609: 9 osds: 8 up, 9 in
2021-04-05 06:27:24.120611 mon.0 [INF] osdmap e611: 9 osds: 7 up, 9 in
2021-04-05 06:27:25.975622 mon.0 [INF] HEALTH_WARN; 118 pgs stale; 2/9 in osds are down
2021-04-05 06:27:27.489790 mon.0 [INF] osdmap e614: 9 osds: 6 up, 9 in
2021-04-05 06:27:36.540000 mon.0 [INF] osdmap e616: 9 osds: 7 up, 9 in
2021-04-05 06:27:39.681913 mon.0 [INF] osdmap e618: 9 osds: 8 up, 9 in
2021-04-05 06:27:43.269401 mon.0 [INF] osdmap e620: 9 osds: 9 up, 9 in
2021-04-05 06:27:54.884426 mon.0 [INF] osdmap e622: 9 osds: 8 up, 9 in
2021-04-05 06:27:57.398706 mon.0 [INF] osdmap e624: 9 osds: 7 up, 9 in
2021-04-05 06:27:59.669841 mon.0 [INF] osdmap e625: 9 osds: 6 up, 9 in
2021-04-05 06:28:07.043677 mon.0 [INF] osdmap e628: 9 osds: 7 up, 9 in
2021-04-05 06:28:10.512331 mon.0 [INF] osdmap e630: 9 osds: 8 up, 9 in
2021-04-05 06:28:12.670923 mon.0 [INF] osdmap e631: 9 osds: 9 up, 9 in
Copy to Clipboard Toggle word wrap

또한 Ceph 로그에는 다음과 유사한 오류 메시지가 포함되어 있습니다.

2021-07-25 03:44:06.510583 osd.50 127.0.0.1:6801/149046 18992 : cluster [WRN] map e600547 wrongly marked me down
Copy to Clipboard Toggle word wrap
2021-07-25 19:00:08.906864 7fa2a0033700 -1 osd.254 609110 heartbeat_check: no reply from osd.2 since back 2021-07-25 19:00:07.444113 front 2021-07-25 18:59:48.311935 (cutoff 2021-07-25 18:59:48.906862)
Copy to Clipboard Toggle word wrap

이 의미

OSD를 래핑하는 주된 원인은 다음과 같습니다.

  • 스크럽 또는 복구와 같은 특정 스토리지 클러스터 작업은 대규모 인덱스 또는 대규모 배치 그룹이 있는 오브젝트에서 이러한 작업을 수행하는 경우 비정상적인 시간이 걸립니다. 일반적으로 이러한 작업이 완료된 후 플랩 OSD 문제가 해결됩니다.
  • 기본 물리적 하드웨어 문제. 이 경우 ceph 상태 세부 정보 명령은 느린 요청 오류 메시지도 반환합니다.
  • 네트워크 문제.

Ceph OSD는 스토리지 클러스터의 사설 네트워크가 실패하거나 공용 클라이언트를 향한 네트워크에 중요한 대기 시간이 있는 상황을 관리할 수 없습니다.

Ceph OSD는 사설 네트워크를 사용하여 하트비트 패킷을 서로 전송하여 해당 패킷이 작동 중임을 나타냅니다 . 프라이빗 스토리지 클러스터 네트워크가 제대로 작동하지 않으면 OSD에서 하트비트 패킷을 보내고 받을 수 없습니다. 그 결과 서로 Ceph 모니터 표시되고 up 으로 표시됩니다.

Ceph 구성 파일의 다음 매개변수는 이 동작에 영향을 미칩니다.

Expand
매개변수설명기본값

osd_heartbeat_grace_time

OSD가 하트비트 패킷이 반환될 때까지 OSD를 Ceph 모니터 보고할 때까지 기다리는 시간입니다.

20초

mon_osd_min_down_reporters

Ceph 모니터가 OSD를 down으로 표시하기 전에 다른 OSD를 down 으로 보고해야 하는 OSD 수는 몇 개입니까 ?

2

이 테이블에서는 기본 구성에서 Ceph 모니터가 첫 번째 OSD에 대해 3개의 개별 보고서만 다운 된 경우 OSD를 down 으로 표시합니다. 단일 호스트에 네트워크 문제가 발생하는 경우도 있는 경우 전체 클러스터에 OSD가 토핑될 수 있습니다. 이는 호스트에 상주하는 OSD가 클러스터의 다른 OSD를 down 으로 보고하기 때문입니다.

참고

기본 OSD 시나리오에는 OSD 프로세스가 시작된 다음 즉시 종료되는 상황이 포함되지 않습니다.

이 문제를 해결하려면

  1. ceph 상태 세부 명령의 출력을 다시 확인합니다. 느린 요청 오류 메시지가 포함된 경우 이 문제를 해결하는 방법에 대한 자세한 내용은 를 참조하십시오.

    # ceph health detail
    HEALTH_WARN 30 requests are blocked > 32 sec; 3 osds have slow requests
    30 ops are blocked > 268435 sec
    1 ops are blocked > 268435 sec on osd.11
    1 ops are blocked > 268435 sec on osd.18
    28 ops are blocked > 268435 sec on osd.39
    3 osds have slow requests
    Copy to Clipboard Toggle word wrap
  2. down 으로 표시되고 있는 OSD와 해당 노드에 있는 OSD를 확인합니다.

    # ceph osd tree | grep down
    Copy to Clipboard Toggle word wrap
  3. 토핑 OSD가 포함된 노드에서 네트워킹 문제를 해결하고 수정합니다. 자세한 내용은 네트워킹 문제 해결을 참조하십시오.
  4. 또는 noup 및 no down 플래그를 설정하여 OSD를 downup 으로 표시를 중지할 수도 있습니다.

    # ceph osd set noup
    # ceph osd set nodown
    Copy to Clipboard Toggle word wrap
    중요

    noupnodown 플래그를 사용하면 문제의 근본 원인을 해결하지 않고 OSD만 토핑하지 못하게 합니다. 지원 티켓을 열려면 자세한 내용은 Red Hat 지원 문의 섹션을 참조하십시오.

중요

Ceph OSD 노드에서 MTU가 잘못 구성되었거나 네트워크 스위치 수준에서 MTU가 잘못되어 OSD를 래핑할 수 있습니다. 이 문제를 해결하려면 계획된 다운 타임과 함께 코어 및 액세스 네트워크 스위치에서 MTU를 모든 스토리지 클러스터 노드에서 균일한 크기로 설정합니다. 이 설정을 변경하면 네트워크 내에서 문제를 숨길 수 있으므로 osd heartbeat 최소 크기를 조정하지 마십시오. 실제 네트워크 불일치가 해결되지 않습니다.

추가 리소스

5.2.9. 느린 요청 또는 요청이 차단됨

ceph-osd 데몬은 요청에 응답하는 속도가 느리고 ceph 상태 세부 정보 명령은 다음과 유사한 오류 메시지를 반환합니다.

HEALTH_WARN 30 requests are blocked > 32 sec; 3 osds have slow requests
30 ops are blocked > 268435 sec
1 ops are blocked > 268435 sec on osd.11
1 ops are blocked > 268435 sec on osd.18
28 ops are blocked > 268435 sec on osd.39
3 osds have slow requests
Copy to Clipboard Toggle word wrap

또한 Ceph 로그에는 다음과 유사한 오류 메시지가 포함되어 있습니다.

2015-08-24 13:18:10.024659 osd.1 127.0.0.1:6812/3032 9 : cluster [WRN] 6 slow requests, 6 included below; oldest blocked for > 61.758455 secs
Copy to Clipboard Toggle word wrap
2016-07-25 03:44:06.510583 osd.50 [WRN] slow request 30.005692 seconds old, received at {date-time}: osd_op(client.4240.0:8 benchmark_data_ceph-1_39426_object7 [write 0~4194304] 0.69848840) v4 currently waiting for subops from [610]
Copy to Clipboard Toggle word wrap

이 의미

느린 요청이 있는 OSD는 osd_op_complaint_time 매개 변수로 정의된 시간 내에 큐의 IOPS(초당 IOPS) 작업을 서비스할 수 없는 모든 OSD입니다. 기본적으로 이 매개변수는 30초로 설정됩니다.

OSD의 요청이 느린 주요 원인은 다음과 같습니다.

  • 디스크 드라이브, 호스트, 랙 또는 네트워크 스위치와 같은 기본 하드웨어 문제
  • 네트워크 문제. 이러한 문제는 일반적으로 플랩 OSD와 연결됩니다. 자세한 내용은 Flapping OSDs 를 참조하십시오.
  • 시스템 로드

다음 테이블에서는 느린 요청 유형을 보여줍니다. dump_historic_ops 관리 소켓 명령을 사용하여 느린 요청 유형을 확인합니다. 관리 소켓에 대한 자세한 내용은 Red Hat Ceph Storage 4 관리 가이드의 Ceph 관리 소켓 사용 섹션을 참조하십시오.

Expand
느린 요청 유형설명

rw 잠금 대기 중

OSD는 작업을 위해 배치 그룹의 잠금을 얻기 위해 대기 중입니다.

하위 작업 대기 중

OSD는 복제본 OSD가 작업을 저널에 적용할 때까지 대기 중입니다.

도달한 플래그 포인트 없음

OSD가 주요 운영 이정표에 도달하지 않았습니다.

성능이 저하된 오브젝트 대기 중

OSD는 지정된 횟수의 개체를 아직 복제하지 않았습니다.

이 문제를 해결하려면

  1. 디스크 드라이브, 호스트, 랙 또는 네트워크 스위치와 같이 느린 또는 블록 요청이 있는 OSD가 공통 하드웨어 부분을 공유하는지 확인합니다.
  2. OSD가 디스크를 공유하는 경우:

    1. smartmontools 유틸리티를 사용하여 디스크 또는 로그의 상태를 확인하여 디스크 오류를 확인합니다.

      참고

      smartmontools 유틸리티는 smartmontools 패키지에 포함되어 있습니다.

    2. iostat 유틸리티를 사용하여 OSD 디스크에서 I/O 대기 보고서(%iowai)를 가져와 디스크의 로드가 많은지 확인합니다.

      참고

      iostat 유틸리티는 sysstat 패키지에 포함되어 있습니다.

  3. OSD가 다른 서비스와 노드를 공유하는 경우:

    1. RAM 및 CPU 사용률 확인
    2. netstat 유틸리티를 사용하여 NIC(네트워크 인터페이스 컨트롤러)에 대한 네트워크 통계를 확인하고 네트워킹 문제를 해결합니다. 자세한 내용은 네트워킹 문제 해결을 참조하십시오.
  4. OSD가 랙을 공유하는 경우 랙의 네트워크 스위치를 확인합니다. 예를 들어 점보 프레임을 사용하는 경우 경로의 NIC에 점보 프레임이 설정되어 있는지 확인합니다.
  5. 느린 요청으로 OSD에서 공유하는 일반적인 하드웨어를 확인하거나 하드웨어 및 네트워킹 문제를 해결하고 수정할 수 없는 경우 지원 티켓을 엽니다. 자세한 내용은 Red Hat 지원 문의를 참조하십시오.

추가 리소스

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat