4.9. 암호화 및 인증


AMQ Streams는 리스너 구성의 일부로 구성된 암호화 및 인증을 지원합니다.

4.9.1. 리스너 구성

Kafka 브로커의 암호화 및 인증은 리스너별로 구성됩니다. Kafka 리스너 구성에 대한 자세한 내용은 4.2절. “리스너” 을 참조하십시오.

Kafka 브로커의 각 리스너는 자체 보안 프로토콜로 구성됩니다. 구성 속성 listener.security.protocol.map 은 보안 프로토콜을 사용하는 리스너를 정의합니다. 각 리스너 이름을 보안 프로토콜에 매핑합니다. 지원되는 보안 프로토콜은 다음과 같습니다.

일반 텍스트
암호화 또는 인증이 없는 리스너입니다.
SSL
TLS 암호화를 사용하는 리스너 및 필요한 경우 TLS 클라이언트 인증서를 사용한 인증입니다.
SASL_PLAINTEXT
암호화가 없지만 SASL 기반 인증을 사용하는 리스너입니다.
SASL_SSL
TLS 기반 암호화 및 SASL 기반 인증을 사용하는 리스너입니다.

다음 리스너 구성이 제공됩니다.

listeners=INT1://:9092,INT2://:9093,REPLICATION://:9094
Copy to Clipboard Toggle word wrap

listener.security.protocol.map 은 다음과 같을 수 있습니다.

listener.security.protocol.map=INT1:SASL_PLAINTEXT,INT2:SASL_SSL,REPLICATION:SSL
Copy to Clipboard Toggle word wrap

이렇게 하면 SASL 인증과 함께 암호화되지 않은 연결을 사용하고, 리스너 INT2 가 SASL 인증과 함께 암호화된 연결을 사용하고 REPLICATION 인터페이스를 사용하여 TLS 암호화(TLS 클라이언트 인증과 함께)를 사용하도록 리스너 INT1 을 구성합니다. 동일한 보안 프로토콜을 여러 번 사용할 수 있습니다. 다음 예도 유효한 구성입니다.

listener.security.protocol.map=INT1:SSL,INT2:SSL,REPLICATION:SSL
Copy to Clipboard Toggle word wrap

이러한 구성은 모든 인터페이스에 TLS 암호화 및 TLS 인증을 사용합니다. 다음 장에서는 TLS 및 SASL 구성 방법을 자세히 설명합니다.

4.9.2. TLS 암호화

Kafka는 Kafka 클라이언트와의 통신을 암호화하기 위해 TLS를 지원합니다.

TLS 암호화 및 서버 인증을 사용하려면 개인 키와 공개 키가 포함된 키 저장소를 제공해야 합니다. 일반적으로 JKS(Java Keystore) 형식으로 파일을 사용하여 수행합니다. 이 파일의 경로는 ssl.keystore.location 속성에 설정됩니다. 키 저장소를 보호하는 암호를 설정하는 데 ssl.keystore.password 속성을 사용해야 합니다. 예를 들면 다음과 같습니다.

ssl.keystore.location=/path/to/keystore/server-1.jks
ssl.keystore.password=123456
Copy to Clipboard Toggle word wrap

경우에 따라 개인 키를 보호하는 데 추가 암호가 사용됩니다. 이러한 암호는 ssl.key.password 속성을 사용하여 설정할 수 있습니다.

Kafka는 인증 기관에서 서명한 키와 자체 서명 키를 사용할 수 있습니다. 인증 기관에서 서명한 키를 사용하는 것이 항상 선호되는 방법이어야 합니다. 클라이언트가 연결 중인 Kafka 브로커의 ID를 확인할 수 있도록 하려면 인증서에서 항상 공개된 호스트 이름을 CN(일반 이름) 또는 SAN(주체 대체 이름)으로 포함해야 합니다.

다양한 리스너에 다양한 SSL 구성을 사용할 수 있습니다. ssl으로 시작하는 모든 옵션 앞에 listener. name.<NameOfTheListener> 접두사를 지정할 수 있습니다. 여기서 리스너 이름은 항상 소문자여야 합니다. 이렇게 하면 해당 특정 리스너에 대한 기본 SSL 구성이 재정의됩니다. 다음 예제에서는 다양한 리스너에 다양한 SSL 구성을 사용하는 방법을 보여줍니다.

listeners=INT1://:9092,INT2://:9093,REPLICATION://:9094
listener.security.protocol.map=INT1:SSL,INT2:SSL,REPLICATION:SSL

# Default configuration - will be used for listeners INT1 and INT2
ssl.keystore.location=/path/to/keystore/server-1.jks
ssl.keystore.password=123456

# Different configuration for listener REPLICATION
listener.name.replication.ssl.keystore.location=/path/to/keystore/server-1.jks
listener.name.replication.ssl.keystore.password=123456
Copy to Clipboard Toggle word wrap

추가 TLS 구성 옵션

위에서 설명한 기본 TLS 구성 옵션 외에도 Kafka는 TLS 구성을 미세 조정하기 위한 다양한 옵션을 지원합니다. 예를 들어 TLS / SSL 프로토콜 또는 암호화 제품군을 활성화하거나 비활성화하려면 다음을 수행합니다.

ssl.cipher.suites
활성화된 암호화 제품군 목록입니다. 각 암호화 제품군은 TLS 연결에 사용되는 인증, 암호화, MAC 및 키 교환 알고리즘의 조합입니다. 기본적으로 사용 가능한 모든 암호화 제품군이 활성화됩니다.
ssl.enabled.protocols
활성화된 TLS/SSL 프로토콜 목록입니다. 기본값은 TLSv1.2,TLSv1.1,TLSv1 입니다.

지원되는 Kafka 브로커 구성 옵션의 전체 목록은 부록 A. 브로커 구성 매개변수 을 참조하십시오.

4.9.3. TLS 암호화 활성화

다음 절차에서는 Kafka 브로커에서 암호화를 활성화하는 방법을 설명합니다.

사전 요구 사항

  • AMQ Streams는 Kafka 브로커로 사용할 모든 호스트에 설치됩니다.

프로세스

  1. 클러스터의 모든 Kafka 브로커에 대한 TLS 인증서를 생성합니다. 인증서에는 일반 이름 또는 주체 대체 이름에 광고 및 부트스트랩 주소가 있어야 합니다.
  2. 다음을 위해 모든 클러스터 노드에서 /opt/kafka/config/server.properties Kafka 구성 파일을 편집합니다.

    • listener.security.protocol.map 필드를 변경하여 TLS 암호화를 사용하려는 리스너의 SSL 프로토콜을 지정합니다.
    • 브로커 인증서와 함께 JKS 키 저장소의 경로로 ssl.keystore.location 옵션을 설정합니다.
    • ssl.keystore.password 옵션을 키 저장소를 보호하는 데 사용한 암호로 설정합니다.

      예를 들면 다음과 같습니다.

      listeners=UNENCRYPTED://:9092,ENCRYPTED://:9093,REPLICATION://:9094
      listener.security.protocol.map=UNENCRYPTED:PLAINTEXT,ENCRYPTED:SSL,REPLICATION:PLAINTEXT
      ssl.keystore.location=/path/to/keystore/server-1.jks
      ssl.keystore.password=123456
      Copy to Clipboard Toggle word wrap
  3. Kafka 브로커 시작

추가 리소스

4.9.4. 인증

인증의 경우 다음을 사용할 수 있습니다.

  • 암호화된 연결에 대한 X.509 인증서를 기반으로 하는 TLS 클라이언트 인증
  • 지원되는 Kafka SASL(Simple Authentication and Security Layer) 메커니즘
  • OAuth 2.0 토큰 기반 인증

4.9.4.1. TLS 클라이언트 인증

TLS 클라이언트 인증은 이미 TLS 암호화를 사용하는 연결에서만 사용할 수 있습니다. TLS 클라이언트 인증을 사용하려면 공개 키가 있는 신뢰 저장소를 브로커에 제공할 수 있습니다. 이러한 키는 브로커에 연결하는 클라이언트를 인증하는 데 사용할 수 있습니다. 신뢰 저장소는 JKS(Java Keystore) 형식으로 제공해야 하며 인증 기관의 공개 키가 포함되어야 합니다. 신뢰 저장소에 포함된 인증 기관 중 하나에 의해 서명된 공개 및 개인 키가 있는 모든 클라이언트가 인증됩니다. 신뢰 저장소의 위치는 ssl.truststore.location 필드를 사용하여 설정됩니다. 신뢰 저장소가 암호로 보호되는 경우 암호는 ssl.truststore.password 속성에 설정해야 합니다. 예를 들면 다음과 같습니다.

ssl.truststore.location=/path/to/keystore/server-1.jks
ssl.truststore.password=123456
Copy to Clipboard Toggle word wrap

truststore가 구성되면 ssl.client.auth 속성을 사용하여 TLS 클라이언트 인증을 활성화해야 합니다. 이 속성은 다음 세 가지 값 중 하나로 설정할 수 있습니다.

none
TLS 클라이언트 인증이 꺼집니다. (기본값)
요청됨
TLS 클라이언트 인증은 선택 사항입니다. 클라이언트는 TLS 클라이언트 인증서를 사용하여 인증하라는 메시지가 표시되지만 선택할 수는 없습니다.
필수 항목
클라이언트는 TLS 클라이언트 인증서를 사용하여 인증하는 데 필요합니다.

클라이언트가 TLS 클라이언트 인증을 사용하여 인증하면 인증된 주체 이름이 인증된 클라이언트 인증서와 고유합니다. 예를 들어 고유 이름이 CN=someuser 인 인증서가 있는 사용자는 다음 주체 CN=someuser,OU=Unknown,O=Unknown,L=Unknown,ST=Unknown,C=Unknown 로 인증됩니다. TLS 클라이언트 인증을 사용하지 않고 SASL이 비활성화되면 주 이름은 ANONYMOUS 입니다.

4.9.4.2. SASL 인증

SASL 인증은 JAAS(Java Authentication and Authorization Service)를 사용하여 구성됩니다. JAAS는 Kafka와 Zoo Cryostat 간의 연결 인증에도 사용됩니다. JAAS는 자체 구성 파일을 사용합니다. 이 파일의 권장 위치는 /opt/kafka/config/jaas.conf 입니다. 이 파일은 kafka 사용자가 읽을 수 있어야 합니다. Kafka를 실행하는 경우 Java 시스템 속성 java.security.auth.login.config 를 사용하여 이 파일의 위치가 지정됩니다. 브로커 노드를 시작할 때 이 속성을 Kafka로 전달해야 합니다.

KAFKA_OPTS="-Djava.security.auth.login.config=/path/to/my/jaas.config"; bin/kafka-server-start.sh
Copy to Clipboard Toggle word wrap

SASL 인증은 일반 암호화되지 않은 연결과 TLS 연결을 통해 모두 지원됩니다. 각 리스너에 대해 SASL을 개별적으로 활성화할 수 있습니다. 이를 활성화하려면 listener.security.protocol.map 의 보안 프로토콜이 SASL_PLAINTEXT 또는 SASL_SSL 이어야 합니다.

Kafka의 SASL 인증은 몇 가지 다른 메커니즘을 지원합니다.

PLAIN
사용자 이름과 암호를 기반으로 인증을 구현합니다. 사용자 이름과 암호는 Kafka 구성에 로컬로 저장됩니다.
SCRAM-SHA-256SCRAM-SHA-512
SCRAM(Salted Challenge Response Authentication Mechanism)을 사용하여 인증을 구현합니다. SCRAM 자격 증명은 중앙 Zoo Cryostat에 저장됩니다. SCRAM은 Zoo Cryostat 클러스터 노드가 프라이빗 네트워크에서 격리된 상태로 실행되는 상황에서 사용할 수 있습니다.
GSSAPI
Kerberos 서버에 대한 인증을 구현합니다.
주의

PLAIN 메커니즘은 암호화되지 않은 형식으로 네트워크를 통해 사용자 이름과 암호를 전송합니다. 따라서 TLS 암호화와 함께만 사용해야 합니다.

SASL 메커니즘은 JAAS 구성 파일을 통해 구성됩니다. Kafka는 KafkaServer 라는 JAAS 컨텍스트를 사용합니다. JAAS에서 구성한 후 Kafka 구성에서 SASL 메커니즘을 활성화해야 합니다. 이 작업은 sasl.enabled.mechanisms 속성을 사용하여 수행됩니다. 이 속성에는 활성화된 메커니즘의 쉼표로 구분된 목록이 포함되어 있습니다.

sasl.enabled.mechanisms=PLAIN,SCRAM-SHA-256,SCRAM-SHA-512
Copy to Clipboard Toggle word wrap

broker 간 통신에 사용되는 리스너가 SASL을 사용하는 경우 속성 sasl.mechanism.inter.broker.protocol 을 사용하여 사용해야 하는 SASL 메커니즘을 지정해야 합니다. 예를 들면 다음과 같습니다.

sasl.mechanism.inter.broker.protocol=PLAIN
Copy to Clipboard Toggle word wrap

broker 간 통신에 사용할 사용자 이름과 암호는 사용자 이름 및 암호 를 사용하여 KafkaServer JAAS 컨텍스트에 지정해야 합니다.

SASL PLAIN

PLAIN 메커니즘을 사용하려면 연결할 수 있는 사용자 이름과 암호가 JAAS 컨텍스트에서 직접 지정됩니다. 다음 예제에서는 SASL PLAIN 인증에 대해 구성된 컨텍스트를 보여줍니다. 이 예제에서는 세 개의 다른 사용자를 구성합니다.

  • admin
  • user1
  • user2
KafkaServer {
    org.apache.kafka.common.security.plain.PlainLoginModule required
    user_admin="123456"
    user_user1="123456"
    user_user2="123456";
};
Copy to Clipboard Toggle word wrap

사용자 데이터베이스가 있는 JAAS 구성 파일은 모든 Kafka 브로커에서 동기화되어 있어야 합니다.

broker 간 인증에 SASL PLAIN도 사용하는 경우 사용자 이름과 암호 속성을 JAAS 컨텍스트에 포함해야 합니다.

KafkaServer {
    org.apache.kafka.common.security.plain.PlainLoginModule required
    username="admin"
    password="123456"
    user_admin="123456"
    user_user1="123456"
    user_user2="123456";
};
Copy to Clipboard Toggle word wrap

SASL SCRAM

Kafka의 SCRAM 인증은 SCRAM-SHA-256SCRAM-SHA-512 의 두 가지 메커니즘으로 구성됩니다. 이러한 메커니즘은 SHA-256과 SHA-512 강화의 해시 알고리즘에서만 다릅니다. SCRAM 인증을 활성화하려면 JAAS 구성 파일에 다음 구성을 포함해야 합니다.

KafkaServer {
    org.apache.kafka.common.security.scram.ScramLoginModule required;
};
Copy to Clipboard Toggle word wrap

Kafka 구성 파일에서 SASL 인증을 활성화할 때 두 SCRAM 메커니즘을 모두 나열할 수 있습니다. 그러나 그 중 하나만 브루커 간 통신을 위해 선택할 수 있습니다. 예를 들면 다음과 같습니다.

sasl.enabled.mechanisms=SCRAM-SHA-256,SCRAM-SHA-512
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-512
Copy to Clipboard Toggle word wrap

SCRAM 메커니즘에 대한 사용자 자격 증명은 Zoo Cryostat에 저장됩니다. kafka-configs.sh 도구를 사용하여 관리할 수 있습니다. 예를 들어 다음 명령을 실행하여 암호 123456이 있는 user1 사용자를 추가합니다.

bin/kafka-configs.sh --bootstrap-server localhost:9092 --alter --add-config 'SCRAM-SHA-256=[password=123456],SCRAM-SHA-512=[password=123456]' --entity-type users --entity-name user1
Copy to Clipboard Toggle word wrap

사용자 인증 정보를 삭제하려면 다음을 사용합니다.

bin/kafka-configs.sh --bootstrap-server localhost:9092 --alter --delete-config 'SCRAM-SHA-512' --entity-type users --entity-name user1
Copy to Clipboard Toggle word wrap

SASL GSSAPI

Kerberos를 사용한 인증에 사용되는 SASL 메커니즘을 GSSAPI 라고 합니다. Kerberos SASL 인증을 구성하려면 JAAS 구성 파일에 다음 구성을 추가해야 합니다.

KafkaServer {
    com.sun.security.auth.module.Krb5LoginModule required
    useKeyTab=true
    storeKey=true
    keyTab="/etc/security/keytabs/kafka_server.keytab"
    principal="kafka/kafka1.hostname.com@EXAMPLE.COM";
};
Copy to Clipboard Toggle word wrap

Kerberos 주체의 도메인 이름은 항상 대문자여야 합니다.

JAAS 구성 외에도 Kafka 구성의 sasl.kerberos.service.name 속성에 Kerberos 서비스 이름을 지정해야 합니다.

sasl.enabled.mechanisms=GSSAPI
sasl.mechanism.inter.broker.protocol=GSSAPI
sasl.kerberos.service.name=kafka
Copy to Clipboard Toggle word wrap

여러 SASL 메커니즘

Kafka는 여러 SASL 메커니즘을 동시에 사용할 수 있습니다. 서로 다른 JAAS 구성은 모두 동일한 컨텍스트에 추가할 수 있습니다.

KafkaServer {
    org.apache.kafka.common.security.plain.PlainLoginModule required
    user_admin="123456"
    user_user1="123456"
    user_user2="123456";

    com.sun.security.auth.module.Krb5LoginModule required
    useKeyTab=true
    storeKey=true
    keyTab="/etc/security/keytabs/kafka_server.keytab"
    principal="kafka/kafka1.hostname.com@EXAMPLE.COM";

    org.apache.kafka.common.security.scram.ScramLoginModule required;
};
Copy to Clipboard Toggle word wrap

여러 메커니즘이 활성화되면 클라이언트는 사용하려는 메커니즘을 선택할 수 있습니다.

4.9.5. TLS 클라이언트 인증 활성화

다음 절차에서는 Kafka 브로커에서 TLS 클라이언트 인증을 활성화하는 방법을 설명합니다.

사전 요구 사항

프로세스

  1. 사용자 인증서에 서명하는 데 사용되는 인증 기관의 공개 키가 포함된 JKS 신뢰 저장소를 준비합니다.
  2. 다음을 위해 모든 클러스터 노드에서 /opt/kafka/config/server.properties Kafka 구성 파일을 편집합니다.

    • 사용자 인증서의 인증 기관이 있는 JKS 신뢰 저장소 경로로 ssl.truststore.location 옵션을 설정합니다.
    • ssl.truststore.password 옵션을 신뢰 저장소를 보호하는 데 사용한 암호로 설정합니다.
    • ssl.client.auth 옵션을 required 로 설정합니다.

      예를 들면 다음과 같습니다.

      ssl.truststore.location=/path/to/truststore.jks
      ssl.truststore.password=123456
      ssl.client.auth=required
      Copy to Clipboard Toggle word wrap
  3. Kafka 브로커 시작

추가 리소스

4.9.6. SASL PLAIN 인증 활성화

다음 절차에서는 Kafka 브로커에서 SASL PLAIN 인증을 활성화하는 방법을 설명합니다.

사전 요구 사항

  • AMQ Streams는 Kafka 브로커로 사용할 모든 호스트에 설치됩니다.

프로세스

  1. /opt/kafka/config/jaas.conf JAAS 구성 파일을 편집하거나 만듭니다. 이 파일에는 모든 사용자와 암호가 포함되어야 합니다. 이 파일이 모든 Kafka 브로커에서 동일한지 확인합니다.

    예를 들면 다음과 같습니다.

    KafkaServer {
        org.apache.kafka.common.security.plain.PlainLoginModule required
        user_admin="123456"
        user_user1="123456"
        user_user2="123456";
    };
    Copy to Clipboard Toggle word wrap
  2. 다음을 위해 모든 클러스터 노드에서 /opt/kafka/config/server.properties Kafka 구성 파일을 편집합니다.

    • SASL PLAIN 인증을 사용하려는 리스너의 SASL_PLAINTEXT 또는 SASL_SSL 프로토콜을 지정하도록 listener.security.protocol.map 필드를 변경합니다.
    • sasl.enabled.mechanisms 옵션을 PLAIN 으로 설정합니다.

      예를 들면 다음과 같습니다.

      listeners=INSECURE://:9092,AUTHENTICATED://:9093,REPLICATION://:9094
      listener.security.protocol.map=INSECURE:PLAINTEXT,AUTHENTICATED:SASL_PLAINTEXT,REPLICATION:PLAINTEXT
      sasl.enabled.mechanisms=PLAIN
      Copy to Clipboard Toggle word wrap
  3. (re) KAFKA_OPTS 환경 변수를 사용하여 Kafka 브로커를 시작하여 JAAS 구성을 Kafka 브로커에 전달합니다.

    su - kafka
    export KAFKA_OPTS="-Djava.security.auth.login.config=/opt/kafka/config/jaas.conf"; /opt/kafka/bin/kafka-server-start.sh -daemon /opt/kafka/config/server.properties
    Copy to Clipboard Toggle word wrap

추가 리소스

4.9.7. SASL SCRAM 인증 활성화

다음 절차에서는 Kafka 브로커에서 SASL SCRAM 인증을 활성화하는 방법을 설명합니다.

사전 요구 사항

  • AMQ Streams는 Kafka 브로커로 사용할 모든 호스트에 설치됩니다.

프로세스

  1. /opt/kafka/config/jaas.conf JAAS 구성 파일을 편집하거나 만듭니다. KafkaServer 컨텍스트에 대해 ScramLoginModule 을 활성화합니다. 이 파일이 모든 Kafka 브로커에서 동일한지 확인합니다.

    예를 들면 다음과 같습니다.

    KafkaServer {
        org.apache.kafka.common.security.scram.ScramLoginModule required;
    };
    Copy to Clipboard Toggle word wrap
  2. 다음을 위해 모든 클러스터 노드에서 /opt/kafka/config/server.properties Kafka 구성 파일을 편집합니다.

    • SASL SCRAM 인증을 사용하려는 리스너의 SASL_PLAINTEXT 또는 SASL_SSL 프로토콜을 지정하도록 listener.security.protocol.map 필드를 변경합니다.
    • sasl.enabled.mechanisms 옵션을 SCRAM-SHA-256 또는 SCRAM-SHA-512 로 설정합니다.

      예를 들면 다음과 같습니다.

      listeners=INSECURE://:9092,AUTHENTICATED://:9093,REPLICATION://:9094
      listener.security.protocol.map=INSECURE:PLAINTEXT,AUTHENTICATED:SASL_PLAINTEXT,REPLICATION:PLAINTEXT
      sasl.enabled.mechanisms=SCRAM-SHA-512
      Copy to Clipboard Toggle word wrap
  3. (re) KAFKA_OPTS 환경 변수를 사용하여 Kafka 브로커를 시작하여 JAAS 구성을 Kafka 브로커에 전달합니다.

    su - kafka
    export KAFKA_OPTS="-Djava.security.auth.login.config=/opt/kafka/config/jaas.conf"; /opt/kafka/bin/kafka-server-start.sh -daemon /opt/kafka/config/server.properties
    Copy to Clipboard Toggle word wrap

추가 리소스

4.9.8. SASL SCRAM 사용자 추가

이 절차에서는 SASL SCRAM을 사용하여 인증을 위해 새 사용자를 추가하는 방법을 설명합니다.

사전 요구 사항

프로세스

  • kafka-configs.sh 도구를 사용하여 새 SASL SCRAM 사용자를 추가합니다.

    bin/kafka-configs.sh --bootstrap-server <BrokerAddress> --alter --add-config 'SCRAM-SHA-512=[password=<Password>]' --entity-type users --entity-name <Username>
    Copy to Clipboard Toggle word wrap

    예를 들면 다음과 같습니다.

    bin/kafka-configs.sh --bootstrap-server localhost:9092 --alter --add-config 'SCRAM-SHA-512=[password=123456]' --entity-type users --entity-name user1
    Copy to Clipboard Toggle word wrap

추가 리소스

4.9.9. SASL SCRAM 사용자 삭제

다음 절차에서는 SASL SCRAM 인증을 사용할 때 사용자를 제거하는 방법을 설명합니다.

사전 요구 사항

프로세스

  • kafka-configs.sh 도구를 사용하여 SASL SCRAM 사용자를 삭제합니다.

    bin/kafka-configs.sh --bootstrap-server <BrokerAddress> --alter --delete-config 'SCRAM-SHA-512' --entity-type users --entity-name <Username>
    Copy to Clipboard Toggle word wrap

    예를 들면 다음과 같습니다.

    bin/kafka-configs.sh --bootstrap-server localhost:9092 --alter --delete-config 'SCRAM-SHA-512' --entity-type users --entity-name user1
    Copy to Clipboard Toggle word wrap

추가 리소스

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2026 Red Hat