9.2. Kafka 구성
Kafka 사용자 정의 리소스의 사양 속성을 업데이트하여 Kafka 배포를 구성합니다.
Kafka를 구성할 뿐만 아니라 Zoo Cryostat 및 AMQ Streams Operator에 대한 구성을 추가할 수 있습니다. 로깅 및 상태 점검과 같은 일반적인 구성 속성은 각 구성 요소에 대해 독립적으로 구성됩니다.
특히 중요한 구성 옵션은 다음과 같습니다.
- 리소스 요청(CPU / 메모리)
- 최대 및 최소 메모리 할당을 위한 JVM 옵션
- Kafka 브로커에 클라이언트를 연결하는 리스너(및 클라이언트 인증)
- 인증
- 스토리지
- Rack 인식
- 지표
- 클러스터 재조정을 위한 cruise Control
- KRaft 기반 Kafka 클러스터의 메타데이터 버전
- Zoo Cryostat 기반 Kafka 클러스터의 브랜드 간 프로토콜 버전
config의 .spec.kafka.metadataVersion 속성 또는 config 의 inter.broker.protocol.version 속성은 지정된 Kafka 버전 (spec.kafka.version)에서 지원하는 버전이어야 합니다. 속성은 Kafka 클러스터에서 사용되는 Kafka 메타데이터 또는 inter-broker 프로토콜 버전을 나타냅니다. 이러한 속성 중 하나가 구성에 설정되지 않은 경우 Cluster Operator는 버전을 사용된 Kafka 버전의 기본값으로 업데이트합니다.
지원되는 가장 오래된 메타데이터 버전은 3.3입니다. Kafka 버전보다 오래된 메타데이터 버전을 사용하면 일부 기능이 비활성화될 수 있습니다.
Kafka 클러스터 구성 옵션에 대한 자세한 내용은 AMQ Streams 사용자 정의 리소스 API 참조를 참조하십시오.
TLS 인증서 관리
Kafka를 배포할 때 Cluster Operator는 클러스터 내에서 암호화 및 인증을 활성화하기 위해 TLS 인증서를 자동으로 설정하고 갱신합니다. 필요한 경우 갱신 기간이 시작되기 전에 클러스터 및 클라이언트 CA 인증서를 수동으로 갱신할 수 있습니다. 클러스터 및 클라이언트 CA 인증서에서 사용하는 키를 교체할 수도 있습니다. 자세한 내용은 수동으로 CA 인증서 갱신 및 개인 키 교체를 참조하십시오.
Kafka 사용자 정의 리소스 구성의 예
- 1
- 복제본 노드 수입니다.
- 2
- 업그레이드 절차에 따라 지원되는 버전으로 변경할 수 있는 Kafka 버전입니다.
- 3
- Kafka 로거 및 로그 수준은 ConfigMap을 통해 직접(
인라인) 또는 간접적으로(외부)에 추가됩니다. 사용자 정의 Log4j 구성은 ConfigMap의log4j.properties키 아래에 배치해야 합니다. Kafkakafka.root.logger.level로거의 경우 로그 수준을 INFO, ERROR, WARN, TRACE, DEBUG, FATAL 또는 OFF로 설정할 수 있습니다. - 4
- 지원되는 리소스(현재
cpu및memory) 예약 요청 및 사용할 수 있는 최대 리소스를 지정합니다. - 5
- 컨테이너를 다시 시작할 시기(라이브)와 컨테이너가 트래픽을 허용할 시기(준비)를 확인할 상태 점검입니다.
- 6
- Kafka를 실행하는 VM(가상 머신)의 성능을 최적화하는 JVM 구성 옵션입니다.
- 7
- ADVANCED OPTION: 특수 상황에서만 권장되는 컨테이너 이미지 구성입니다.
- 8
- 리스너는 클라이언트가 부트스트랩 주소를 통해 Kafka 클러스터에 연결하는 방법을 구성합니다. 리스너는 OpenShift 클러스터 내부 또는 외부에서 연결을 위해 내부 또는 외부 리스너로 구성됩니다.
- 9
- 리스너를 식별하는 이름입니다. Kafka 클러스터 내에서 고유해야 합니다.
- 10
- Kafka 내의 리스너에서 사용하는 포트 번호입니다. 포트 번호는 지정된 Kafka 클러스터 내에서 고유해야 합니다. 허용되는 포트 번호는 9092 이상이며, 이는 Prometheus 및 Cryostat에 이미 사용되는 포트 9404 및 9999를 제외하고 사용합니다. 리스너 유형에 따라 Kafka 클라이언트를 연결하는 포트 번호와 포트 번호가 동일하지 않을 수 있습니다.
- 11
internal또는cluster-ip로 지정된 리스너 유형(brokerClusterIP서비스를 사용하여 Kafka를 노출) 또는 외부 리스너의 경우경로(OpenShift만),로드 밸런서,nodeport또는ingress(Kubernetes만 해당)로 표시됩니다.- 12
- 각 리스너에 대해 TLS 암호화를 활성화합니다. 기본값은
false입니다.경로및수신유형 리스너의 경우true로 설정하여 TLS 암호화를 활성화해야 합니다. - 13
- 클러스터 서비스 접미사(일반적으로
.cluster.local)를 포함하여 정규화된 DNS 이름을 정의합니다. - 14
- mTLS, SCRAM-SHA-512 또는 토큰 기반 OAuth 2.0으로 지정된 리스너 인증 메커니즘
- 15
- 외부 리스너 구성은
경로,로드 밸런서또는nodeport를 통해 Kafka 클러스터가 OpenShift 외부에 노출되는 방법을 지정합니다. - 16
- 외부 CA(인증 기관)에서 관리하는 Kafka 리스너 인증서에 대한 선택적 구성입니다.
brokerCert CryostatAndKey는 서버 인증서와 개인 키가 포함된 보안을 지정합니다.활성화된 TLS 암호화를 사용하여 모든 리스너에서 Kafka 리스너 인증서를 구성할 수 있습니다. - 17
- 권한 부여를 사용하면 Kafka 브로커에서 간단한 OAUTH 2.0 또는 OPA 인증을 사용할 수 있습니다. 간단한 인증에서는
AclAuthorizer및StandardAuthorizerKafka 플러그인을 사용합니다. - 18
- 브로커 구성. 표준 Apache Kafka 구성은 AMQ Streams에서 직접 관리하지 않는 속성으로 제한될 수 있습니다.
- 19
- 영구 볼륨의 스토리지 크기가 증가할 수 있으며 추가 볼륨이 JBOD 스토리지에 추가될 수 있습니다.
- 20
- 영구 스토리지에는 동적 볼륨 프로비저닝을 위한 스토리지 ID 및
와 같은 추가 구성 옵션이 있습니다.클래스 - 21
- 다양한 랙, 데이터 센터 또는 가용성 영역에 복제본을 분산하기 위한 랙 인식 구성입니다.
topologyKey는 랙 ID가 포함된 노드 레이블과 일치해야 합니다. 이 구성에 사용된 예제에서는 표준topology.kubernetes.io/zone레이블을 사용하는 영역을 지정합니다. - 22
- Prometheus 지표가 활성화되어 있습니다. 이 예에서는 Prometheus Cryostat Exporter(기본 지표 내보내기)에 대한 메트릭이 구성됩니다.
- 23
- Prometheus Cryostat 내보내기에 대한 구성이 포함된 ConfigMap을 참조하여 활성화되는 Prometheus 형식의 Grafana 대시보드로 메트릭을 내보내는 규칙입니다.
metricsConfig.valueFrom.configMapKeyRef.key아래에 빈 파일이 포함된 ConfigMap에 대한 참조를 사용하여 추가 구성 없이 메트릭을 활성화할 수 있습니다. - 24
- Kafka 구성과 유사한 속성을 포함하는 Zookeeper별 구성입니다.
- 25
- Zoo Cryostat 노드 수입니다. Zookeeper 클러스터 또는 ensembles는 일반적으로 홀수의 노드(일반적으로 3, 5 또는 7)로 실행됩니다. 유효한 쿼럼을 유지하려면 대부분의 노드를 사용할 수 있어야 합니다. Zoo Cryostat 클러스터가 쿼럼을 끊을 경우 클라이언트에 대한 응답이 중지되고 Kafka 브로커가 작동하지 않습니다. AMQ Streams에 안정적이고 가용성이 높은 Zoo Cryostat 클러스터를 보유하는 것이 중요합니다.
- 26
- Zookeeper 로거 및 로그 수준.
- 27
- Entity Operator 구성 - Topic Operator 및 User Operator에 대한 구성을 지정합니다.
- 28
- 엔터티 Operator TLS 사이드카 구성. 엔터티 Operator는 Zoo Cryostat와의 보안 통신을 위해 TLS 사이드카를 사용합니다.
- 29
- Topic Operator 로거 및 로그 수준을 지정합니다. 이 예에서는
인라인로깅을 사용합니다. - 30
- 지정된 사용자 Operator 로거 및 로그 수준입니다.
- 31
- Kafka 내보내기 구성. Kafka 내보내기는 특히 소비자 지연 데이터의 Kafka 브로커에서 메트릭 데이터를 추출하기 위한 선택적 구성 요소입니다. Kafka Exporter가 제대로 작동하려면 소비자 그룹이 사용 중이어야 합니다.
- 32
- Kafka 클러스터를 재조정하는 데 사용되는 Cruise Control에 대한 선택적 구성입니다.
9.2.1. Kafka 정적 할당량 플러그인을 사용하여 브로커에 제한 설정 링크 복사링크가 클립보드에 복사되었습니다!
Kafka 정적 할당량 플러그인을 사용하여 Kafka 클러스터의 브로커에 처리량 및 스토리지 제한을 설정합니다. Kafka 리소스를 구성하여 플러그인을 활성화하고 제한을 설정합니다. 브로커와 상호 작용하는 클라이언트에 제한을 두도록 바이트 비율 임계값 및 스토리지 할당량을 설정할 수 있습니다.
Kafka에서 하나의 할당량 플러그인만 사용할 수 있습니다. 이 플러그인을 활성화하면 기본 제공 Kafka 할당량 플러그인이 자동으로 비활성화됩니다. 즉, 클라이언트별 할당량 메트릭은 표시되지 않지만 집계된 할당량 지표만 표시됩니다.
생산자 및 소비자 대역폭에 대한 바이트 비율 임계값을 설정할 수 있습니다. 총 제한은 브로커에 액세스하는 모든 클라이언트에 분산됩니다. 예를 들어 생산자를 위해 바이트 비율 임계값을 40MBps로 설정할 수 있습니다. 두 생산자가 실행 중인 경우 각각 처리량이 20MB로 제한됩니다.
스토리지 할당량은 소프트 제한과 하드 제한 간에 Kafka 디스크 스토리지 제한을 제한합니다. 제한은 사용 가능한 모든 디스크 공간에 적용됩니다. 생산자는 소프트 제한과 하드 제한 사이에 점진적으로 느려집니다. 제한을 통해 디스크가 너무 빨리 채워지고 용량을 초과할 수 있습니다. 전체 디스크로 인해 수정하기 어려운 문제가 발생할 수 있습니다. 하드 제한은 최대 스토리지 제한입니다.
JBOD 스토리지의 경우 제한이 모든 디스크에 적용됩니다. 브로커가 두 개의 1TB 디스크를 사용하고 할당량이 1.1TB인 경우 하나의 디스크가 채워지고 다른 디스크는 거의 비어 있습니다.
사전 요구 사항
- Kafka 클러스터를 관리하는 Cluster Operator가 실행 중입니다.
프로세스
Kafka리소스의 구성에 플러그인 속성을 추가합니다.플러그인 속성은 이 예제 구성에 표시됩니다.
Kafka 고정 할당량 플러그인 구성의 예
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 리소스를 업데이트합니다.
oc apply -f <kafka_configuration_file>
oc apply -f <kafka_configuration_file>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
9.2.2. 기본 Zoo Cryostat 구성 값 링크 복사링크가 클립보드에 복사되었습니다!
AMQ Streams를 사용하여 Zoo Cryostat를 배포할 때 AMQ Streams에 의해 설정된 기본 구성 중 일부는 표준 Zoo Cryostat 기본값과 다릅니다. AMQ Streams는 OpenShift 환경 내에서 Zoo Cryostat 실행을 위해 최적화된 값을 사용하여 여러 개의 Zoo Cryostat 속성을 설정하기 때문입니다.
AMQ Streams의 키 Zoo Cryostat 속성에 대한 기본 구성은 다음과 같습니다.
| 속성 | 기본값 | 설명 |
|---|---|---|
|
| 2000 | 세션 시간 제한을 결정하는 단일 틱(밀리초)입니다. |
|
| 5 | 팔로워가 Zoo Cryostat 클러스터에서 리더로 대체될 수 있는 최대 틱 수입니다. |
|
| 2 | follower가 Zoo Cryostat 클러스터의 리더와 동기화되지 않을 수 있는 최대 틱 수입니다. |
|
| 1 |
|
|
| false | Zoo Cryostat 관리자 서버를 비활성화하려면 플래그를 지정합니다. admin 서버는 AMQ Streams에서 사용하지 않습니다. |
Kafka 사용자 정의 리소스에서 zookeeper.config 로 기본값을 수정하면 Zoo Cryostat 클러스터의 동작 및 성능에 영향을 미칠 수 있습니다.
9.2.3. 주석을 사용하여 Kafka 노드 삭제 링크 복사링크가 클립보드에 복사되었습니다!
다음 절차에서는 OpenShift 주석을 사용하여 기존 Kafka 노드를 삭제하는 방법을 설명합니다. Kafka 노드를 삭제하면 Kafka 브로커가 실행 중인 Pod 와 관련 PersistentVolumeClaim (클러스터가 영구 스토리지와 함께 배포된 경우)을 모두 삭제하는 것으로 구성됩니다. 삭제 후 Pod 및 관련 PersistentVolumeClaim 이 자동으로 다시 생성됩니다.
PersistentVolumeClaim 을 삭제하면 영구 데이터 손실이 발생할 수 있으며 클러스터의 가용성은 보장할 수 없습니다. 다음 절차는 스토리지 문제가 발생한 경우에만 수행해야 합니다.
사전 요구 사항
- 실행중인 Cluster Operator
프로세스
삭제할
Pod의 이름을 찾습니다.Kafka 브로커 Pod의 이름은 <
cluster_name>-kafka-<index_number>로 지정됩니다. 여기서 <index_number>는 0에서 시작하여 총 복제본 수에서 1을 뺀 값입니다. 예를 들면my-cluster-kafka-0입니다.oc annotate를 사용하여 OpenShift에서Pod리소스에 주석을 답니다.oc annotate pod <cluster_name>-kafka-<index_number> strimzi.io/delete-pod-and-pvc="true"
oc annotate pod <cluster_name>-kafka-<index_number> strimzi.io/delete-pod-and-pvc="true"Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 기본 영구 볼륨 클레임이 있는 주석이 달린 Pod가 삭제될 때 다음 조정을 기다린 후 다시 생성합니다.
9.2.4. 주석을 사용하여 Zoo Cryostat 노드 삭제 링크 복사링크가 클립보드에 복사되었습니다!
다음 절차에서는 OpenShift 주석을 사용하여 기존 Zoo Cryostat 노드를 삭제하는 방법을 설명합니다. Zoo Cryostat 노드를 삭제하면 Zoo Cryostat가 실행 중인 Pod 와 관련 PersistentVolumeClaim (클러스터가 영구 스토리지와 함께 배포된 경우)을 모두 삭제하는 것으로 구성됩니다. 삭제 후 Pod 및 관련 PersistentVolumeClaim 이 자동으로 다시 생성됩니다.
PersistentVolumeClaim 을 삭제하면 영구 데이터 손실이 발생할 수 있으며 클러스터의 가용성은 보장할 수 없습니다. 다음 절차는 스토리지 문제가 발생한 경우에만 수행해야 합니다.
사전 요구 사항
- 실행중인 Cluster Operator
프로세스
삭제할
Pod의 이름을 찾습니다.Zookeeper Pod의 이름은 <
cluster_name>-zookeeper-<index_number>로 지정됩니다. 여기서 <index_number>는 0에서 시작하여 총 복제본 수에서 1을 뺀 값입니다. 예를 들면my-cluster-zookeeper-0입니다.oc annotate를 사용하여 OpenShift에서Pod리소스에 주석을 답니다.oc annotate pod <cluster_name>-zookeeper-<index_number> strimzi.io/delete-pod-and-pvc="true"
oc annotate pod <cluster_name>-zookeeper-<index_number> strimzi.io/delete-pod-and-pvc="true"Copy to Clipboard Copied! Toggle word wrap Toggle overflow - 기본 영구 볼륨 클레임이 있는 주석이 달린 Pod가 삭제될 때 다음 조정을 기다린 후 다시 생성합니다.