5.2. Kafka를 사용하여 Flow Collector 리소스 구성
처리량이 높고 대기 시간이 짧은 데이터 피드에 Kafka를 사용하도록 FlowCollector
리소스를 구성할 수 있습니다. Kafka 인스턴스를 실행해야 하며 OpenShift Container Platform Network Observability 전용 Kafka 주제를 해당 인스턴스에서 생성해야 합니다. 자세한 내용은 AMQ Streams를 사용한 Kafka 문서를 참조하십시오.
사전 요구 사항
- Kafka가 설치되어 있어야 합니다. Red Hat은 AMQ Streams Operator를 사용하여 Kafka를 지원합니다.
프로세스
-
웹 콘솔에서 Operator
설치된 Operator 로 이동합니다. - Network Observability Operator의 제공된 API 제목에서 흐름 수집기 를 선택합니다.
- 클러스터를 선택한 다음 YAML 탭을 클릭합니다.
-
다음 샘플 YAML과 같이 OpenShift Container Platform Network Observability Operator의
FlowCollector
리소스를 수정하여 Kafka를 사용합니다.
FlowCollector
리소스의 Kafka 구성 샘플
apiVersion: flows.netobserv.io/v1beta2 kind: FlowCollector metadata: name: cluster spec: deploymentModel: Kafka 1 kafka: address: "kafka-cluster-kafka-bootstrap.netobserv" 2 topic: network-flows 3 tls: enable: false 4
- 1
Kafka
배포 모델을 활성화하려면Direct
대신spec.deploymentModel
을 Kafka로 설정합니다.- 2
spec.kafka.address
는 Kafka 부트스트랩 서버 주소를 나타냅니다. 필요한 경우 포트 9093에서 TLS를 사용하기 위해kafka-cluster-kafka-bootstrap.netobserv:9093
과 같이 포트를 지정할 수 있습니다.- 3
spec.kafka.topic
은 Kafka에서 생성된 주제의 이름과 일치해야 합니다.- 4
spec.kafka.tls
는 TLS 또는 mTLS를 사용하여 Kafka와의 모든 통신을 암호화하는 데 사용할 수 있습니다. 활성화된 경우 Kafka CA 인증서를 ConfigMap 또는 Secret으로 사용할 수 있어야 합니다.flowlogs-pipeline
프로세서 구성 요소가 배포되는 네임스페이스(기본값:netobserv
)와 eBPF 에이전트가 배포되는 위치(기본값:netobserv-privileged
).spec.kafka.tls.caCert
를 사용하여 참조해야 합니다. mTLS를 사용하는 경우 이러한 네임스페이스에서 클라이언트 시크릿을 사용할 수 있어야 합니다(예: AMQ Streams User Operator를 사용하여 생성할 수 있음)spec.kafka.tls.userCert
에서 참조됩니다.