5.3. 보강된 네트워크 흐름 데이터 내보내기
Kafka, IPFIX 또는 둘 다에 동시에 네트워크 흐름을 보낼 수 있습니다. Splunk, Elasticsearch 또는 Fluentd와 같이 Kafka 또는 IPFIX 입력을 지원하는 모든 프로세서 또는 스토리지는 강화된 네트워크 흐름 데이터를 사용할 수 있습니다.
사전 요구 사항
-
Kafka 또는 IPFIX 수집기 끝점은 Network Observability
flowlogs-pipeline
Pod에서 사용할 수 있습니다.
프로세스
-
웹 콘솔에서 Operator
설치된 Operator 로 이동합니다. - NetObserv Operator 의 제공된 API 제목에서 흐름 수집기 를 선택합니다.
- 클러스터를 선택한 다음 YAML 탭을 선택합니다.
다음과 같이
FlowCollector
를 편집하여spec.exporters
를 구성합니다.apiVersion: flows.netobserv.io/v1beta2 kind: FlowCollector metadata: name: cluster spec: exporters: - type: Kafka 1 kafka: address: "kafka-cluster-kafka-bootstrap.netobserv" topic: netobserv-flows-export 2 tls: enable: false 3 - type: IPFIX 4 ipfix: targetHost: "ipfix-collector.ipfix.svc.cluster.local" targetPort: 4739 transport: tcp or udp 5
- 2
- Network Observability Operator는 모든 흐름을 구성된 Kafka 주제로 내보냅니다.
- 3
- SSL/TLS 또는 mTLS를 사용하여 Kafka 간에 모든 통신을 암호화할 수 있습니다. 활성화하면 Kafka CA 인증서를 ConfigMap 또는 Secret으로 사용할 수 있어야 합니다.
flowlogs-pipeline
프로세서 구성 요소가 배포되는 네임스페이스(기본값: netobserv).spec.exporters.tls.caCert
를 사용하여 참조해야 합니다. mTLS를 사용하는 경우 이러한 네임스페이스에서 클라이언트 시크릿을 사용할 수 있어야 합니다(예: AMQ Streams User Operator를 사용하여 생성할 수 있음)spec.exporters.tls.userCert
에서 참조해야 합니다. - 1 4
- 흐름을 Kafka로 내보내거나 내보내기와 함께 IPFIX로 내보낼 수 있습니다.
- 5
- 전송을 지정하는 옵션이 있습니다. 기본값은
tcp
이지만udp
도 지정할 수 있습니다.
- 구성 후 네트워크 흐름 데이터를 JSON 형식의 사용 가능한 출력으로 전송할 수 있습니다. 자세한 내용은 네트워크 흐름 형식 참조를 참조하십시오.
추가 리소스
흐름 형식을 지정하는 방법에 대한 자세한 내용은 네트워크 흐름 형식 참조를 참조하십시오.