5.3. エンリッチされたネットワークフローデータのエクスポート


ネットワークフローを、Kafka、IPFIX、Red Hat build of OpenTelemetry、またはこれら 3 つすべてに同時に送信できます。Kafka または IPFIX の場合、Splunk、Elasticsearch、Fluentd など、Kafka または IPFIX の入力をサポートするプロセッサーまたはストレージで、エンリッチされたネットワークフローデータを利用できます。OpenTelemetry の場合、ネットワークフローデータとメトリクスを、Red Hat build of OpenTelemetry、Jaeger、Prometheus など、互換性のある OpenTelemetry エンドポイントにエクスポートできます。

前提条件

  • Network Observability の flowlogs-pipeline Pod から、Kafka、IPFIX、または OpenTelemetry コレクターエンドポイントを利用できる。

手順

  1. Web コンソールで、Operators Installed Operators に移動します。
  2. NetObserv OperatorProvided APIs 見出しの下で、Flow Collector を選択します。
  3. cluster を選択し、YAML タブを選択します。
  4. FlowCollector を編集して、spec.exporters を次のように設定します。

    Copy to Clipboard Toggle word wrap
    apiVersion: flows.netobserv.io/v1beta2
    kind: FlowCollector
    metadata:
      name: cluster
    spec:
      exporters:
      - type: Kafka                         
    1
    
          kafka:
            address: "kafka-cluster-kafka-bootstrap.netobserv"
            topic: netobserv-flows-export   
    2
    
            tls:
              enable: false                 
    3
    
      - type: IPFIX                         
    4
    
          ipfix:
            targetHost: "ipfix-collector.ipfix.svc.cluster.local"
            targetPort: 4739
            transport: tcp or udp           
    5
    
     -  type: OpenTelemetry                 
    6
    
          openTelemetry:
            targetHost: my-otelcol-collector-headless.otlp.svc
            targetPort: 4317
            type: grpc                      
    7
    
            logs:                           
    8
    
              enable: true
            metrics:                        
    9
    
              enable: true
              prefix: netobserv
              pushTimeInterval: 20s         
    10
    
              expiryTime: 2m
       #    fieldsMapping:                  
    11
    
       #      input: SrcAddr
       #      output: source.address
    1 4 6
    フローを IPFIX、OpenTelemetry、Kafka に個別または同時にエクスポートできます。
    2
    Network Observability Operator は、すべてのフローを設定された Kafka トピックにエクスポートします。
    3
    Kafka との間のすべての通信を SSL/TLS または mTLS で暗号化できます。有効にした場合、Kafka CA 証明書は、flowlogs-pipeline プロセッサーコンポーネントがデプロイされている namespace (デフォルト: netobserv) で、ConfigMap または Secret として使用できる必要があります。これは spec.exporters.tls.caCert で参照する必要があります。mTLS を使用する場合、クライアントシークレットはこれらの namespace でも利用可能であり (たとえば、AMQ Streams User Operator を使用して生成できます)、spec.exporters.tls.userCert で参照される必要があります。
    5
    オプションでトランスポートを指定できます。デフォルト値は tcp ですが、udp を指定することもできます。
    7
    OpenTelemetry 接続のプロトコル。使用可能なオプションは httpgrpc です。
    8
    Loki 用に作成されたログと同じログをエクスポートするための OpenTelemetry 設定。
    9
    Prometheus 用に作成されたメトリクスと同じメトリクスをエクスポートするための OpenTelemetry 設定。これらの設定を、FlowMetrics カスタムリソースを使用して定義したカスタムメトリクスとともに、FlowCollector カスタムリソースの spec.processor.metrics.includeList パラメーターで指定します。
    10
    メトリクスを OpenTelemetry コレクターに送信する時間間隔。
    11
    オプション: Network Observability のネットワークフローの形式は、OpenTelemetry 準拠の形式に合わせて、自動的に名前が変更されます。fieldsMapping 仕様を使用すると、OpenTelemetry 形式の出力をカスタマイズできます。たとえば、YAML サンプルでは、SrcAddr が Network Observability の入力フィールドです。これは、OpenTelemetry の出力で source.address に名前が変更されます。「ネットワークフローの形式リファレンス」で、Network Observability の形式と OpenTelemetry の形式の両方を確認できます。

設定後、ネットワークフローデータを JSON 形式で利用可能な出力に送信できます。詳細は、「ネットワークフロー形式のリファレンス」を参照してください。

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat, Inc.