검색

Red Hat build of OpenTelemetry

download PDF
OpenShift Container Platform 4.17

OpenShift Container Platform에서 OpenTelemetry의 Red Hat 빌드 구성 및 사용

Red Hat OpenShift Documentation Team

초록

오픈 소스 OpenTelemetry 프로젝트의 Red Hat 빌드를 사용하여 OpenShift Container Platform의 클라우드 네이티브 소프트웨어에 대한 통합, 표준화 및 벤더 중립 Telemetry 데이터를 수집합니다.

1장. Red Hat build of OpenTelemetry 릴리스 노트

1.1. Red Hat build of OpenTelemetry 개요

Red Hat build of OpenTelemetry는 오픈 소스 OpenTelemetry 프로젝트를 기반으로 하며, 이는 클라우드 네이티브 소프트웨어에 대한 통합, 표준화 및 벤더 중립 Telemetry 데이터 수집을 제공하는 것을 목표로 합니다. Red Hat build of OpenTelemetry 제품은 OpenTelemetry 수집기 배포 및 관리와 워크로드 조정 간소화를 지원합니다.

OpenTelemetry 수집기 는 여러 형식으로 Telemetry 데이터를 수신, 처리 및 전달할 수 있으므로 Telemetry 처리 및 원격 분석 시스템 간의 상호 운용성에 이상적인 구성 요소입니다. 수집기는 메트릭, 추적 및 로그를 수집하고 처리하기 위한 통합 솔루션을 제공합니다.

OpenTelemetry 수집기에는 다음과 같은 여러 기능이 있습니다.

데이터 수집 및 처리 허브
다양한 소스의 지표 및 추적과 같은 Telemetry 데이터를 수집하는 중앙 구성 요소 역할을 합니다. 이러한 데이터는 조정된 애플리케이션 및 인프라에서 생성할 수 있습니다.
사용자 지정할 수 있는 Telemetry 데이터 파이프라인
OpenTelemetry 수집기는 사용자 지정이 가능하도록 설계되었습니다. 다양한 프로세서, 내보내기 및 수신자를 지원합니다.
자동 복원 기능
자동 계측은 애플리케이션에 관찰 기능을 추가하는 프로세스를 간소화합니다. 개발자는 기본 Telemetry 데이터를 위해 코드를 수동으로 조정할 필요가 없습니다.

다음은 OpenTelemetry 수집기의 몇 가지 사용 사례입니다.

중앙 집중식 데이터 수집
마이크로 서비스 아키텍처에서 수집기를 배포하여 여러 서비스의 데이터를 집계할 수 있습니다.
데이터 강화 및 처리
데이터 분석 툴로 전달하기 전에 수집기는 이 데이터를 강화, 필터링 및 처리할 수 있습니다.
multi-backend 수신 및 내보내기
수집기는 여러 모니터링 및 분석 플랫폼에 동시에 데이터를 수신하고 보낼 수 있습니다.

Red Hat build of OpenTelemetry를 Red Hat OpenShift distributed tracing Platform(Tempo) 과 함께 사용할 수 있습니다.

참고

지원되는 기능만 문서화됩니다. 문서화되지 않은 기능은 현재 지원되지 않습니다. 기능에 대한 지원이 필요한 경우 Red Hat 지원에 문의하십시오.

1.2. Red Hat build of OpenTelemetry 3.3 릴리스 노트

Red Hat build of OpenTelemetry는 OpenTelemetry Operator의 Red Hat 빌드를 통해 제공됩니다.

Red Hat build of OpenTelemetry 3.3은 오픈 소스 OpenTelemetry 릴리스 0.107.0을 기반으로 합니다.

1.2.1. CVE

이 릴리스에서는 다음 CVE가 수정되었습니다.

1.2.2. 기술 프리뷰 기능

이번 업데이트에서는 다음과 같은 기술 프리뷰 기능이 도입되었습니다.

  • group-by-Attributes 프로세서
  • 변환 프로세서
  • 라우팅 커넥터
  • Prometheus 원격 쓰기 내보내기
  • LokiStack 로그 저장소로 로그 내보내기
중요

이러한 각 기능은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

1.2.3. 새로운 기능 및 개선 사항

이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.

  • 내부 수집기 메트릭을 위한 수집기 대시보드 및 수집기 상태 및 성능을 분석합니다. (TRACING-3768)
  • OpenTelemetry 수집기 및 계측 모두에서 인증서 자동 다시 로드를 지원합니다. (TRACING-4186)

1.2.4. 버그 수정

이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.

  • 이번 업데이트 이전에는 메트릭 끝점에 액세스할 수 있는 권한이 누락되어 ServiceMonitor 오브젝트가 Operator 메트릭을 스크랩하지 못했습니다. 이번 업데이트를 통해 Operator 모니터링이 활성화된 경우 ServiceMonitor 사용자 정의 리소스를 생성하여 이 문제가 해결되었습니다. (TRACING-4288)
  • 이번 업데이트 이전에는 수집기 서비스와 헤드리스 서비스가 동일한 끝점을 모니터링했기 때문에 메트릭 수집 및 ServiceMonitor 오브젝트의 중복이 발생했습니다. 이번 업데이트를 통해 헤드리스 서비스를 생성하지 않고 이 문제가 해결되었습니다. (OBSDA-773)

1.3. Red Hat build of OpenTelemetry 3.2.2 릴리스 노트

Red Hat build of OpenTelemetry는 OpenTelemetry Operator의 Red Hat 빌드를 통해 제공됩니다.

1.3.1. CVE

이 릴리스에서는 다음 CVE가 수정되었습니다.

1.3.2. 버그 수정

이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.

  • 이번 업데이트 이전에는 Operator가 서비스 계정에 대한 새 openshift.io/internal-registry-pull-secret-ref 주석을 조정하려고 하므로 OpenShift Container Platform 4.16에서 영구적으로 시크릿이 생성되어 루프가 발생했습니다. 이번 업데이트를 통해 Operator는 이 새 주석을 무시합니다. (TRACING-4435)

1.4. Red Hat build of OpenTelemetry 3.2.1 릴리스 노트

Red Hat build of OpenTelemetry는 OpenTelemetry Operator의 Red Hat 빌드를 통해 제공됩니다.

1.4.1. CVE

이 릴리스에서는 다음 CVE가 수정되었습니다.

1.4.2. 새로운 기능 및 개선 사항

이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.

  • Red Hat build of OpenTelemetry 3.2.1은 오픈 소스 OpenTelemetry 릴리스 0.102.1을 기반으로 합니다.

1.5. Red Hat build of OpenTelemetry 3.2 릴리스 노트

Red Hat build of OpenTelemetry는 OpenTelemetry Operator의 Red Hat 빌드를 통해 제공됩니다.

1.5.1. 기술 프리뷰 기능

이번 업데이트에서는 다음과 같은 기술 프리뷰 기능이 도입되었습니다.

  • 호스트 지표 수신자
  • OIDC 인증 확장
  • Kubernetes 클러스터 수신자
  • Kubernetes 이벤트 수신자
  • Kubernetes 오브젝트 수신자
  • Load-Balancing Exporter
  • kubelet Stats Receiver
  • LimitRange 프로세서로 누적
  • Forward Connector
  • journald Receiver
  • Filelog Receiver
  • 파일 스토리지 확장
중요

이러한 각 기능은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

1.5.2. 새로운 기능 및 개선 사항

이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.

  • Red Hat build of OpenTelemetry 3.2는 오픈 소스 OpenTelemetry 릴리스 0.100.0을 기반으로 합니다.

1.5.3. 사용되지 않는 기능

Red Hat build of OpenTelemetry 3.2에서는 OpenTelemetry 수집기 사용자 정의 리소스에서 빈 값과 null 키워드를 사용하는 것은 더 이상 사용되지 않으며 향후 릴리스에서 지원되지 않을 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 이 구문에 대한 버그 수정 및 지원을 제공하지만 이 구문은 지원되지 않습니다. 빈 값과 null 키워드 대신 OpenTelemetry 수집기 사용자 정의 리소스를 업데이트하여 빈 JSON 개체를 open-closed braces {} 로 포함할 수 있습니다.

1.5.4. 버그 수정

이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.

  • 이번 업데이트 이전에는 OpenTelemetry Operator의 Red Hat 빌드를 설치할 때 웹 콘솔에서 Operator 모니터링을 활성화하는 확인란을 사용할 수 없었습니다. 결과적으로 ServiceMonitor 리소스가 openshift-opentelemetry-operator 네임스페이스에 생성되지 않았습니다. 이번 업데이트를 통해 웹 콘솔에서 OpenTelemetry Operator의 Red Hat 빌드에 대한 확인란이 표시되어 설치 중에 Operator 모니터링을 활성화할 수 있습니다. (TRACING-3761)

1.6. Red Hat build of OpenTelemetry 3.1.1 릴리스 노트

Red Hat build of OpenTelemetry는 OpenTelemetry Operator의 Red Hat 빌드를 통해 제공됩니다.

1.6.1. CVE

이 릴리스에서는 CVE-2023-39326 이 수정되었습니다.

1.7. Red Hat build of OpenTelemetry 3.1 릴리스 노트

Red Hat build of OpenTelemetry는 OpenTelemetry Operator의 Red Hat 빌드를 통해 제공됩니다.

1.7.1. 기술 프리뷰 기능

이번 업데이트에서는 다음과 같은 기술 프리뷰 기능이 도입되었습니다.

  • 대상 al Cryostat는 OpenTelemetry Operator의 선택적 구성 요소이며 OpenTelemetry 수집기 인스턴스의 배포된 플릿에서 Prometheus 수신기 스크랩 대상을 분할합니다. 대상 al Cryostat는 Prometheus PodMonitorServiceMonitor 사용자 정의 리소스와의 통합을 제공합니다.
중요

대상은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

1.7.2. 새로운 기능 및 개선 사항

이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.

  • Red Hat build of OpenTelemetry 3.1은 오픈 소스 OpenTelemetry 릴리스 0.93.0을 기반으로 합니다.

1.8. Red Hat build of OpenTelemetry 3.0 릴리스 노트

1.8.1. 새로운 기능 및 개선 사항

이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.

  • Red Hat build of OpenTelemetry 3.0은 오픈 소스 OpenTelemetry 릴리스 0.89.0을 기반으로 합니다.
  • OpenShift distributed tracing data collection OperatorOpenTelemetry Operator의 Red Hat 빌드 로 이름이 변경됩니다.
  • ARM 아키텍처 지원
  • 메트릭 컬렉션에 대한 Prometheus 수신자를 지원합니다.
  • Kafka에 추적 및 메트릭을 전송하는 Kafka 수신자 및 내보내기를 지원합니다.
  • 클러스터 전체 프록시 환경 지원
  • Red Hat build of OpenTelemetry Operator는 Prometheus 내보내기가 활성화된 경우 Prometheus ServiceMonitor 사용자 정의 리소스를 생성합니다.
  • Operator는 업스트림 OpenTelemetry 자동 복원 라이브러리를 삽입할 수 있는 Instrumentation 사용자 정의 리소스를 활성화합니다.

1.8.2. 제거 알림

Red Hat build of OpenTelemetry 3.0에서는 Jaeger 내보내기가 제거되었습니다. 버그 수정 및 지원은 2.9 라이프사이클 종료 시에만 제공됩니다. Jaeger 수집기에 데이터를 전송하기 위한 Jaeger 내보내기 대신 OTLP 내보내기를 대신 사용할 수 있습니다.

1.8.3. 버그 수정

이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.

  • oc adm catalog mirror CLI 명령을 사용할 때 연결이 끊긴 환경에 대한 지원이 수정되었습니다.

1.8.4. 확인된 문제

현재 알려진 문제가 있습니다.

  • 현재 버그로 인해 OpenTelemetry Operator의 Red Hat 빌드 클러스터 모니터링이 비활성화되어 있습니다(TRACING-3761). 버그로 인해 클러스터 모니터링 및 서비스 모니터 오브젝트에 필요한 레이블 openshift.io/cluster-monitoring=true 로 인해 클러스터 모니터링이 OpenTelemetry Operator의 Red Hat 빌드에서 메트릭을 스크랩하지 않습니다.

    해결방법

    다음과 같이 클러스터 모니터링을 활성화할 수 있습니다.

    1. Operator 네임스페이스에 다음 레이블을 추가합니다. oc label namespace openshift-opentelemetry-operator openshift.io/cluster-monitoring=true
    2. 서비스 모니터, 역할, 역할 바인딩을 생성합니다.

      apiVersion: monitoring.coreos.com/v1
      kind: ServiceMonitor
      metadata:
        name: opentelemetry-operator-controller-manager-metrics-service
        namespace: openshift-opentelemetry-operator
      spec:
        endpoints:
        - bearerTokenFile: /var/run/secrets/kubernetes.io/serviceaccount/token
          path: /metrics
          port: https
          scheme: https
          tlsConfig:
            insecureSkipVerify: true
        selector:
          matchLabels:
            app.kubernetes.io/name: opentelemetry-operator
            control-plane: controller-manager
      ---
      apiVersion: rbac.authorization.k8s.io/v1
      kind: Role
      metadata:
        name: otel-operator-prometheus
        namespace: openshift-opentelemetry-operator
        annotations:
          include.release.openshift.io/self-managed-high-availability: "true"
          include.release.openshift.io/single-node-developer: "true"
      rules:
      - apiGroups:
        - ""
        resources:
        - services
        - endpoints
        - pods
        verbs:
        - get
        - list
        - watch
      ---
      apiVersion: rbac.authorization.k8s.io/v1
      kind: RoleBinding
      metadata:
        name: otel-operator-prometheus
        namespace: openshift-opentelemetry-operator
        annotations:
          include.release.openshift.io/self-managed-high-availability: "true"
          include.release.openshift.io/single-node-developer: "true"
      roleRef:
        apiGroup: rbac.authorization.k8s.io
        kind: Role
        name: otel-operator-prometheus
      subjects:
      - kind: ServiceAccount
        name: prometheus-k8s
        namespace: openshift-monitoring

1.9. Red Hat build of OpenTelemetry 2.9.2 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.9.2는 오픈 소스 OpenTelemetry 릴리스 0.81.0을 기반으로 합니다.

1.9.1. CVE

1.9.2. 확인된 문제

현재 알려진 문제가 있습니다.

1.10. Red Hat build of OpenTelemetry 2.9.1 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.9.1은 오픈 소스 OpenTelemetry 릴리스 0.81.0을 기반으로 합니다.

1.10.1. CVE

1.10.2. 확인된 문제

현재 알려진 문제가 있습니다.

1.11. Red Hat build of OpenTelemetry 2.9 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.9는 오픈 소스 OpenTelemetry 릴리스 0.81.0을 기반으로 합니다.

1.11.1. 새로운 기능 및 개선 사항

이번 릴리스에서는 OpenTelemetry의 Red Hat 빌드에 대해 다음과 같은 향상된 기능이 도입되었습니다.

  • OTLP 메트릭 수집 지원. 메트릭은 Prometheus 내보내기를 통해 user-workload-monitoring 에 전달 및 저장할 수 있습니다.
  • OpenTelemetry 수집기 인스턴스 및 OpenTelemetry Operator의 Red Hat 빌드를 업그레이드할 수 있는 Operator 완성 레벨 IV, Deep Insights를 지원합니다.
  • OTLP 또는 HTTP 및 HTTPS를 사용하여 원격 클러스터의 추적 및 메트릭을 보고합니다.
  • resourcedetection 프로세서를 통해 OpenShift Container Platform 리소스 속성을 수집합니다.
  • OpenTelemetryCollector 사용자 지정에서 managedunmanaged 상태를 지원합니다.

1.11.2. 확인된 문제

현재 알려진 문제가 있습니다.

1.12. Red Hat build of OpenTelemetry 2.8 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.8은 오픈 소스 OpenTelemetry 릴리스 Cryostat4.0을 기반으로 합니다.

1.12.1. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.13. Red Hat build of OpenTelemetry 2.7 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.7은 오픈 소스 OpenTelemetry 릴리스 0.63.1을 기반으로 합니다.

1.13.1. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.14. Red Hat build of OpenTelemetry 2.6 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.6은 오픈 소스 OpenTelemetry 릴리스 0.60을 기반으로 합니다.

1.14.1. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.15. Red Hat build of OpenTelemetry 2.5 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.5는 오픈 소스 OpenTelemetry 릴리스 0.56을 기반으로 합니다.

1.15.1. 새로운 기능 및 개선 사항

이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.

  • OpenTelemetry Operator의 Red Hat 빌드에 Kubernetes 리소스 속성 수집 지원

1.15.2. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.16. Red Hat build of OpenTelemetry 2.4 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.4는 오픈 소스 OpenTelemetry 릴리스 0.49를 기반으로 합니다.

1.16.1. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.17. Red Hat build of OpenTelemetry 2.3 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.3.1은 오픈 소스 OpenTelemetry 릴리스 0.44.1을 기반으로 합니다.

Red Hat build of OpenTelemetry 2.3.0은 오픈 소스 OpenTelemetry 릴리스 0.44.0을 기반으로 합니다.

1.17.1. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.18. Red Hat build of OpenTelemetry 2.2 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.2는 오픈 소스 OpenTelemetry 릴리스 0.42.0을 기반으로 합니다.

1.18.1. 기술 프리뷰 기능

2.1 릴리스에 포함된 지원되지 않는 OpenTelemetry 수집기 구성 요소가 제거됩니다.

1.18.2. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.19. Red Hat build of OpenTelemetry 2.1 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.1은 오픈 소스 OpenTelemetry 릴리스 0.41.1을 기반으로 합니다.

1.19.1. 기술 프리뷰 기능

이번 릴리스에서는 OpenTelemetry 사용자 정의 리소스 파일에서 인증서를 구성하는 방법에 대한 주요 변경 사항이 추가되었습니다. 이번 업데이트를 통해 다음 예와 같이 ca_file 이 사용자 정의 리소스의 tls 아래에서 이동합니다.

OpenTelemetry 버전 0.33의 CA 파일 구성

spec:
  mode: deployment
  config: |
    exporters:
      jaeger:
        endpoint: jaeger-production-collector-headless.tracing-system.svc:14250
        ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt"

OpenTelemetry 버전 0.41.1의 CA 파일 구성

spec:
  mode: deployment
  config: |
    exporters:
      jaeger:
        endpoint: jaeger-production-collector-headless.tracing-system.svc:14250
        tls:
          ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt"

1.19.2. 버그 수정

이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.

1.20. Red Hat build of OpenTelemetry 2.0 릴리스 노트

중요

Red Hat build of OpenTelemetry는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry 2.0은 오픈 소스 OpenTelemetry 릴리스 0.33.0을 기반으로 합니다.

이번 릴리스에서는 OpenTelemetry Operator의 Red Hat 빌드를 사용하여 설치하는 기술 프리뷰로 OpenTelemetry가 추가되었습니다. Red Hat build of OpenTelemetry는 OpenTelemetry API 및 계측을 기반으로 합니다. Red Hat build of OpenTelemetry에는 OpenTelemetry Operator 및 수집기가 포함되어 있습니다. 수집기를 사용하여 OpenTelemetry 또는 Jaeger 프로토콜에서 추적을 수신하고 OpenTelemetry의 Red Hat 빌드로 추적 데이터를 보낼 수 있습니다. 현재 수집기의 다른 기능은 지원되지 않습니다. OpenTelemetry Collector를 사용하면 개발자가 벤더와 무관한 API를 사용하여 코드를 조정할 수 있으며 벤더 종속을 방지하고 관찰 가능성 툴링의 에코시스템 확장을 활성화할 수 있습니다.

1.21. 지원 요청

이 문서에 설명된 절차 또는 일반적으로 OpenShift Container Platform에 문제가 발생하는 경우 Red Hat 고객 포털에 액세스하십시오.

고객 포털에서 다음을 수행할 수 있습니다.

  • Red Hat 제품과 관련된 기사 및 솔루션에 대한 Red Hat 지식베이스를 검색하거나 살펴볼 수 있습니다.
  • Red Hat 지원에 대한 지원 케이스 제출할 수 있습니다.
  • 다른 제품 설명서에 액세스 가능합니다.

클러스터 문제를 식별하기 위해 OpenShift Cluster Manager 에서 Insights를 사용할 수 있습니다. Insights는 문제에 대한 세부 정보 및 문제 해결 방법에 대한 정보를 제공합니다.

이 문서를 개선하기 위한 제안이 있거나 오류를 발견한 경우 가장 관련 문서 구성 요소에 대해 Jira 문제를 제출합니다. 섹션 이름 및 OpenShift Container Platform 버전과 같은 구체적인 정보를 제공합니다.

1.22. 보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.

2장. 설치

OpenTelemetry의 Red Hat 빌드를 설치하려면 다음 단계를 수행해야 합니다.

  1. OpenTelemetry Operator의 Red Hat 빌드 설치.
  2. OpenTelemetry 수집기 인스턴스에 대한 네임스페이스 생성.
  3. OpenTelemetryCollector 사용자 지정 리소스를 생성하여 OpenTelemetry 수집기 인스턴스를 배포합니다.

2.1. 웹 콘솔에서 Red Hat build of OpenTelemetry 설치

웹 콘솔의 관리자 보기에서 OpenTelemetry의 Red Hat 빌드를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자로 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할의 계정을 사용하여 로그인해야 합니다.

프로세스

  1. OpenTelemetry Operator의 Red Hat 빌드를 설치합니다.

    1. OperatorsOperatorHub 로 이동하여 OpenTelemetry Operator의 Red Hat 빌드를 검색합니다.
    2. Red Hat에서 제공하는 Red Hat build of OpenTelemetry Operator설치설치Operator 보기를 선택합니다.

      중요

      이렇게 하면 기본 사전 설정을 사용하여 Operator가 설치됩니다.

      • 업데이트 채널stable
      • 설치 모드클러스터의 모든 네임스페이스
      • 설치된 네임스페이스openshift-operators
      • 업데이트 승인자동
    3. 설치된 Operator 페이지의 세부 정보 탭에서 ClusterServiceVersion 세부 정보 에서 설치 상태가 Succeeded인지 확인합니다.
  2. 프로젝트프로젝트 생성으로 이동하여 다음 단계에서 생성할 OpenTelemetry 수집기 인스턴스에 대해 선택한 프로젝트를 생성합니다.
  3. OpenTelemetry 수집기 인스턴스를 생성합니다.

    1. Operator설치된 Operator 로 이동합니다.
    2. OpenTelemetry CollectorOpenTelemetry 수집기YAML 보기를 선택합니다.
    3. YAML 보기에서 OpenTelemetryCollector 사용자 정의 리소스(CR)를 사용자 지정합니다.

      OpenTelemetryCollector CR의 예

      apiVersion: opentelemetry.io/v1alpha1
      kind: OpenTelemetryCollector
      metadata:
        name: otel
        namespace: <project_of_opentelemetry_collector_instance>
      spec:
        mode: deployment
        config: |
          receivers: 1
            otlp:
              protocols:
                grpc:
                http:
            jaeger:
              protocols:
                grpc: {}
                thrift_binary: {}
                thrift_compact: {}
                thrift_http: {}
            zipkin: {}
          processors: 2
            batch: {}
            memory_limiter:
              check_interval: 1s
              limit_percentage: 50
              spike_limit_percentage: 30
          exporters: 3
            debug: {}
          service:
            pipelines:
              traces:
                receivers: [otlp,jaeger,zipkin]
                processors: [memory_limiter,batch]
                exporters: [debug]

      1
      자세한 내용은 "수신자" 페이지를 참조하십시오.
      2
      자세한 내용은 "프로세서" 페이지를 참조하십시오.
      3
      자세한 내용은 "Exporters" 페이지를 참조하십시오.
    4. 생성을 선택합니다.

검증

  1. Project: 드롭다운 목록을 사용하여 OpenTelemetry 수집기 인스턴스의 프로젝트를 선택합니다.
  2. Operator설치된 Operator로 이동하여 OpenTelemetry 수집기 인스턴스의 상태가 Condition: Ready 인지 확인합니다.
  3. 워크로드Pod 로 이동하여 OpenTelemetry 수집기 인스턴스의 모든 구성 요소 Pod가 실행 중인지 확인합니다.

2.2. CLI를 사용하여 OpenTelemetry Red Hat 빌드 설치

명령줄에서 OpenTelemetry의 Red Hat 빌드를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 을 실행합니다.

      $ oc login --username=<your_username>

프로세스

  1. OpenTelemetry Operator의 Red Hat 빌드를 설치합니다.

    1. 다음 명령을 실행하여 Red Hat build of OpenTelemetry Operator 프로젝트를 생성합니다.

      $ oc apply -f - << EOF
      apiVersion: project.openshift.io/v1
      kind: Project
      metadata:
        labels:
          kubernetes.io/metadata.name: openshift-opentelemetry-operator
          openshift.io/cluster-monitoring: "true"
        name: openshift-opentelemetry-operator
      EOF
    2. 다음 명령을 실행하여 Operator group을 생성합니다.

      $ oc apply -f - << EOF
      apiVersion: operators.coreos.com/v1
      kind: OperatorGroup
      metadata:
        name: openshift-opentelemetry-operator
        namespace: openshift-opentelemetry-operator
      spec:
        upgradeStrategy: Default
      EOF
    3. 다음 명령을 실행하여 서브스크립션을 생성합니다.

      $ oc apply -f - << EOF
      apiVersion: operators.coreos.com/v1alpha1
      kind: Subscription
      metadata:
        name: opentelemetry-product
        namespace: openshift-opentelemetry-operator
      spec:
        channel: stable
        installPlanApproval: Automatic
        name: opentelemetry-product
        source: redhat-operators
        sourceNamespace: openshift-marketplace
      EOF
    4. 다음 명령을 실행하여 Operator 상태를 확인합니다.

      $ oc get csv -n openshift-opentelemetry-operator
  2. 후속 단계에서 생성할 OpenTelemetry 수집기 인스턴스에 대해 선택한 프로젝트를 생성합니다.

    • 메타데이터 없이 프로젝트를 생성하려면 다음 명령을 실행합니다.

      $ oc new-project <project_of_opentelemetry_collector_instance>
    • 메타데이터로 프로젝트를 생성하려면 다음 명령을 실행합니다.

      $ oc apply -f - << EOF
      apiVersion: project.openshift.io/v1
      kind: Project
      metadata:
        name: <project_of_opentelemetry_collector_instance>
      EOF
  3. 사용자가 생성한 프로젝트에서 OpenTelemetry 수집기 인스턴스를 생성합니다.

    참고

    동일한 클러스터의 별도의 프로젝트에서 여러 OpenTelemetry 수집기 인스턴스를 생성할 수 있습니다.

    1. OpenTelemetryCollector 사용자 정의 리소스(CR)를 사용자 지정합니다.

      OpenTelemetryCollector CR의 예

      apiVersion: opentelemetry.io/v1alpha1
      kind: OpenTelemetryCollector
      metadata:
        name: otel
        namespace: <project_of_opentelemetry_collector_instance>
      spec:
        mode: deployment
        config: |
          receivers: 1
            otlp:
              protocols:
                grpc:
                http:
            jaeger:
              protocols:
                grpc: {}
                thrift_binary: {}
                thrift_compact: {}
                thrift_http: {}
            zipkin: {}
          processors: 2
            batch: {}
            memory_limiter:
              check_interval: 1s
              limit_percentage: 50
              spike_limit_percentage: 30
          exporters: 3
            debug: {}
          service:
            pipelines:
              traces:
                receivers: [otlp,jaeger,zipkin]
                processors: [memory_limiter,batch]
                exporters: [debug]

      1
      자세한 내용은 "수신자" 페이지를 참조하십시오.
      2
      자세한 내용은 "프로세서" 페이지를 참조하십시오.
      3
      자세한 내용은 "Exporters" 페이지를 참조하십시오.
    2. 다음 명령을 실행하여 사용자 지정된 CR을 적용합니다.

      $ oc apply -f - << EOF
      <OpenTelemetryCollector_custom_resource>
      EOF

검증

  1. 다음 명령을 실행하여 OpenTelemetry 수집기 Pod의 status.phaseRunning 이고 conditionstype: Ready 인지 확인합니다.

    $ oc get pod -l app.kubernetes.io/managed-by=opentelemetry-operator,app.kubernetes.io/instance=<namespace>.<instance_name> -o yaml
  2. 다음 명령을 실행하여 OpenTelemetry 수집기 서비스를 가져옵니다.

    $ oc get service -l app.kubernetes.io/managed-by=opentelemetry-operator,app.kubernetes.io/instance=<namespace>.<instance_name>

2.3. 테인트 및 톨러레이션 사용

전용 노드에서 OpenTelemetry Pod를 예약하려면 OpenShift 4에서 nodeSelector 및 허용 오차를 사용하여 인프라 노드에 다른 OpenTelemetry 구성 요소를 배포하는 방법을참조하십시오.

2.4. 필요한 RBAC 리소스 자동 생성

일부 수집기 구성 요소에는 RBAC 리소스를 구성해야 합니다.

프로세스

  • OpenTelemetry Operator의 Red Hat 빌드가 자동으로 생성할 수 있도록 opentelemetry-operator-controller-manage 서비스 계정에 다음 권한을 추가합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: generate-processors-rbac
    rules:
    - apiGroups:
      - rbac.authorization.k8s.io
      resources:
      - clusterrolebindings
      - clusterroles
      verbs:
      - create
      - delete
      - get
      - list
      - patch
      - update
      - watch
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: generate-processors-rbac
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: generate-processors-rbac
    subjects:
    - kind: ServiceAccount
      name: opentelemetry-operator-controller-manager
      namespace: openshift-opentelemetry-operator

2.5. 추가 리소스

3장. 수집기 구성

3.1. 수신자

수신자는 수집기에 데이터를 가져옵니다. 수신자는 푸시 또는 풀 기반일 수 있습니다. 일반적으로 수신자는 지정된 형식으로 데이터를 수락하고 내부 형식으로 변환한 다음 해당 파이프라인에 정의된 프로세서 및 내보내기에 전달합니다. 기본적으로 수신자는 설정되어 있지 않습니다. 하나 이상의 수신자를 구성해야 합니다. 수신자는 하나 이상의 데이터 소스를 지원할 수 있습니다.

3.1.1. OTLP 수신기

OTLP 수신기는 OTLP(OpenTelemetry Protocol)를 사용하여 추적, 메트릭 및 로그를 수집합니다. OTLP 수신기는 OTLP(OpenTelemetry 프로토콜)를 사용하여 추적 및 메트릭을 수집합니다.

활성화된 OTLP Receiver가 활성화된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    receivers:
      otlp:
        protocols:
          grpc:
            endpoint: 0.0.0.0:4317 1
            tls: 2
              ca_file: ca.pem
              cert_file: cert.pem
              key_file: key.pem
              client_ca_file: client.pem 3
              reload_interval: 1h 4
          http:
            endpoint: 0.0.0.0:4318 5
            tls: 6

    service:
      pipelines:
        traces:
          receivers: [otlp]
        metrics:
          receivers: [otlp]
# ...

1
OTLP gRPC 끝점입니다. 생략하면 기본값 0.0.0.0:4317 이 사용됩니다.
2
서버 측 TLS 구성입니다. TLS 인증서의 경로를 정의합니다. 생략하면 TLS가 비활성화됩니다.
3
서버가 클라이언트 인증서를 확인하는 TLS 인증서의 경로입니다. 이렇게 하면 TLSConfig 에서 ClientCAClientAuth 의 값이 RequireAndVerifyClientCert 로 설정됩니다. 자세한 내용은 Golang TLS 패키지Config를 참조하십시오.
4
인증서를 다시 로드하는 시간 간격을 지정합니다. 값을 설정하지 않으면 인증서가 다시 로드되지 않습니다. reload_interval 필드는 ns, us (또는 µs), ms, s, m, h와 같은 유효한 시간 단위를 포함하는 문자열을 허용합니다.
5
OTLP HTTP 끝점입니다. 기본값은 0.0.0.0:4318 입니다.
6
서버 측 TLS 구성입니다. 자세한 내용은 grpc 프로토콜 구성 섹션을 참조하십시오.

3.1.2. Jaeger 수신자

Jaeger 수신자는 Jaeger 형식의 추적을 수집합니다.

활성화된 Jaeger 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    receivers:
      jaeger:
        protocols:
          grpc:
            endpoint: 0.0.0.0:14250 1
          thrift_http:
            endpoint: 0.0.0.0:14268 2
          thrift_compact:
            endpoint: 0.0.0.0:6831 3
          thrift_binary:
            endpoint: 0.0.0.0:6832 4
          tls: 5

    service:
      pipelines:
        traces:
          receivers: [jaeger]
# ...

1
Jaeger gRPC 끝점입니다. 생략하면 기본값 0.0.0.0:14250 이 사용됩니다.
2
Jaeger Thrift HTTP 끝점입니다. 생략하면 기본값 0.0.0.0:14268 이 사용됩니다.
3
Jaeger Thrift Cryostat 끝점입니다. 생략하면 기본값 0.0.0.0:6831 이 사용됩니다.
4
Jaeger Thrift Binary 끝점입니다. 생략하면 기본값 0.0.0.0:6832 가 사용됩니다.
5
서버 측 TLS 구성입니다. 자세한 내용은 OTLP Receiver 구성 섹션을 참조하십시오.

3.1.3. 호스트 지표 수신자

Host Metrics Receiver는 OTLP 형식으로 지표를 수집합니다.

중요

Host Metrics Receiver는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 호스트 지표 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

apiVersion: v1
kind: ServiceAccount
metadata:
  name: otel-hostfs-daemonset
  namespace: <namespace>
# ...
---
apiVersion: security.openshift.io/v1
kind: SecurityContextConstraints
allowHostDirVolumePlugin: true
allowHostIPC: false
allowHostNetwork: false
allowHostPID: true
allowHostPorts: false
allowPrivilegeEscalation: true
allowPrivilegedContainer: true
allowedCapabilities: null
defaultAddCapabilities:
- SYS_ADMIN
fsGroup:
  type: RunAsAny
groups: []
metadata:
  name: otel-hostmetrics
readOnlyRootFilesystem: true
runAsUser:
  type: RunAsAny
seLinuxContext:
  type: RunAsAny
supplementalGroups:
  type: RunAsAny
users:
- system:serviceaccount:<namespace>:otel-hostfs-daemonset
volumes:
- configMap
- emptyDir
- hostPath
- projected
# ...
---
apiVersion: opentelemetry.io/v1alpha1
kind: OpenTelemetryCollector
metadata:
  name: otel
  namespace: <namespace>
spec:
  serviceAccount: otel-hostfs-daemonset
  mode: daemonset
  volumeMounts:
    - mountPath: /hostfs
      name: host
      readOnly: true
  volumes:
    - hostPath:
        path: /
      name: host
  config: |
    receivers:
      hostmetrics:
        collection_interval: 10s 1
        initial_delay: 1s 2
        root_path: / 3
        scrapers: 4
          cpu:
          memory:
          disk:
    service:
      pipelines:
        metrics:
          receivers: [hostmetrics]
# ...

1
호스트 지표 컬렉션의 시간 간격을 설정합니다. 생략하면 기본값은 1m 입니다.
2
호스트 지표 컬렉션의 초기 시간 지연을 설정합니다. 생략하면 기본값은 1s 입니다.
3
Host Metrics Receiver가 루트 파일 시스템이 있는 위치를 알 수 있도록 root_path 를 구성합니다. Host Metrics Receiver의 여러 인스턴스를 실행하는 경우 각 인스턴스에 대해 동일한 root_path 값을 설정합니다.
4
활성화된 호스트 지표 스크랩을 나열합니다. 사용 가능한 스크랩은 cpu, disk, load, filesystem, memory, network, paging, processes, process니다.

3.1.4. Kubernetes 오브젝트 수신자

Kubernetes 오브젝트 수신자는 Kubernetes API 서버에서 수집할 오브젝트를 가져오거나 감시합니다. 이 수신자는 주로 Kubernetes 이벤트를 감시하지만 모든 유형의 Kubernetes 오브젝트를 수집할 수 있습니다. 이 수신자는 전체 클러스터에 대한 Telemetry를 수집하므로 이 수신자의 인스턴스 하나만 있으면 모든 데이터를 수집할 수 있습니다.

중요

Kubernetes 오브젝트 수신자는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Kubernetes 오브젝트 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

apiVersion: v1
kind: ServiceAccount
metadata:
  name: otel-k8sobj
  namespace: <namespace>
# ...
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: otel-k8sobj
  namespace: <namespace>
rules:
- apiGroups:
  - ""
  resources:
  - events
  - pods
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - "events.k8s.io"
  resources:
  - events
  verbs:
  - watch
  - list
# ...
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: otel-k8sobj
subjects:
  - kind: ServiceAccount
    name: otel-k8sobj
    namespace: <namespace>
roleRef:
  kind: ClusterRole
  name: otel-k8sobj
  apiGroup: rbac.authorization.k8s.io
# ...
---
apiVersion: opentelemetry.io/v1alpha1
kind: OpenTelemetryCollector
metadata:
  name: otel-k8s-obj
  namespace: <namespace>
spec:
  serviceAccount: otel-k8sobj
  image: ghcr.io/os-observability/redhat-opentelemetry-collector/redhat-opentelemetry-collector:main
  mode: deployment
  config: |
    receivers:
      k8sobjects:
        auth_type: serviceAccount
        objects:
          - name: pods 1
            mode: pull 2
            interval: 30s 3
            label_selector: 4
            field_selector: 5
            namespaces: [<namespace>,...] 6
          - name: events
            mode: watch
    exporters:
      debug:
    service:
      pipelines:
        logs:
          receivers: [k8sobjects]
          exporters: [debug]
# ...

1
이 수신자가 관찰하는 리소스 이름(예: Pod,배포 또는 이벤트 ).
2
이 수신기에서 사용하는 관찰 모드: pull 또는 watch.
3
풀 모드에만 적용됩니다. 오브젝트 가져오기 요청 간격입니다. 생략하면 기본값은 1h 입니다.
4
대상을 정의할 라벨 선택기입니다.
5
대상을 필터링할 필드 선택기입니다.
6
이벤트를 수집할 네임스페이스 목록입니다. 생략하면 기본값은 all 입니다.

3.1.5. kubelet Stats Receiver

Kubelet Stats Receiver는 kubelet의 API 서버에서 노드, Pod, 컨테이너 및 볼륨과 관련된 메트릭을 추출합니다. 그런 다음 추가 분석을 위해 메트릭 처리 파이프라인을 통해 이러한 메트릭을 채널링합니다.

중요

Kubelet Stats Receiver는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Kubelet 통계 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
config: |
  receivers:
    kubeletstats:
      collection_interval: 20s
      auth_type: "serviceAccount"
      endpoint: "https://${env:K8S_NODE_NAME}:10250"
      insecure_skip_verify: true
  service:
    pipelines:
      metrics:
        receivers: [kubeletstats]
env:
  - name: K8S_NODE_NAME 1
    valueFrom:
      fieldRef:
        fieldPath: spec.nodeName
# ...

1
API에 인증할 K8S_NODE_NAME 을 설정합니다.

Kubelet Stats Receiver에는 OpenTelemetry 수집기를 실행하는 데 사용되는 서비스 계정에 대한 추가 권한이 필요합니다.

서비스 계정에 필요한 권한

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: otel-collector
rules:
  - apiGroups: ['']
    resources: ['nodes/stats']
    verbs: ['get', 'watch', 'list']
  - apiGroups: [""]
    resources: ["nodes/proxy"] 1
    verbs: ["get"]
# ...

1
extra_metadata_labels 또는 request_utilization 또는 limit_utilization 메트릭을 사용할 때 필요한 권한입니다.

3.1.6. Prometheus 수신자

Prometheus 수신자는 지표 끝점을 스크랩합니다.

중요

Prometheus 수신자는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Prometheus 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    receivers:
        prometheus:
          config:
            scrape_configs: 1
              - job_name: 'my-app'  2
                scrape_interval: 5s 3
                static_configs:
                  - targets: ['my-app.example.svc.cluster.local:8888'] 4
    service:
      pipelines:
        metrics:
          receivers: [prometheus]
# ...

1
Prometheus 형식을 사용하여 구성을 스크랩합니다.
2
Prometheus 작업 이름입니다.
3
메트릭 데이터를 스크랩하는 lnterval입니다. 시간 단위를 허용합니다. 기본값은 1m입니다.
4
메트릭이 노출되는 대상입니다. 이 예제에서는 예제 프로젝트의 my-app 애플리케이션에서 메트릭을 스크랩합니다.

3.1.7. Zipkin 수신기

Zipkin Receiver는 Zipkin v1 및 v2 형식의 추적을 수집합니다.

활성화된 Zipkin Receiver를 사용하는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    receivers:
      zipkin:
        endpoint: 0.0.0.0:9411 1
        tls: 2
    service:
      pipelines:
        traces:
          receivers: [zipkin]
# ...

1
Zipkin HTTP 끝점입니다. 생략하면 기본값 0.0.0.0:9411 이 사용됩니다.
2
서버 측 TLS 구성입니다. 자세한 내용은 OTLP Receiver 구성 섹션을 참조하십시오.

3.1.8. Kafka 수신자

Kafka 수신자는 OTLP 형식으로 Kafka에서 추적, 메트릭 및 로그를 수신합니다.

중요

Kafka 수신자는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Kafka 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    receivers:
      kafka:
        brokers: ["localhost:9092"] 1
        protocol_version: 2.0.0 2
        topic: otlp_spans 3
        auth:
          plain_text: 4
            username: example
            password: example
          tls: 5
            ca_file: ca.pem
            cert_file: cert.pem
            key_file: key.pem
            insecure: false 6
            server_name_override: kafka.example.corp 7
    service:
      pipelines:
        traces:
          receivers: [kafka]
# ...

1
Kafka 브로커 목록입니다. 기본값은 localhost:9092 입니다.
2
Kafka 프로토콜 버전입니다. 예를 들면 2.0.0 입니다. 이 필드는 필수 항목입니다.
3
읽을 Kafka 주제의 이름입니다. 기본값은 otlp_spans 입니다.
4
일반 텍스트 인증 구성입니다. 생략하면 일반 텍스트 인증이 비활성화됩니다.
5
클라이언트 측 TLS 구성입니다. TLS 인증서의 경로를 정의합니다. 생략하면 TLS 인증이 비활성화됩니다.
6
서버의 인증서 체인과 호스트 이름을 확인하지 않습니다. 기본값은 false입니다.
7
ServerName은 가상 호스팅을 지원하기 위해 클라이언트에서 요청한 서버의 이름을 나타냅니다.

3.1.9. Kubernetes 클러스터 수신자

Kubernetes Cluster Receiver는 Kubernetes API 서버에서 클러스터 메트릭 및 엔터티 이벤트를 수집합니다. Kubernetes API를 사용하여 업데이트에 대한 정보를 받습니다. 이 수신자의 인증은 서비스 계정을 통해서만 지원됩니다.

중요

Kubernetes Cluster Receiver는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Kubernetes 클러스터 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  receivers:
    k8s_cluster:
      distribution: openshift
      collection_interval: 10s
  exporters:
    debug:
  service:
    pipelines:
      metrics:
        receivers: [k8s_cluster]
        exporters: [debug]
      logs/entity_events:
        receivers: [k8s_cluster]
        exporters: [debug]
# ...

이 수신자에는 구성된 서비스 계정, 클러스터 역할에 대한 RBAC 규칙, RBAC를 서비스 계정에 바인딩하는 클러스터 역할 바인딩이 필요합니다.

ServiceAccount 오브젝트

apiVersion: v1
kind: ServiceAccount
metadata:
  labels:
    app: otelcontribcol
  name: otelcontribcol
# ...

ClusterRole 오브젝트에 대한 RBAC 규칙

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: otelcontribcol
  labels:
    app: otelcontribcol
rules:
- apiGroups:
  - quota.openshift.io
  resources:
  - clusterresourcequotas
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - ""
  resources:
  - events
  - namespaces
  - namespaces/status
  - nodes
  - nodes/spec
  - pods
  - pods/status
  - replicationcontrollers
  - replicationcontrollers/status
  - resourcequotas
  - services
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - apps
  resources:
  - daemonsets
  - deployments
  - replicasets
  - statefulsets
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - extensions
  resources:
  - daemonsets
  - deployments
  - replicasets
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - batch
  resources:
  - jobs
  - cronjobs
  verbs:
  - get
  - list
  - watch
- apiGroups:
    - autoscaling
  resources:
    - horizontalpodautoscalers
  verbs:
    - get
    - list
    - watch
# ...

ClusterRoleBinding 오브젝트

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: otelcontribcol
  labels:
    app: otelcontribcol
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: otelcontribcol
subjects:
- kind: ServiceAccount
  name: otelcontribcol
  namespace: default
# ...

3.1.10. OpenCensus Receiver

OpenCensus Receiver는 조정된 코드베이스를 보다 쉽게 마이그레이션할 수 있도록 OpenCensus 프로젝트와 역호환성을 제공합니다. gRPC 또는 HTTP 및 Json을 통해 OpenCensus 형식의 메트릭 및 추적을 수신합니다.

활성화된 OpenCensus Receiver가 활성화된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    receivers:
      opencensus:
        endpoint: 0.0.0.0:9411 1
        tls: 2
        cors_allowed_origins: 3
          - https://*.<example>.com
    service:
      pipelines:
        traces:
          receivers: [opencensus]
# ...

1
OpenCensus 엔드포인트입니다. 생략하면 기본값은 0.0.0.0:55678 입니다.
2
서버 측 TLS 구성입니다. 자세한 내용은 OTLP Receiver 구성 섹션을 참조하십시오.
3
HTTP JSON 끝점을 사용하여 선택적으로 이 필드에서 허용되는 CORS 목록을 지정하여 활성화되는 CORS를 구성할 수도 있습니다. * 가 있는 와일드카드는 cors_allowed_origins 에서 허용됩니다. 모든 원본과 일치하려면 * 만 입력합니다.

3.1.11. Filelog Receiver

Filelog Receiver tails 및 구문 분석 파일에서 로그를 구문 분석합니다.

중요

파일 로그 수신자는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

OpenTelemetry Collector 사용자 정의 리소스가 텍스트 파일을 유지하는 활성화된 Filelog Receiver

# ...
receivers:
  filelog:
    include: [ /simple.log ] 1
    operators: 2
      - type: regex_parser
        regex: '^(?P<time>\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}) (?P<sev>[A-Z]*) (?P<msg>.*)$'
        timestamp:
          parse_from: attributes.time
          layout: '%Y-%m-%d %H:%M:%S'
        severity:
          parse_from: attributes.sev
# ...

1
읽을 파일 경로와 일치하는 파일 와일드카드 패턴 목록입니다.
2
Operator 배열입니다. 각 Operator는 타임스탬프 또는 JSON 구문 분석과 같은 간단한 작업을 수행합니다. 로그를 원하는 형식으로 처리하려면 Operator를 함께 연결합니다.

3.1.12. journald Receiver

Journald Receiver는 systemd 저널의 journald 이벤트를 구문 분석하고 로그로 보냅니다.

중요

Journald Receiver는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

OpenTelemetry Collector 사용자 정의 리소스가 활성화된 Journald Receiver

apiVersion: v1
kind: Namespace
metadata:
  name: otel-journald
  labels:
    security.openshift.io/scc.podSecurityLabelSync: "false"
    pod-security.kubernetes.io/enforce: "privileged"
    pod-security.kubernetes.io/audit: "privileged"
    pod-security.kubernetes.io/warn: "privileged"
# ...
---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: privileged-sa
  namespace: otel-journald
# ...
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: otel-journald-binding
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: system:openshift:scc:privileged
subjects:
- kind: ServiceAccount
  name: privileged-sa
  namespace: otel-journald
# ...
---
apiVersion: opentelemetry.io/v1alpha1
kind: OpenTelemetryCollector
metadata:
  name: otel-journald-logs
  namespace: otel-journald
spec:
  mode: daemonset
  serviceAccount: privileged-sa
  securityContext:
    allowPrivilegeEscalation: false
    capabilities:
      drop:
      - CHOWN
      - DAC_OVERRIDE
      - FOWNER
      - FSETID
      - KILL
      - NET_BIND_SERVICE
      - SETGID
      - SETPCAP
      - SETUID
    readOnlyRootFilesystem: true
    seLinuxOptions:
      type: spc_t
    seccompProfile:
      type: RuntimeDefault
  config: |
    receivers:
      journald:
        files: /var/log/journal/*/*
        priority: info 1
        units: 2
          - kubelet
          - crio
          - init.scope
          - dnsmasq
        all: true 3
        retry_on_failure:
          enabled: true 4
          initial_interval: 1s 5
          max_interval: 30s 6
          max_elapsed_time: 5m 7
    processors:
    exporters:
      debug:
        verbosity: detailed
    service:
      pipelines:
        logs:
          receivers: [journald]
          exporters: [debug]
  volumeMounts:
  - name: journal-logs
    mountPath: /var/log/journal/
    readOnly: true
  volumes:
  - name: journal-logs
    hostPath:
      path: /var/log/journal
  tolerations:
  - key: node-role.kubernetes.io/master
    operator: Exists
    effect: NoSchedule
# ...

1
메시지 우선순위 또는 우선 순위 범위에 따라 출력을 필터링합니다. 기본값은 info 입니다.
2
항목을 읽을 단위를 나열합니다. 비어있는 경우 모든 유닛에서 항목을 읽습니다.
3
인쇄할 수 없는 문자가 있는 매우 긴 로그와 로그를 포함합니다. 기본값은 false입니다.
4
true 로 설정하면 수신자가 파일 읽기를 일시 중지하고 다운스트림 구성 요소에서 오류가 발생하면 현재 로그 일괄 처리를 다시 보냅니다. 기본값은 false입니다.
5
재시도하기 전에 첫 번째 실패 후 대기하는 시간 간격입니다. 기본값은 1s 입니다. 단위는 ms,s,m,h 입니다.
6
재시도 백오프 간격의 상한입니다. 이 값에 도달하면 연속 재시도 시도 사이의 시간 간격은 이 값에서 일정하게 유지됩니다. 기본값은 30s입니다. 지원되는 단위는 ms,s,m,h 입니다.
7
다운스트림 소비자에 로그 일괄 처리를 전송하기 위한 재시도 시도를 포함한 최대 시간 간격입니다. 이 값에 도달하면 데이터가 삭제됩니다. set 값이 0 이면 재시도가 중지되지 않습니다. 기본값은 5m 입니다. 지원되는 단위는 ms,s,m,h 입니다.

3.1.13. Kubernetes 이벤트 수신자

Kubernetes 이벤트 수신자는 Kubernetes API 서버에서 이벤트를 수집합니다. 수집된 이벤트는 로그로 변환됩니다.

중요

Kubernetes 이벤트 수신자는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Kubernetes Events Receiver에 필요한 OpenShift Container Platform 권한

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: otel-collector
  labels:
    app: otel-collector
rules:
- apiGroups:
  - ""
  resources:
  - events
  - namespaces
  - namespaces/status
  - nodes
  - nodes/spec
  - pods
  - pods/status
  - replicationcontrollers
  - replicationcontrollers/status
  - resourcequotas
  - services
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - apps
  resources:
  - daemonsets
  - deployments
  - replicasets
  - statefulsets
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - extensions
  resources:
  - daemonsets
  - deployments
  - replicasets
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - batch
  resources:
  - jobs
  - cronjobs
  verbs:
  - get
  - list
  - watch
- apiGroups:
    - autoscaling
  resources:
    - horizontalpodautoscalers
  verbs:
    - get
    - list
    - watch
# ...

활성화된 Kubernetes 이벤트 수신자가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  serviceAccount: otel-collector 1
  config: |
    receivers:
      k8s_events:
        namespaces: [project1, project2] 2
    service:
      pipelines:
        logs:
          receivers: [k8s_events]
# ...

1
필요한 ClusterRole otel-collector RBAC가 있는 수집기의 서비스 계정입니다.
2
이벤트를 수집할 네임스페이스 목록입니다. 기본값은 비어 있습니다. 즉, 모든 네임스페이스가 수집됩니다.

3.1.14. 추가 리소스

3.2. 프로세서

프로세서는 수신 및 내보내기 사이에 데이터를 처리합니다. 프로세서는 선택 사항입니다. 기본적으로 프로세서는 사용할 수 없습니다. 모든 데이터 소스에 대해 프로세서가 활성화되어 있어야 합니다. 모든 프로세서가 모든 데이터 소스를 지원하는 것은 아닙니다. 데이터 소스에 따라 여러 프로세서가 활성화될 수 있습니다. 프로세서의 순서가 중요합니다.

3.2.1. 배치 프로세서

Batch Processor는 Telemetry 정보를 전송하는 데 필요한 발신 연결 수를 줄이기 위해 추적 및 지표를 일괄 처리합니다.

Batch Processor를 사용할 때 OpenTelemetry Collector 사용자 정의 리소스의 예

# ...
  config: |
    processor:
      batch:
        timeout: 5s
        send_batch_max_size: 10000
    service:
      pipelines:
        traces:
          processors: [batch]
        metrics:
          processors: [batch]
# ...

표 3.1. Batch Processor에서 사용하는 매개변수
매개변수설명기본

timeout

배치 크기에 관계없이 특정 기간 후에 배치를 보냅니다.

200ms

send_batch_size

지정된 수의 범위 또는 메트릭 후에 원격 분석 데이터의 배치를 보냅니다.

8192

send_batch_max_size

배치의 최대 허용 크기입니다. send_batch_size 보다 크거나 같아야 합니다.

0

metadata_keys

활성화하면 client.Metadata에 있는 각 고유한 값 집합에 대해 배처 인스턴스가 생성됩니다.

[]

metadata_cardinality_limit

metadata_keys가 채워지면 이 구성은 프로세스 기간 동안 처리된 고유한 메타데이터 키-값 조합의 수를 제한합니다.

1000

3.2.2. 메모리 제한 프로세서

메모리 제한 프로세서는 주기적으로 수집기의 메모리 사용량을 확인하고 소프트 메모리 제한에 도달하면 데이터 처리를 일시 중지합니다. 이 프로세서는 추적, 메트릭 및 로그를 지원합니다. 일반적으로 수신자인 이전 구성 요소는 동일한 데이터 전송을 다시 시도해야 하며 들어오는 데이터에 백압을 적용할 수 있습니다. 메모리 사용량이 하드 제한을 초과하면 메모리 제한 프로세서는 가비지 수집이 강제 실행됩니다.

메모리 제한 프로세서를 사용할 때 OpenTelemetry Collector 사용자 정의 리소스의 예

# ...
  config: |
    processor:
      memory_limiter:
        check_interval: 1s
        limit_mib: 4000
        spike_limit_mib: 800
    service:
      pipelines:
        traces:
          processors: [batch]
        metrics:
          processors: [batch]
# ...

표 3.2. 메모리 제한 프로세서에서 사용하는 매개변수
매개변수설명기본

check_interval

메모리 사용량 측정 사이의 시간입니다. 최적의 값은 1s 입니다. spiky 트래픽 패턴의 경우 check_interval 을 줄이거나 spike_limit_mib 를 늘릴 수 있습니다.

0s

limit_mib

힙에 할당된 MiB 단위의 최대 메모리 양인 하드 제한입니다. 일반적으로 OpenTelemetry 수집기의 총 메모리 사용량은 이 값보다 약 50MiB입니다.

0

spike_limit_mib

메모리 사용량의 최대 급증(MiB)입니다. 최적의 값은 limit_mib 의 약 20%입니다. 소프트 제한을 계산하려면 limit_mib 에서 spike_limit_mib 를 뺀 값입니다.

limit_mib의 20%

limit_percentage

limit_mib 와 동일하지만 사용 가능한 총 메모리의 백분율로 표시됩니다. limit_mib 설정이 이 설정보다 우선합니다.

0

spike_limit_percentage

spike_limit_mib 와 동일하지만 사용 가능한 총 메모리의 백분율로 표시됩니다. limit_percentage 설정과 함께 사용하도록 설계되었습니다.

0

3.2.3. 리소스 탐지 프로세서

리소스 탐지 프로세서는 OpenTelemetry의 리소스 의미 체계 표준과 일치하는 호스트 리소스 세부 정보를 식별합니다. 감지된 정보를 사용하여 이 프로세서는 원격 분석 데이터에서 리소스 값을 추가하거나 교체할 수 있습니다. 이 프로세서는 추적 및 메트릭을 지원합니다. Docket 메타데이터 탐지기 또는 OTEL_RESOURCE_ATTRIBUTES 환경 변수 탐지기와 같은 여러 탐지기와 함께 이 프로세서를 사용할 수 있습니다.

중요

리소스 탐지 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

리소스 탐지 프로세서에 필요한 OpenShift Container Platform 권한

kind: ClusterRole
metadata:
  name: otel-collector
rules:
- apiGroups: ["config.openshift.io"]
  resources: ["infrastructures", "infrastructures/status"]
  verbs: ["get", "watch", "list"]
# ...

리소스 탐지 프로세서를 사용한 OpenTelemetry 수집기

# ...
  config: |
    processor:
      resourcedetection:
        detectors: [openshift]
        override: true
    service:
      pipelines:
        traces:
          processors: [resourcedetection]
        metrics:
          processors: [resourcedetection]
# ...

환경 변수 탐지기와 함께 리소스 탐지 프로세서를 사용한 OpenTelemetry 수집기

# ...
  config: |
    processors:
      resourcedetection/env:
        detectors: [env] 1
        timeout: 2s
        override: false
# ...

1
사용할 탐지기를 지정합니다. 이 예에서는 환경 탐지기가 지정됩니다.

3.2.4. 특성 프로세서

특성 프로세서는 범위, 로그 또는 메트릭의 속성을 수정할 수 있습니다. 입력 데이터를 필터링하고 일치하도록 이 프로세서를 구성하고 특정 작업에 대해 이러한 데이터를 포함하거나 제외할 수 있습니다.

중요

Attributes Processor는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

이 프로세서는 작업 목록에서 작동하며 구성에 지정된 순서대로 실행됩니다. 지원되는 작업은 다음과 같습니다.

삽입
지정된 키가 없는 경우 입력 데이터에 새 특성을 삽입합니다.
업데이트
키가 이미 존재하는 경우 입력 데이터의 속성을 업데이트합니다.
Upsert
삽입 및 업데이트 작업 결합: 키가 아직 없는 경우 새 특성을 삽입합니다. 키가 이미 있는 경우 속성을 업데이트합니다.
delete
입력 데이터에서 특성을 제거합니다.
hash
기존 속성 값을 SHA1로 해시합니다.
extract
입력 키에서 규칙에 정의된 대상 키로 정규식 규칙을 사용하여 값을 추출합니다. 대상 키가 이미 존재하는 경우 기존 특성을 소스로 사용하여 Span Processor's to_attributes 설정과 유사하게 재정의됩니다.
convert
기존 특성을 지정된 형식으로 변환합니다.Converts an existing attribute to a specified type.

특성 프로세서를 사용한 OpenTelemetry 수집기

# ...
  config: |
    processors:
      attributes/example:
        actions:
          - key: db.table
            action: delete
          - key: redacted_span
            value: true
            action: upsert
          - key: copy_key
            from_attribute: key_original
            action: update
          - key: account_id
            value: 2245
            action: insert
          - key: account_password
            action: delete
          - key: account_email
            action: hash
          - key: http.status_code
            action: convert
            converted_type: int
# ...

3.2.5. 리소스 프로세서

리소스 프로세서는 리소스 속성에 변경 사항을 적용합니다. 이 프로세서는 추적, 메트릭 및 로그를 지원합니다.

중요

리소스 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

리소스 탐지 프로세서를 사용한 OpenTelemetry 수집기

# ...
  config: |
    processor:
      attributes:
      - key: cloud.availability_zone
        value: "zone-1"
        action: upsert
      - key: k8s.cluster.name
        from_attribute: k8s-cluster
        action: insert
      - key: redundant-attribute
        action: delete
# ...

속성은 특성 삭제, 특성 삽입 또는 특성 upsert와 같은 리소스 특성에 적용되는 작업을 나타냅니다.

3.2.6. 기간 프로세서

Span Processor는 특성을 기반으로 범위 이름을 수정하거나 범위 이름에서 범위 특성을 추출합니다. 이 프로세서는 범위 상태를 변경하고 범위를 포함하거나 제외할 수도 있습니다. 이 프로세서는 추적을 지원합니다.

범위 이름을 변경하려면 from_attributes 구성을 사용하여 새 이름에 속성을 지정해야 합니다.

중요

Span Processor는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

범위 이름을 변경하기 위한 Span Processor를 사용한 OpenTelemetry 수집기

# ...
  config: |
    processor:
      span:
        name:
          from_attributes: [<key1>, <key2>, ...] 1
          separator: <value> 2
# ...

1
새 범위 이름을 구성할 키를 정의합니다.
2
선택적 구분 기호입니다.

이 프로세서를 사용하여 범위 이름에서 특성을 추출할 수 있습니다.

범위 이름에서 특성을 추출하기 위한 Span Processor를 사용하는 OpenTelemetry 수집기

# ...
  config: |
    processor:
      span/to_attributes:
        name:
          to_attributes:
            rules:
              - ^\/api\/v1\/document\/(?P<documentId>.*)\/update$ 1
# ...

1
이 규칙은 추출을 실행하는 방법을 정의합니다. 예를 들어 정규식이 이름과 일치하는 경우 documentID attibute 규칙을 정의할 수 있습니다. 이 예에서 입력 범위 이름이 /api/v1/document/12345678/update 이면 /api/v1/document/{documentId}/update 출력 범위 이름이 표시되고 새로운 "documentId"="12345678" 특성이 범위에 추가됩니다.

범위 상태를 수정할 수 있습니다.

상태 변경을 위한 Span Processor를 사용한 OpenTelemetry Collector

# ...
  config: |
    processor:
      span/set_status:
        status:
          code: Error
          description: "<error_description>"
# ...

3.2.7. Kubernetes 속성 프로세서

Kubernetes 특성 프로세서를 사용하면 Kubernetes 메타데이터를 사용하여 범위, 메트릭 및 로그 리소스 특성을 자동으로 구성할 수 있습니다. 이 프로세서는 추적, 메트릭 및 로그를 지원합니다. 이 프로세서는 Kubernetes 리소스를 자동으로 식별하고, 해당 리소스에서 메타데이터를 추출하고, 이 추출된 메타데이터를 관련 범위, 지표 및 로그에 리소스 속성으로 통합합니다. Kubernetes API를 사용하여 클러스터 내에서 작동하는 모든 Pod를 검색하고 IP 주소, Pod UID 및 기타 관련 메타데이터의 레코드를 유지 관리합니다.

중요

Kubernetes 특성 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Kubernetes 속성 프로세서에 필요한 최소 OpenShift Container Platform 권한

kind: ClusterRole
metadata:
  name: otel-collector
rules:
  - apiGroups: ['']
    resources: ['pods', 'namespaces']
    verbs: ['get', 'watch', 'list']
# ...

Kubernetes 속성 프로세서를 사용한 OpenTelemetry 수집기

# ...
  config: |
    processors:
         k8sattributes:
             filter:
                 node_from_env_var: KUBE_NODE_NAME
# ...

3.2.8. 필터 프로세서

필터 프로세서는 OpenTelemetry Cryostat Language를 활용하여 Telemetry 데이터 삭제 기준을 설정합니다. 이러한 조건이 충족되면 Telemetry 데이터가 삭제됩니다. 논리 OR 연산자를 사용하여 조건을 결합할 수 있습니다. 이 프로세서는 추적, 메트릭 및 로그를 지원합니다.

중요

필터 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 OTLP Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
config: |
  processors:
    filter/ottl:
      error_mode: ignore 1
      traces:
        span:
          - 'attributes["container.name"] == "app_container_1"' 2
          - 'resource.attributes["host.name"] == "localhost"' 3
# ...

1
오류 모드를 정의합니다. ignore 로 설정하면 조건에서 반환된 오류를 무시합니다. 전파 하도록 설정하면 파이프라인의 오류를 반환합니다. 오류로 인해 수집기에서 페이로드가 삭제됩니다.
2
container.name == app_container_1 속성이 있는 범위를 필터링합니다.
3
host.name == localhost 리소스 속성이 있는 범위를 필터링합니다.

3.2.9. 라우팅 프로세서

라우팅 프로세서는 로그, 메트릭 또는 추적을 특정 내보내기로 라우팅합니다. 이 프로세서는 들어오는 gRPC 또는 일반 HTTP 요청에서 헤더를 읽거나 리소스 속성을 읽은 다음, 읽기 값에 따라 추적 정보를 관련 내보내기로 보낼 수 있습니다.

중요

라우팅 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 OTLP Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
config: |
  processors:
    routing:
      from_attribute: X-Tenant 1
      default_exporters: 2
      - jaeger
      table: 3
      - value: acme
        exporters: [jaeger/acme]
  exporters:
    jaeger:
      endpoint: localhost:14250
    jaeger/acme:
      endpoint: localhost:24250
# ...

1
경로를 수행할 때 lookup 값에 대한 HTTP 헤더 이름입니다.
2
특성 값이 다음 섹션의 표에 없는 경우 기본 내보내기입니다.
3
내보내기로 라우팅할 값을 정의하는 테이블입니다.

선택적으로 from_attribute 필드에서 지정하는 특성을 찾을 위치를 정의하는 attribute_source 구성을 생성할 수 있습니다. 지원되는 값은 HTTP 헤더와 리소스 특성을 검색하는 리소스 를 포함하여 컨텍스트를 검색하는 컨텍스트입니다.

3.2.10. cumulative-to-Delta Processor

Cumulative-to-Delta Processor 프로세서는 monotonic, cumulative-sum 및 histogram 메트릭을 monotonic delta 메트릭으로 변환합니다.

include: 또는 exclude: 필드를 사용하여 메트릭을 필터링하고 일치하는 strict 또는 regexp 지표 이름을 지정할 수 있습니다.

이 프로세서는 비모노닉 합계 및 기하급수 히스토그램을 변환하지 않습니다.

중요

Cumulative-to-Delta Processor는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Cumulative-to-Delta Processor가 활성화된 OpenTelemetry 수집기 사용자 정의 리소스의 예

# ...
config: |
  processors:
    cumulativetodelta:
      include: 1
        match_type: strict 2
        metrics: 3
        - <metric_1_name>
        - <metric_2_name>
      exclude: 4
        match_type: regexp
        metrics:
        - "<regular_expression_for_metric_names>"
# ...

1
선택 사항: 포함할 메트릭을 구성합니다. 생략하면 exclude 필드에 나열된 항목을 제외한 모든 메트릭이 delta 지표로 변환됩니다.
2
metrics 필드에 제공된 값을 엄격한 일치 또는 regexp 정규식으로 정의합니다.
3
delta 메트릭으로 변환할 메트릭의 정규식과 정확히 일치하는 메트릭 이름을 나열합니다. 메트릭이 includeexclude 필터와 일치하는 경우 exclude 필터가 우선합니다.
4
선택 사항: 제외할 메트릭을 구성합니다. 생략하면 메트릭이 delta 메트릭으로의 변환에서 제외되지 않습니다.

3.2.11. group-by-Attributes 프로세서

Group-by-Attributes Processor는 해당 특성과 일치하는 리소스에 동일한 특성을 다시 할당하여 동일한 특성을 공유하는 모든 범위, 로그 레코드 및 메트릭 데이터 포인트를 그룹화합니다.

중요

Group-by-Attributes 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

최소한 이 프로세서를 구성하려면 다음 예와 같이 범위, 로그 레코드 또는 메트릭 데이터 포인트를 그룹화하는 데 사용할 속성 키 배열을 지정해야 합니다.

# ...
processors:
  groupbyattrs:
    keys: 1
      - <key1> 2
      - <key2>
# ...
1
그룹화할 속성 키를 지정합니다.
2
처리된 범위, 로그 레코드 또는 메트릭 데이터 포인트에 지정된 특성 키 중 하나 이상이 포함된 경우 동일한 특성 값을 공유하는 리소스에 다시 할당되며 이러한 리소스가 없는 경우 새 리소스가 생성됩니다. 처리된 범위, 로그 레코드 또는 메트릭 데이터 지점에 지정된 특성 키가 없는 경우 현재 리소스와 연결된 상태로 유지됩니다. 동일한 리소스의 여러 인스턴스가 통합됩니다.

3.2.12. 변환 프로세서

변환 프로세서는 지정된 규칙 및 OTTL(OpenTelemetry Cryostat Language) 에 따라 Telemetry 데이터를 수정할 수 있습니다. 각 신호 유형에 대해 프로세서는 특정 OTTL Context 유형과 관련된 일련의 조건 및 문을 처리한 다음 구성에 지정된 대로 들어오는 Telemetry 데이터에서 순서대로 실행합니다. 각 조건 및 설명은 다양한 함수를 사용하여 Telemetry 데이터에 액세스하고 수정할 수 있으므로 함수를 실행할지 여부를 지정할 수 있습니다.

모든 설명은 OTTL에 작성됩니다. 다양한 신호, 추적, 메트릭 및 로그에 대해 여러 컨텍스트 문을 구성할 수 있습니다. 컨텍스트 유형의 값은 관련 문을 해석할 때 프로세서가 사용해야 하는 OTTL Context를 지정합니다.

중요

변환 프로세서는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성 요약

# ...
config: |
  processors:
    transform:
      error_mode: ignore 1
      <trace|metric|log>_statements: 2
        - context: <string> 3
          conditions:  4
            - <string>
            - <string>
          statements: 5
            - <string>
            - <string>
            - <string>
        - context: <string>
          statements:
            - <string>
            - <string>
            - <string>
# ...

1
선택 사항: "선택적인 error_mode 필드의 값"을 참조하십시오.
2
변환할 신호를 나타냅니다.
3
다음 표 "컨텍스트 필드의 값"을 참조하십시오.
4
선택 사항: 변환을 수행하기 위한 조건입니다.

구성 예

# ...
config: |
  transform:
    error_mode: ignore
    trace_statements: 1
      - context: resource
        statements:
          - keep_keys(attributes, ["service.name", "service.namespace", "cloud.region", "process.command_line"]) 2
          - replace_pattern(attributes["process.command_line"], "password\\=[^\\s]*(\\s?)", "password=***") 3
          - limit(attributes, 100, [])
          - truncate_all(attributes, 4096)
      - context: span 4
        statements:
          - set(status.code, 1) where attributes["http.path"] == "/health"
          - set(name, attributes["http.route"])
          - replace_match(attributes["http.target"], "/user/*/list/*", "/user/{userId}/list/{listId}")
          - limit(attributes, 100, [])
          - truncate_all(attributes, 4096)
# ...

1
추적 신호를 변환합니다.
2
리소스에 대한 키를 유지합니다.
3
속성을 바꾸고 암호 필드의 문자열 문자를 별표로 대체합니다.
4
범위 수준에서 변환을 수행합니다.
표 3.3. 컨텍스트 필드의 값
신호 정책유효한 컨텍스트

trace_statements

리소스,범위, 범위 , 범위

metric_statements

리소스,범위,메트릭,데이터 포인트

log_statements

리소스,범위,로그

표 3.4. 선택적 error_mode 필드의 값
현재의설명

무시

문에서 반환된 오류를 무시하고 기록한 다음 다음 문을 계속합니다.

음소거

문에서 반환된 로그 오류를 무시하고 다음 문을 계속합니다.

propagate

파이프라인에 오류를 반환하고 페이로드를 삭제합니다. 암시적 기본값.

3.2.13. 추가 리소스

3.3. 내보내기

내보내기는 데이터를 하나 이상의 백엔드 또는 대상에 보냅니다. 내보내기는 푸시 또는 풀 기반일 수 있습니다. 기본적으로 내보내기는 구성되지 않습니다. 하나 이상의 내보내기를 구성해야 합니다. 내보내기는 하나 이상의 데이터 소스를 지원할 수 있습니다. 내보내기는 기본 설정과 함께 사용할 수 있지만 대상 및 보안 설정을 지정하려면 많은 내보내기 구성이 필요합니다.

3.3.1. OTLP Exporter

OTLP gRPC Exporter는 OTLP(OpenTelemetry 프로토콜)를 사용하여 추적 및 메트릭을 내보냅니다.

활성화된 OTLP Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      otlp:
        endpoint: tempo-ingester:4317 1
        tls: 2
          ca_file: ca.pem
          cert_file: cert.pem
          key_file: key.pem
          insecure: false 3
          insecure_skip_verify: false # 4
          reload_interval: 1h 5
          server_name_override: <name> 6
        headers: 7
          X-Scope-OrgID: "dev"
    service:
      pipelines:
        traces:
          exporters: [otlp]
        metrics:
          exporters: [otlp]
# ...

1
OTLP gRPC 끝점입니다. https:// 스키마를 사용하는 경우 클라이언트 전송 보안이 활성화되고 tlsinsecure 설정을 덮어씁니다.
2
클라이언트 측 TLS 구성입니다. TLS 인증서의 경로를 정의합니다.
3
true로 설정된 경우 클라이언트 전송 보안을 비활성화합니다. 기본값은 기본적으로 false 입니다.
4
true로 설정된 경우 인증서 확인을 건너뜁니다. 기본값은 false입니다.
5
인증서를 다시 로드하는 시간 간격을 지정합니다. 값을 설정하지 않으면 인증서가 다시 로드되지 않습니다. reload_intervalns, us (또는 µs), ms, s, m, h 와 같은 유효한 시간 단위를 포함하는 문자열을 허용합니다.
6
요청의 권한 헤더 필드와 같은 권한의 가상 호스트 이름을 재정의합니다. 테스트에 이 값을 사용할 수 있습니다.
7
설정된 연결 중에 수행되는 모든 요청에 대해 헤더가 전송됩니다.

3.3.2. OTLP HTTP Exporter

OTLP HTTP Exporter는 OTLP(OpenTelemetry 프로토콜)를 사용하여 추적 및 메트릭을 내보냅니다.

활성화된 OTLP Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      otlphttp:
        endpoint: http://tempo-ingester:4318 1
        tls: 2
        headers: 3
          X-Scope-OrgID: "dev"
        disable_keep_alives: false 4

    service:
      pipelines:
        traces:
          exporters: [otlphttp]
        metrics:
          exporters: [otlphttp]
# ...

1
OTLP HTTP 끝점입니다. https:// 스키마를 사용하는 경우 클라이언트 전송 보안이 활성화되고 tlsinsecure 설정을 덮어씁니다.
2
클라이언트 측 TLS 구성입니다. TLS 인증서의 경로를 정의합니다.
3
헤더는 모든 HTTP 요청에 전송됩니다.
4
true인 경우 HTTP keep-alive를 비활성화합니다. 단일 HTTP 요청에 대해서만 서버에 대한 연결을 사용합니다.

3.3.3. 디버그 내보내기

디버그 내보내기는 추적 및 메트릭을 표준 출력에 출력합니다.

활성화된 디버그 내보내기가 활성화된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      debug:
        verbosity: detailed 1
        sampling_initial: 5 2
        sampling_thereafter: 200 3
        use_internal_logger: true 4
    service:
      pipelines:
        traces:
          exporters: [debug]
        metrics:
          exporters: [debug]
# ...

1
디버그 내보내기의 상세 정보 표시: 세부 정보 ,일반 또는 기본. 세부 정보로 설정하면 파이프라인 데이터가 세부적으로 기록됩니다. 기본값은 normal입니다.
2
초당 기록되는 초기 메시지 수입니다. 기본값은 초당 2 개의 메시지입니다.
3
초기 메시지 수 이후 샘플링 속도는 sampling_initial 의 값이 기록되었습니다. 기본적으로 기본 1 값으로 비활성화되어 있습니다. 샘플링은 1 보다 큰 값으로 활성화됩니다. 자세한 내용은 Go 프로젝트의 웹 사이트의 zapcore 패키지에서 샘플러 기능에 대한 페이지를 참조하십시오.
4
true 로 설정하면 내보내기에 대한 수집기의 내부 로거에서 출력을 활성화합니다.

3.3.4. Load Balancing Exporter

Load Balancing Exporter는 routing_key 구성에 따라 범위, 메트릭 및 로그를 일관되게 내보냅니다.

중요

Load Balancing Exporter는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Load Balancing Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      loadbalancing:
        routing_key: "service" 1
        protocol:
          otlp: 2
            timeout: 1s
        resolver: 3
          static: 4
            hostnames:
            - backend-1:4317
            - backend-2:4317
          dns: 5
            hostname: otelcol-headless.observability.svc.cluster.local
          k8s: 6
            service: lb-svc.kube-public
            ports:
              - 15317
              - 16317
# ...

1
routing_key: 서비스는 정확한 집계를 제공하기 위해 동일한 서비스 이름에 대한 기간을 동일한 수집기 인스턴스로 내보냅니다. routing_key: traceID 내보내기는 traceID 를 기반으로 합니다. 암시적 기본값은 traceID 기반 라우팅입니다.
2
OTLP는 지원되는 유일한 로드 밸런싱 프로토콜입니다. OTLP 내보내기의 모든 옵션이 지원됩니다.
3
하나의 해결자만 구성할 수 있습니다.
4
정적 해결 프로그램은 나열된 엔드포인트에 부하를 배포합니다.
5
Kubernetes 헤드리스 서비스에서만 DNS 확인자를 사용할 수 있습니다.
6
Kubernetes 확인기가 권장됩니다.

3.3.5. Prometheus Exporter

Prometheus Exporter는 Prometheus 또는 OpenMetrics 형식으로 지표를 내보냅니다.

중요

Prometheus Exporter는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Prometheus Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      prometheus:
        endpoint: 0.0.0.0:8889 1
        tls: 2
          ca_file: ca.pem
          cert_file: cert.pem
          key_file: key.pem
        namespace: prefix 3
        const_labels: 4
          label1: value1
        enable_open_metrics: true 5
        resource_to_telemetry_conversion: 6
          enabled: true
        metric_expiration: 180m 7
        add_metric_suffixes: false 8
    service:
      pipelines:
        metrics:
          exporters: [prometheus]
# ...

1
메트릭이 노출되는 네트워크 끝점입니다. Red Hat build of OpenTelemetry Operator는 엔드포인트 필드에 지정된 포트를 < instance_name>-collector 서비스에 자동으로 노출합니다.
2
서버 측 TLS 구성입니다. TLS 인증서의 경로를 정의합니다.
3
설정된 경우 제공된 값 아래에 메트릭을 내보냅니다.
4
내보낸 모든 메트릭에 적용되는 키-값 쌍 레이블입니다.
5
true 인 경우 OpenMetrics 형식을 사용하여 메트릭을 내보냅니다. 예시는 OpenMetrics 형식으로만 내보내지며 히스토그램 및 단조적 합계 메트릭 (예: counter )에만 사용할 수 있습니다. 기본적으로 비활성되어 있습니다.
6
enabledtrue 이면 모든 리소스 속성이 지표 레이블로 변환됩니다. 기본적으로 비활성되어 있습니다.
7
업데이트 없이 메트릭이 노출되는 기간을 정의합니다. 기본값은 5m 입니다.
8
지표 유형 및 단위 접미사를 추가합니다. Jaeger 콘솔의 모니터 탭이 활성화된 경우 비활성화해야 합니다. 기본값은 true입니다.
참고

OpenTelemetryCollector CR(사용자 정의 리소스)의 spec.observability.metrics.enableMetrics 필드가 true 로 설정된 경우 OpenTelemetryCollector CR은 Prometheus ServiceMonitor 또는 PodMonitor CR을 자동으로 생성하여 메트릭을 스크랩할 수 있습니다.

3.3.6. Prometheus 원격 쓰기 내보내기

Prometheus Remote Write Exporter는 호환되는 백엔드에 지표를 내보냅니다.

중요

Prometheus 원격 쓰기 내보내기는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Prometheus Remote Write Exporter가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      prometheusremotewrite:
        endpoint: "https://my-prometheus:7900/api/v1/push" 1
        tls: 2
          ca_file: ca.pem
          cert_file: cert.pem
          key_file: key.pem
        target_info: true 3
        export_created_metric: true 4
        max_batch_size_bytes: 3000000 5
    service:
      pipelines:
        metrics:
          exporters: [prometheusremotewrite]
# ...

1
메트릭을 전송하는 끝점입니다.
2
서버 측 TLS 구성. TLS 인증서의 경로를 정의합니다.
3
true 로 설정하면 각 리소스 지표에 대한 target_info 지표를 생성합니다.
4
true 로 설정하면 요약, histogram 및 Cryostattonic Sum 메트릭 포인트에 대한 _created 메트릭을 내보냅니다.
5
원격 쓰기 엔드포인트로 전송되는 샘플 배치의 최대 크기입니다. 이 값을 초과하면 일괄 분할이 발생합니다. 기본값은 3000000 이며 이는 약 2.861 메가바이트입니다.
주의
  • 이 내보내기에서는 비 누적 monotonic, 히스토그램 및 요약 OTLP 메트릭을 삭제합니다.
  • 원격 Prometheus 인스턴스에서 --web.enable-remote-write-receiver 기능 플래그를 활성화해야 합니다. 그러지 않으면 이 내보내기를 사용하여 인스턴스로 메트릭을 푸시할 수 없습니다.

3.3.7. Kafka Exporter

Kafka 내보내기는 로그, 메트릭 및 추적을 Kafka로 내보냅니다. 이 내보내기에서는 메시지를 차단하고 배치하지 않는 동기 생산자를 사용합니다. 처리량과 복원력이 높기 위해 일괄 처리 및 대기열에 있는 재시도 프로세서와 함께 사용해야 합니다.

중요

Kafka 내보내기는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Kafka 내보내기가 활성화된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    exporters:
      kafka:
        brokers: ["localhost:9092"] 1
        protocol_version: 2.0.0 2
        topic: otlp_spans 3
        auth:
          plain_text: 4
            username: example
            password: example
          tls: 5
            ca_file: ca.pem
            cert_file: cert.pem
            key_file: key.pem
            insecure: false 6
            server_name_override: kafka.example.corp 7
    service:
      pipelines:
        traces:
          exporters: [kafka]
# ...

1
Kafka 브로커 목록입니다. 기본값은 localhost:9092 입니다.
2
Kafka 프로토콜 버전입니다. 예를 들면 2.0.0 입니다. 이 필드는 필수 항목입니다.
3
읽을 Kafka 주제의 이름입니다. 다음은 추적의 경우 otlp_spans 이며 지표의 경우 otlp_metrics, 로그의 경우 otlp_logs 입니다.
4
일반 텍스트 인증 구성입니다. 생략하면 일반 텍스트 인증이 비활성화됩니다.
5
클라이언트 측 TLS 구성입니다. TLS 인증서의 경로를 정의합니다. 생략하면 TLS 인증이 비활성화됩니다.
6
서버의 인증서 체인과 호스트 이름을 확인하지 않습니다. 기본값은 false입니다.
7
ServerName은 가상 호스팅을 지원하기 위해 클라이언트에서 요청한 서버의 이름을 나타냅니다.

3.3.8. 추가 리소스

3.4. 커넥터

커넥터는 두 개의 파이프라인을 연결합니다. 이는 하나의 파이프라인이 끝날 때 내보내기자로 데이터를 사용하고 다른 파이프라인 시작 시 수신자로 데이터를 내보냅니다. 동일하거나 다른 데이터 유형의 데이터를 사용하고 내보낼 수 있습니다. 소비된 데이터를 요약하기 위해 데이터를 생성하고 내보낼 수 있거나, 단순히 데이터를 복제하거나 라우팅할 수 있습니다.

3.4.1. 라우팅 커넥터

Routing Connector는 리소스 속성 및 라우팅 조건에 따라 지정된 파이프라인에 로그, 메트릭 및 추적을 라우팅하며, 이는 OpenTelemetry Language(OTTL) 문으로 작성됩니다.

중요

Routing Connector는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 라우팅 커넥터가 있는 OpenTelemetry 수집기 사용자 정의 리소스

  config: |
    connectors:
      routing:
        table: 1
          - statement: route() where attributes["X-Tenant"] == "dev" 2
            pipelines: [traces/dev] 3
          - statement: route() where attributes["X-Tenant"] == "prod"
            pipelines: [traces/prod]
        default_pipelines: [traces/dev] 4
        error_mode: ignore 5
        match_once: false 6
    service:
      pipelines:
        traces/in:
          receivers: [otlp]
          exporters: [routing]
        traces/dev:
          receivers: [routing]
          exporters: [otlp/dev]
        traces/prod:
          receivers: [routing]
          exporters: [otlp/prod]

1
커넥터 라우팅 테이블.
2
OTTL 문으로 작성된 라우팅 상태입니다.
3
일치하는 Telemetry 데이터를 라우팅하기 위한 대상 파이프라인입니다.
4
라우팅 조건이 충족되지 않는 Telemetry 데이터를 라우팅하기 위한 대상 파이프라인입니다.
5
오류 처리 모드: 전파 값은 오류를 로깅하고 페이로드를 삭제하는 것입니다. ignore 값은 조건을 무시하고 다음과 일치시키려는 것입니다. silent 값은 ignore 와 동일하지만 오류를 기록하지 않습니다. 기본값은 propagate 입니다.
6
true 로 설정하면 페이로드가 라우팅 조건이 충족되는 첫 번째 파이프라인으로만 라우팅됩니다. 기본값은 false입니다.

3.4.2. Forward Connector

Forward Connector는 동일한 유형의 두 파이프라인을 병합합니다.

중요

Forward Connector는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Forward Connector가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
receivers:
  otlp:
    protocols:
      grpc:
  jaeger:
    protocols:
      grpc:
processors:
  batch:
exporters:
  otlp:
    endpoint: tempo-simplest-distributor:4317
    tls:
      insecure: true
connectors:
  forward:
service:
  pipelines:
    traces/regiona:
      receivers: [otlp]
      processors: []
      exporters: [forward]
    traces/regionb:
      receivers: [jaeger]
      processors: []
      exporters: [forward]
    traces:
      receivers: [forward]
      processors: [batch]
      exporters: [otlp]
# ...

3.4.3. Spanmetrics Connector

Spanmetrics Connector는 범위 데이터에서 요청, 오류 및 기간(R.E.D) OpenTelemetry 메트릭을 집계합니다.

중요

Spanmetrics Connector는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Spanmetrics 커넥터가 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    connectors:
      spanmetrics:
        metrics_flush_interval: 15s 1
    service:
      pipelines:
        traces:
          exporters: [spanmetrics]
        metrics:
          receivers: [spanmetrics]
# ...

1
생성된 지표의 플러시 간격을 정의합니다. 기본값은 15s 입니다.

3.4.4. 추가 리소스

3.5. 확장

확장 기능은 수집기에 기능을 추가합니다. 예를 들어 인증을 수신자 및 내보내기에 자동으로 추가할 수 있습니다.

3.5.1. BearerTokenAuth Extension

BearerTokenAuth 확장은 HTTP 및 gRPC 프로토콜을 기반으로 하는 수신자 및 내보내기에 대한 인증자입니다. OpenTelemetry Collector 사용자 정의 리소스를 사용하여 수신자 및 내보내기자 측에서 BearerTokenAuth Extension에 대한 클라이언트 인증 및 서버 인증을 구성할 수 있습니다. 이 확장에서는 추적, 메트릭 및 로그를 지원합니다.

중요

BearerTokenAuth 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

BearerTokenAuth 확장에 대해 구성된 클라이언트 및 서버 인증이 포함된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      bearertokenauth:
        scheme: "Bearer" 1
        token: "<token>" 2
        filename: "<token_file>" 3

    receivers:
      otlp:
        protocols:
          http:
            auth:
              authenticator: bearertokenauth 4
    exporters:
      otlp:
        auth:
          authenticator: bearertokenauth 5

    service:
      extensions: [bearertokenauth]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
BearerTokenAuth Extension을 구성하여 사용자 지정 스키마 를 보낼 수 있습니다. 기본값은 Bearer 입니다.
2
BearerTokenAuth 확장 토큰을 메타데이터로 추가하여 메시지를 식별할 수 있습니다.
3
모든 메시지와 함께 전송되는 권한 부여 토큰이 포함된 파일의 경로입니다.
4
인증자 구성을 OTLP Receiver에 할당할 수 있습니다.
5
인증자 구성을 OTLP 내보내기에 할당할 수 있습니다.

3.5.2. OAuth2Client 확장

OAuth2Client 확장은 HTTP 및 gRPC 프로토콜을 기반으로 하는 내보내기를 위한 인증자입니다. OAuth2Client 확장에 대한 클라이언트 인증은 OpenTelemetry 수집기 사용자 정의 리소스의 별도의 섹션에 구성되어 있습니다. 이 확장에서는 추적, 메트릭 및 로그를 지원합니다.

중요

OAuth2Client 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

OAuth2Client 확장에 대해 구성된 클라이언트 인증을 사용하여 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      oauth2client:
        client_id: <client_id> 1
        client_secret: <client_secret> 2
        endpoint_params: 3
          audience: <audience>
        token_url: https://example.com/oauth2/default/v1/token 4
        scopes: ["api.metrics"] 5
        # tls settings for the token client
        tls: 6
          insecure: true 7
          ca_file: /var/lib/mycert.pem 8
          cert_file: <cert_file> 9
          key_file: <key_file> 10
        timeout: 2s 11

    receivers:
      otlp:
        protocols:
          http: {}

    exporters:
      otlp:
        auth:
          authenticator: oauth2client 12

    service:
      extensions: [oauth2client]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
ID 공급자가 제공하는 클라이언트 식별자입니다.
2
ID 공급자에 대한 클라이언트를 인증하는 데 사용되는 기밀 키입니다.
3
인증 중에 전송되는 키-값 쌍 형식의 추가 메타데이터입니다. 예를 들어 대상자 는 토큰 수신자를 나타내는 액세스 토큰의 의도된 대상을 지정합니다.
4
수집기에서 액세스 토큰을 요청하는 OAuth2 토큰 끝점의 URL입니다.
5
범위는 클라이언트에서 요청한 특정 권한 또는 액세스 수준을 정의합니다.
6
토큰을 요청할 때 보안 연결을 설정하는 데 사용되는 토큰 클라이언트의 TLS(전송 계층 보안) 설정입니다.
7
true 로 설정하면 비보안 또는 검증되지 않은 TLS 연결을 사용하여 구성된 토큰 끝점을 호출하도록 수집기를 구성합니다.
8
TLS 핸드셰이크 중 서버의 인증서를 확인하는 데 사용되는 CA(인증 기관) 파일의 경로입니다.
9
필요한 경우 클라이언트가 OAuth2 서버에 자신을 인증하는 데 사용해야 하는 클라이언트 인증서 파일의 경로입니다.
10
인증에 필요한 경우 클라이언트 인증서와 함께 사용되는 클라이언트의 개인 키 파일의 경로입니다.
11
토큰 클라이언트 요청에 대한 타임아웃을 설정합니다.
12
인증자 구성을 OTLP 내보내기에 할당할 수 있습니다.

3.5.3. 파일 스토리지 확장

파일 스토리지 확장에서는 추적, 메트릭 및 로그를 지원합니다. 이 확장은 로컬 파일 시스템에 상태를 유지할 수 있습니다. 이 확장은 HTTP 및 gRPC 프로토콜을 기반으로 하는 OTLP(OpenTelemetry Protocol) 내보내기에 대한 전송 큐를 유지합니다. 이 확장에는 디렉터리에 대한 읽기 및 쓰기 권한이 필요합니다. 이 확장에서는 기본 디렉터리를 사용할 수 있지만 기본 디렉터리가 이미 있어야 합니다.

중요

파일 스토리지 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

OTLP 전송 대기열을 유지하는 파일 스토리지 확장이 구성된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      file_storage/all_settings:
        directory: /var/lib/otelcol/mydir 1
        timeout: 1s 2
        compaction:
          on_start: true 3
          directory: /tmp/ 4
          max_transaction_size: 65_536 5
        fsync: false 6

    exporters:
      otlp:
        sending_queue:
          storage: file_storage/all_settings 7

    service:
      extensions: [file_storage/all_settings] 8
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
원격 분석 데이터가 저장되는 디렉터리를 지정합니다.
2
저장된 파일을 열기 위한 시간 초과 간격을 지정합니다.
3
수집기가 시작될 때 압축이 시작됩니다. 생략하면 기본값은 false 입니다.
4
compactor가 Telemetry 데이터를 저장하는 디렉터리를 지정합니다.
5
압축 트랜잭션의 최대 크기를 정의합니다. 트랜잭션 크기를 무시하려면 0으로 설정합니다. 생략하면 기본값은 65536 바이트입니다.
6
설정하면 각 쓰기 작업 후에 데이터베이스에 fsync 호출을 수행합니다. 이는 데이터베이스 프로세스에 중단되지만 성능 저하 시 데이터베이스 무결성을 보장하는 데 도움이 됩니다.
7
로컬 파일 시스템에서 OTLP Exporter 데이터를 버퍼링합니다.
8
수집기에서 파일 스토리지 확장을 시작합니다.

3.5.4. OIDC 인증 확장

OIDC 인증 확장은 OIDC(OpenID Connect) 프로토콜을 사용하여 수신자에 대한 수신 요청을 인증합니다. 발급자에 대해 권한 부여 헤더의 ID 토큰을 확인하고 들어오는 요청의 인증 컨텍스트를 업데이트합니다.

중요

OIDC 인증 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성된 OIDC 인증 확장 기능이 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      oidc:
        attribute: authorization 1
        issuer_url: https://example.com/auth/realms/opentelemetry 2
        issuer_ca_path: /var/run/tls/issuer.pem 3
        audience: otel-collector 4
        username_claim: email 5
    receivers:
      otlp:
        protocols:
          grpc:
            auth:
              authenticator: oidc
    exporters:
      otlp:
        endpoint: <endpoint>
    service:
      extensions: [oidc]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
ID 토큰이 포함된 헤더의 이름입니다. 기본 이름은 권한 부여 입니다.
2
OIDC 공급자의 기본 URL입니다.
3
선택 사항: 발급자 CA 인증서의 경로입니다.
4
토큰의 대상입니다.
5
사용자 이름이 포함된 클레임의 이름입니다. 기본 이름은 sub 입니다.

3.5.5. Jaeger 원격 샘플링 확장

Jaeger 원격 샘플링 확장을 사용하면 Jaeger의 원격 샘플링 API 후 샘플링 전략을 제공할 수 있습니다. Jaeger 수집기가 파이프라인 다운 또는 로컬 파일 시스템의 정적 JSON 파일과 같은 백업 원격 샘플링 서버에 요청을 프록시하도록 이 확장을 구성할 수 있습니다.

중요

Jaeger 원격 샘플링 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성된 Jaeger 원격 샘플링 확장이 포함된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      jaegerremotesampling:
        source:
          reload_interval: 30s 1
          remote:
            endpoint: jaeger-collector:14250 2
          file: /etc/otelcol/sampling_strategies.json 3

    receivers:
      otlp:
        protocols:
          http: {}

    exporters:
      otlp:

    service:
      extensions: [jaegerremotesampling]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
샘플링 구성이 업데이트되는 시간 간격입니다.
2
Jaeger 원격 샘플링 전략 공급자에 도달하기 위한 끝점입니다.
3
JSON 형식의 샘플링 전략 구성이 포함된 로컬 파일의 경로입니다.

Jaeger 원격 샘플링 전략 파일의 예

{
  "service_strategies": [
    {
      "service": "foo",
      "type": "probabilistic",
      "param": 0.8,
      "operation_strategies": [
        {
          "operation": "op1",
          "type": "probabilistic",
          "param": 0.2
        },
        {
          "operation": "op2",
          "type": "probabilistic",
          "param": 0.4
        }
      ]
    },
    {
      "service": "bar",
      "type": "ratelimiting",
      "param": 5
    }
  ],
  "default_strategy": {
    "type": "probabilistic",
    "param": 0.5,
    "operation_strategies": [
      {
        "operation": "/health",
        "type": "probabilistic",
        "param": 0.0
      },
      {
        "operation": "/metrics",
        "type": "probabilistic",
        "param": 0.0
      }
    ]
  }
}

3.5.6. 성능 Cryostat 확장

Performance Cryostat 확장을 사용하면 Go net/http/pprof 엔드포인트가 활성화됩니다. 개발자는 이 확장을 사용하여 성능 프로필을 수집하고 서비스 관련 문제를 조사합니다.

중요

Performance Cryostat 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성된 성능 프로파일러 확장 기능을 사용하여 OpenTelemetry Collector 사용자 정의 리소스

# ...
  config: |
    extensions:
      pprof:
        endpoint: localhost:1777 1
        block_profile_fraction: 0 2
        mutex_profile_fraction: 0 3
        save_to_file: test.pprof 4

    receivers:
      otlp:
        protocols:
          http: {}

    exporters:
      otlp:

    service:
      extensions: [pprof]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
이 확장이 수신 대기하는 끝점입니다. localhost: 를 사용하여 모든 네트워크 인터페이스에서 사용할 수 있도록 로컬 또는 ":" 만 사용할 수 있습니다. 기본값은 localhost:1777 입니다.
2
이벤트의 프로파일링을 위해 차단 이벤트의 일부를 설정합니다. 프로파일링을 비활성화하려면 이 값을 0 또는 음수 정수로 설정합니다. runtime 패키지에 대한 설명서 를 참조하십시오. 기본값은 0입니다.
3
뮤지션 경합 이벤트의 일부를 프로파일링하도록 설정합니다. 프로파일링을 비활성화하려면 이 값을 0 또는 음수 정수로 설정합니다. runtime 패키지에 대한 설명서 를 참조하십시오. 기본값은 0입니다.
4
CPU 프로필을 저장할 파일의 이름입니다. 프로파일링은 수집기가 시작될 때 시작됩니다. 프로파일링은 수집기가 종료될 때 파일에 저장됩니다.

3.5.7. 상태 점검 확장

상태 점검 확장은 OpenTelemetry 수집기의 상태를 확인하기 위한 HTTP URL을 제공합니다. 이 확장 기능을 OpenShift에서 활성 상태 및 준비 상태 프로브로 사용할 수 있습니다.

중요

상태 점검 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성된 Health Check Extension이 포함된 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      health_check:
        endpoint: "0.0.0.0:13133" 1
        tls: 2
          ca_file: "/path/to/ca.crt"
          cert_file: "/path/to/cert.crt"
          key_file: "/path/to/key.key"
        path: "/health/status" 3
        check_collector_pipeline: 4
          enabled: true 5
          interval: "5m" 6
          exporter_failure_threshold: 5 7

    receivers:
      otlp:
        protocols:
          http: {}

    exporters:
      otlp:

    service:
      extensions: [health_check]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
상태 점검 상태를 게시하기 위한 대상 IP 주소입니다. 기본값은 0.0.0.0:13133 입니다.
2
TLS 서버 측 구성입니다. TLS 인증서의 경로를 정의합니다. 생략하면 TLS가 비활성화됩니다.
3
상태 점검 서버의 경로입니다. 기본값은 / 입니다.
4
수집기 파이프라인 상태 점검 설정
5
수집기 파이프라인 상태 점검을 활성화합니다. 기본값은 false입니다.
6
실패 횟수를 확인하는 시간 간격입니다. 기본값은 5m 입니다.
7
컨테이너가 계속 정상으로 표시될 때까지 여러 실패의 임계값입니다. 기본값은 5 입니다.

3.5.8. Memory Ballast Extension

Memory Ballast Extension을 사용하면 애플리케이션에서 프로세스에 대한 메모리 ballast를 구성할 수 있습니다.

중요

Memory Ballast Extension은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성된 Memory Ballast Extension이 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      memory_ballast:
        size_mib: 64 1
        size_in_percentage: 20 2

    receivers:
      otlp:
        protocols:
          http: {}

    exporters:
      otlp:

    service:
      extensions: [memory_ballast]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [otlp]
# ...

1
메모리 볼트 크기를 MiB로 설정합니다. 둘 다 지정된 경우 size_in_percentage 보다 우선 순위를 지정합니다.
2
총 메모리의 메모리 볼타를 백분율로 설정합니다. 1-100. 컨테이너화된 및 물리적 호스트 환경을 지원합니다.

3.5.9. zPages 확장

zPages 확장은 조정된 구성 요소를 실시간으로 디버깅하기 위한 실시간 데이터를 제공하는 HTTP 끝점을 제공합니다. 이 확장 기능을 프로세스 내 진단 및 외부 백엔드에 의존하지 않고 추적 및 메트릭에 대한 인사이트에 사용할 수 있습니다. 이 확장을 사용하면 제공된 끝점에서 진단 정보를 확인하여 OpenTelemetry 수집기 및 관련 구성 요소의 동작을 모니터링하고 문제를 해결할 수 있습니다.

중요

zPages 확장은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

구성된 zPages Extension이 있는 OpenTelemetry 수집기 사용자 정의 리소스

# ...
  config: |
    extensions:
      zpages:
        endpoint: "localhost:55679" 1

    receivers:
      otlp:
        protocols:
          http: {}
    exporters:
      debug:

    service:
      extensions: [zpages]
      pipelines:
        traces:
          receivers: [otlp]
          exporters: [debug]
# ...

1
zPages 확장을 제공하기 위한 HTTP 끝점을 지정합니다. 기본값은 localhost:55679 입니다.
중요

OpenTelemetry Operator의 Red Hat 빌드가 이 경로를 노출하지 않기 때문에 HTTP 끝점에 액세스하려면 port-forwarding이 필요합니다.

다음 oc 명령을 실행하여 port-forwarding을 활성화할 수 있습니다.

$ oc port-forward pod/$(oc get pod -l app.kubernetes.io/name=instance-collector -o=jsonpath='{.items[0].metadata.name}') 55679

수집기는 진단을 위해 다음과 같은 zPages를 제공합니다.

ServiceZ
수집기 서비스의 개요와 다음 zPages: PipelineZ,ExtensionZFeatureZ 에 대한 링크를 표시합니다. 이 페이지에는 빌드 버전 및 런타임에 대한 정보도 표시됩니다. 이 페이지의 URL의 예는 http://localhost:55679/debug/servicez 입니다.
PipelineZ
수집기의 활성 파이프라인에 대한 자세한 정보를 표시합니다. 이 페이지에는 데이터가 수정되었는지 여부 및 각 파이프라인에 대한 연결된 수신자, 프로세서 및 내보내기가 파이프라인 유형, 표시됩니다. 이 페이지의 URL의 예는 http://localhost:55679/debug/pipelinez 입니다.
ExtensionZ
수집기의 현재 활성 확장을 표시합니다. 이 페이지의 URL의 예는 http://localhost:55679/debug/extensionz 입니다.
FeatureZ
수집기에서 상태 및 설명과 함께 활성화된 기능 게이트를 표시합니다. 이 페이지의 URL의 예는 http://localhost:55679/debug/featurez 입니다.
TraceZ
대기 시간별로 분류된 범위를 표시합니다. 사용 가능한 시간 범위에는 0 Cryostats, 10 Cryostats, 100 Cryostats, 1 ms, 10 ms, 100 ms, 1 s, 10 s, 1 m이 포함됩니다. 이 페이지에서는 오류 샘플을 신속하게 검사할 수 있습니다. 이 페이지의 URL의 예는 http://localhost:55679/debug/tracez 입니다.

3.5.10. 추가 리소스

3.6. 대상 Al Cryostat

대상 Al history는 OpenTelemetry 수집기 인스턴스의 배포된 플릿에서 대상을 스크랩하는 OpenTelemetry Operator의 선택적 구성 요소입니다. 대상은 Prometheus PodMonitorServiceMonitor CR(사용자 정의 리소스)과 통합됩니다. Target Al Cryostat가 활성화되면 OpenTelemetry Operator는 Target Al Cryostat 서비스에 연결된 활성화된 prometheus 수신자에 http_sd_config 필드를 추가합니다.

중요

대상은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

활성화된 Target Alllector CR을 사용하는 OpenTelemetryCollector CR의 예

apiVersion: opentelemetry.io/v1alpha1
kind: OpenTelemetryCollector
metadata:
  name: otel
  namespace: observability
spec:
  mode: statefulset 1
  targetAllocator:
    enabled: true 2
    serviceAccount: 3
    prometheusCR:
      enabled: true 4
      scrapeInterval: 10s
      serviceMonitorSelector: 5
        name: app1
      podMonitorSelector: 6
        name: app2
  config: |
    receivers:
      prometheus: 7
        config:
          scrape_configs: []
    processors:
    exporters:
      debug: {}
    service:
      pipelines:
        metrics:
          receivers: [prometheus]
          processors: []
          exporters: [debug]
# ...

1
대상이 활성화된 경우 배포 모드를 상태 저장 세트로 설정해야 합니다.
2
Target Al Cryostat를 활성화합니다. 기본값은 false입니다.
3
Target Al Cryostat 배포의 서비스 계정 이름입니다. 서비스 계정에는 ServiceMonitor,PodMonitor 사용자 정의 리소스 및 클러스터의 기타 오브젝트를 가져오려면 RBAC가 있어야 스크랩된 메트릭에 라벨을 올바르게 설정해야 합니다. 기본 서비스 이름은 < collector_name>-targetal Cryostat입니다.
4
Prometheus PodMonitorServiceMonitor 사용자 정의 리소스와의 통합을 활성화합니다.
5
Prometheus ServiceMonitor 사용자 정의 리소스의 라벨 선택기입니다. 비어 있는 경우 모든 서비스 모니터를 활성화합니다.
6
Prometheus PodMonitor 사용자 정의 리소스의 라벨 선택기입니다. 비어 있는 경우 모든 Pod 모니터를 활성화합니다.
7
최소 빈 scrape_config: [] 구성 옵션이 있는 Prometheus 수신자.

Target Al Cryostat 배포에서는 Kubernetes API를 사용하여 클러스터에서 관련 개체를 가져오므로 사용자 지정 RBAC 구성이 필요합니다.

Target Al Cryostat 서비스 계정에 대한 RBAC 구성

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: otel-targetallocator
rules:
  - apiGroups: [""]
    resources:
      - services
      - pods
    verbs: ["get", "list", "watch"]
  - apiGroups: ["monitoring.coreos.com"]
    resources:
      - servicemonitors
      - podmonitors
    verbs: ["get", "list", "watch"]
  - apiGroups: ["discovery.k8s.io"]
    resources:
      - endpointslices
    verbs: ["get", "list", "watch"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: otel-targetallocator
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: otel-targetallocator
subjects:
  - kind: ServiceAccount
    name: otel-targetallocator 1
    namespace: observability 2
# ...

1
Target Al Cryostat 서비스 계정의 이름입니다.
2
Target Al Cryostat 서비스 계정의 네임스페이스입니다.

4장. 계측 구성

중요

OpenTelemetry 계측 삽입은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

Red Hat build of OpenTelemetry Operator는 계측 구성을 정의하는 CRD(사용자 정의 리소스 정의) 파일을 사용합니다.

4.1. OpenTelemetry 조정 구성 옵션

Red Hat build of OpenTelemetry는 OpenTelemetry 자동 복구 라이브러리를 워크로드에 삽입하고 구성할 수 있습니다. 현재 이 프로젝트는 Go, Java, Node.js, Python, .NET 및 Apache HTTP Server(httpd)의 계측 라이브러리 삽입을 지원합니다.

OpenTelemetry의 자동 복원은 프레임워크가 수동 코드 변경없이 애플리케이션을 자동으로 수행하는 기능을 나타냅니다. 이를 통해 개발자와 관리자는 기존 코드베이스에 대한 최소한의 노력과 변경 사항을 통해 애플리케이션을 관찰할 수 있습니다.

중요

Red Hat build of OpenTelemetry Operator는 계측 라이브러리의 삽입 메커니즘만 지원하지만 계측 라이브러리 또는 업스트림 이미지는 지원하지 않습니다. 고객은 자체 계측 이미지를 빌드하거나 커뮤니티 이미지를 사용할 수 있습니다.

4.1.1. 계측 옵션

계측 옵션은 OpenTelemetryCollector 사용자 지정 리소스에 지정됩니다.

샘플 OpenTelemetryCollector 사용자 정의 리소스 파일

apiVersion: opentelemetry.io/v1alpha1
kind: Instrumentation
metadata:
  name: java-instrumentation
spec:
  env:
    - name: OTEL_EXPORTER_OTLP_TIMEOUT
      value: "20"
  exporter:
    endpoint: http://production-collector.observability.svc.cluster.local:4317
  propagators:
    - w3c
  sampler:
    type: parentbased_traceidratio
    argument: "0.25"
  java:
    env:
    - name: OTEL_JAVAAGENT_DEBUG
      value: "true"

표 4.1. Operator에서 Instrumentation을 정의하는 데 사용하는 매개변수
매개변수설명

env

모든 계측을 정의하는 공통 환경 변수입니다.

 

내보내기

내보내기 구성.

 

propagators

전파자는 프로세스 간 컨텍스트 전파 구성을 정의합니다.

tracecontext, baggage, b3, b3multi, jaeger, ottrace, none

resource

리소스 속성 구성.

 

샘플러

샘플링 구성.

 

apacheHttpd

Apache HTTP Server 조정 구성.

 

dotnet

.NET 계측에 대한 구성입니다.

 

Go

Go 계측을 위한 구성입니다.

 

java

Java 계측을 위한 구성입니다.

 

nodejs

Node.js 계측 구성.

 

python

Python 계측을 위한 구성입니다.

 

4.1.2. Service Mesh에서 계측 CR 사용

Red Hat OpenShift Service Mesh와 함께 조정 사용자 정의 리소스(CR)를 사용하는 경우 b3multi 전파기를 사용해야 합니다.

4.1.2.1. Apache HTTP Server 자동 복구 구성
표 4.2. .spec.apacheHttpd 필드에 대한 매개변수
이름설명기본

attrs

Apache HTTP Server와 관련된 속성입니다.

 

configPath

Apache HTTP Server 구성의 위치입니다.

/usr/local/apache2/conf

env

Apache HTTP Server와 관련된 환경 변수.

 

image

Apache SDK 및 자동 복구가 포함된 컨테이너 이미지입니다.

 

resourceRequirements

컴퓨팅 리소스 요구 사항입니다.

 

version

Apache HTTP Server 버전.

2.4

삽입을 활성화하는 PodSpec 주석

instrumentation.opentelemetry.io/inject-apache-httpd: "true"

4.1.2.2. .NET 자동 복원 구성
이름설명

env

.NET 고유의 환경 변수입니다.

image

.NET SDK 및 자동 복구가 포함된 컨테이너 이미지입니다.

resourceRequirements

컴퓨팅 리소스 요구 사항입니다.

.NET 자동 복원의 경우 내보내기기의 끝점이 4317 로 설정된 경우 필요한 OTEL_EXPORTER_OTLP_ENDPOINT 환경 변수를 설정해야 합니다. .NET autoinstrumentation에서는 기본적으로 http/proto 를 사용하고 Telemetry 데이터를 4318 포트로 설정해야 합니다.

삽입을 활성화하는 PodSpec 주석

instrumentation.opentelemetry.io/inject-dotnet: "true"

4.1.2.3. Go 자동 복원 구성
이름설명

env

Go 관련 환경 변수.

image

Go SDK 및 자동 복구가 포함된 컨테이너 이미지입니다.

resourceRequirements

컴퓨팅 리소스 요구 사항입니다.

삽입을 활성화하는 PodSpec 주석

instrumentation.opentelemetry.io/inject-go: "true"

OpenShift 클러스터의 Go 자동 복원에 필요한 추가 권한

apiVersion: security.openshift.io/v1
kind: SecurityContextConstraints
metadata:
  name: otel-go-instrumentation-scc
allowHostDirVolumePlugin: true
allowPrivilegeEscalation: true
allowPrivilegedContainer: true
allowedCapabilities:
- "SYS_PTRACE"
fsGroup:
  type: RunAsAny
runAsUser:
  type: RunAsAny
seLinuxContext:
  type: RunAsAny
seccompProfiles:
- '*'
supplementalGroups:
  type: RunAsAny

작은 정보

OpenShift 클러스터에서 Go 자동 복구에 대한 권한을 적용하는 CLI 명령은 다음과 같습니다.

$ oc adm policy add-scc-to-user otel-go-instrumentation-scc -z <service_account>
4.1.2.4. Java 자동 복원 구성
이름설명

env

Java와 관련된 환경 변수.

image

Java SDK 및 자동 복구가 포함된 컨테이너 이미지입니다.

resourceRequirements

컴퓨팅 리소스 요구 사항입니다.

삽입을 활성화하는 PodSpec 주석

instrumentation.opentelemetry.io/inject-java: "true"

4.1.2.5. Node.js 자동 복원 구성
이름설명

env

Node.js와 관련된 환경 변수.

image

Node.js SDK 및 자동 복원이 포함된 컨테이너 이미지입니다.

resourceRequirements

컴퓨팅 리소스 요구 사항입니다.

삽입을 활성화하는 PodSpec 주석

instrumentation.opentelemetry.io/inject-nodejs: "true"
instrumentation.opentelemetry.io/otel-go-auto-target-exe: "/path/to/container/executable"

instrumentation.opentelemetry.io/otel-go-auto-target-exe 주석은 필요한 OTEL_GO_AUTO_TARGET_EXE 환경 변수의 값을 설정합니다.

4.1.2.6. Python 자동 복원 구성
이름설명

env

Python과 관련된 환경 변수.

image

Python SDK 및 자동 복구가 포함된 컨테이너 이미지입니다.

resourceRequirements

컴퓨팅 리소스 요구 사항입니다.

Python 자동 복원의 경우 내보내기 사용자의 끝점이 4317 로 설정된 경우 OTEL_EXPORTER_OTLP_ENDPOINT 환경 변수를 설정해야 합니다. Python 자동 복원은 기본적으로 http/proto 를 사용하며 Telemetry 데이터를 4318 포트로 설정해야 합니다.

삽입을 활성화하는 PodSpec 주석

instrumentation.opentelemetry.io/inject-python: "true"

4.1.2.7. OpenTelemetry SDK 변수 구성

Pod의 OpenTelemetry SDK 변수는 다음 주석을 사용하여 구성할 수 있습니다.

instrumentation.opentelemetry.io/inject-sdk: "true"

모든 주석은 다음 값을 허용합니다.

true
네임스페이스에서 Instrumentation 리소스를 삽입합니다.
false
장치를 삽입하지 않습니다.
instrumentation-name
현재 네임스페이스에서 삽입할 계측 리소스의 이름입니다.
other-namespace/instrumentation-name
다른 네임스페이스에서 삽입할 계측 리소스의 이름입니다.
4.1.2.8. 멀티컨테이너 Pod

조정은 Pod 사양에 따라 기본적으로 사용 가능한 첫 번째 컨테이너에서 실행됩니다. 경우에 따라 삽입을 위해 대상 컨테이너를 지정할 수도 있습니다.

Pod 주석

instrumentation.opentelemetry.io/container-names: "<container_1>,<container_2>"

참고

Go 자동 복원은 다중 컨테이너 자동 복구 삽입을 지원하지 않습니다.

5장. OpenTelemetry 수집기에 추적 및 메트릭 전송

OpenTelemetry의 Red Hat 빌드를 설정하고 사용하여 OpenTelemetry 수집기 또는 TempoStack 인스턴스에 추적을 보낼 수 있습니다.

사이드카 삽입을 사용하거나 사용하지 않고 추적과 메트릭을 OpenTelemetry 수집기로 보낼 수 있습니다.

5.1. 사이드카 삽입을 사용하여 추적 및 메트릭을 OpenTelemetry 수집기로 전송

사이드카 삽입을 사용하여 OpenTelemetry 수집기 인스턴스로 Telemetry 데이터를 전송할 수 있습니다.

Red Hat build of OpenTelemetry Operator를 사용하면 설계의 배포 워크로드 및 자동 구성에 사이드카 삽입을 통해 Telemetry 데이터를 OpenTelemetry 수집기에 보낼 수 있습니다.

사전 요구 사항

  • Red Hat OpenShift distributed tracing platform(Tempo)이 설치되고 TempoStack 인스턴스가 배포됩니다.
  • 웹 콘솔 또는 OpenShift CLI(oc)를 통해 클러스터에 액세스할 수 있습니다.

    • cluster-admin 역할의 클러스터 관리자로 웹 콘솔에 로그인되어 있습니다.
    • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.
    • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할의 계정이 있어야 합니다.

프로세스

  1. OpenTelemetry 수집기 인스턴스에 대한 프로젝트를 생성합니다.

    apiVersion: project.openshift.io/v1
    kind: Project
    metadata:
      name: observability
  2. 서비스 계정을 생성합니다.

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-sidecar
      namespace: observability
  3. k8sattributesresourcedetection 프로세서에 대한 서비스 계정에 권한을 부여합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector
    rules:
    - apiGroups: ["", "config.openshift.io"]
      resources: ["pods", "namespaces", "infrastructures", "infrastructures/status"]
      verbs: ["get", "watch", "list"]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector
    subjects:
    - kind: ServiceAccount
      name: otel-collector-sidecar
      namespace: observability
    roleRef:
      kind: ClusterRole
      name: otel-collector
      apiGroup: rbac.authorization.k8s.io
  4. OpenTelemetry Collector를 사이드카로 배포합니다.

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
      namespace: observability
    spec:
      serviceAccount: otel-collector-sidecar
      mode: sidecar
      config: |
        serviceAccount: otel-collector-sidecar
        receivers:
          otlp:
            protocols:
              grpc: {}
              http: {}
        processors:
          batch: {}
          memory_limiter:
            check_interval: 1s
            limit_percentage: 50
            spike_limit_percentage: 30
          resourcedetection:
            detectors: [openshift]
            timeout: 2s
        exporters:
          otlp:
            endpoint: "tempo-<example>-gateway:8090" 1
            tls:
              insecure: true
        service:
          pipelines:
            traces:
              receivers: [jaeger]
              processors: [memory_limiter, resourcedetection, batch]
              exporters: [otlp]
    1
    이는 Tempo Operator를 사용하여 <example> 배포된 TempoStack 인스턴스의 게이트웨이를 가리킵니다.
  5. otel-collector-sidecar 서비스 계정을 사용하여 배포를 생성합니다.
  6. Deployment 오브젝트에 sidecar.opentelemetry.io/inject: "true" 주석을 추가합니다. 이렇게 하면 워크로드에서 OpenTelemetry 수집기 인스턴스로 데이터를 보내는 데 필요한 모든 환경 변수가 삽입됩니다.

5.2. 사이드카 삽입 없이 OpenTelemetry 수집기에 추적 및 메트릭 전송

여러 환경 변수를 수동으로 설정해야 하는 사이드카 삽입 없이 OpenTelemetry 수집기 인스턴스로 원격 분석 데이터를 보낼 수 있습니다.

사전 요구 사항

  • Red Hat OpenShift distributed tracing platform(Tempo)이 설치되고 TempoStack 인스턴스가 배포됩니다.
  • 웹 콘솔 또는 OpenShift CLI(oc)를 통해 클러스터에 액세스할 수 있습니다.

    • cluster-admin 역할의 클러스터 관리자로 웹 콘솔에 로그인되어 있습니다.
    • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.
    • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할의 계정이 있어야 합니다.

프로세스

  1. OpenTelemetry 수집기 인스턴스에 대한 프로젝트를 생성합니다.

    apiVersion: project.openshift.io/v1
    kind: Project
    metadata:
      name: observability
  2. 서비스 계정을 생성합니다.

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-deployment
      namespace: observability
  3. k8sattributesresourcedetection 프로세서에 대한 서비스 계정에 권한을 부여합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector
    rules:
    - apiGroups: ["", "config.openshift.io"]
      resources: ["pods", "namespaces", "infrastructures", "infrastructures/status"]
      verbs: ["get", "watch", "list"]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector
    subjects:
    - kind: ServiceAccount
      name: otel-collector-deployment
      namespace: observability
    roleRef:
      kind: ClusterRole
      name: otel-collector
      apiGroup: rbac.authorization.k8s.io
  4. OpenTelemetryCollector 사용자 정의 리소스를 사용하여 OpenTelemetry 수집기 인스턴스를 배포합니다.

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
      namespace: observability
    spec:
      mode: deployment
      serviceAccount: otel-collector-deployment
      config: |
        receivers:
          jaeger:
            protocols:
              grpc: {}
              thrift_binary: {}
              thrift_compact: {}
              thrift_http: {}
          opencensus:
          otlp:
            protocols:
              grpc: {}
              http: {}
          zipkin: {}
        processors:
          batch: {}
          k8sattributes: {}
          memory_limiter:
            check_interval: 1s
            limit_percentage: 50
            spike_limit_percentage: 30
          resourcedetection:
            detectors: [openshift]
        exporters:
          otlp:
            endpoint: "tempo-<example>-distributor:4317" 1
            tls:
              insecure: true
        service:
          pipelines:
            traces:
              receivers: [jaeger, opencensus, otlp, zipkin]
              processors: [memory_limiter, k8sattributes, resourcedetection, batch]
              exporters: [otlp]
    1
    이는 Tempo Operator를 사용하여 <example> 배포된 TempoStack 인스턴스의 게이트웨이를 가리킵니다.
  5. 조정된 애플리케이션을 사용하여 컨테이너의 환경 변수를 설정합니다.

    이름설명기본값

    OTEL_SERVICE_NAME

    service.name 리소스 속성 값을 설정합니다.

    ""

    OTEL_EXPORTER_OTLP_ENDPOINT

    선택적으로 지정된 포트 번호가 있는 모든 신호 유형의 기본 끝점 URL입니다.

    https://localhost:4317

    OTEL_EXPORTER_OTLP_CERTIFICATE

    gRPC 클라이언트의 TLS 자격 증명에 대한 인증서 파일의 경로입니다.

    https://localhost:4317

    OTEL_TRACES_SAMPLER

    추적에 사용할 샘플입니다.

    parentbased_always_on

    OTEL_EXPORTER_OTLP_PROTOCOL

    OTLP 내보내기를 위한 전송 프로토콜입니다.

    grpc

    OTEL_EXPORTER_OTLP_TIMEOUT

    OTLP 내보내기가 각 배치 내보내기에 대해 대기하는 최대 시간 간격입니다.

    10s

    OTEL_EXPORTER_OTLP_INSECURE

    gRPC 요청에 대한 클라이언트 전송 보안을 비활성화합니다. HTTPS 스키마는 이를 덮어씁니다.

    False

6장. 모니터링 스택에 대한 메트릭 구성

클러스터 관리자는 다음 작업을 수행하도록 OpenTelemetry 수집기 CR(사용자 정의 리소스)을 구성할 수 있습니다.

  • 수집기의 파이프라인 지표 및 활성화된 Prometheus 내보내기를 스크랩하기 위한 Prometheus ServiceMonitor CR을 생성합니다.
  • 클러스터 내 모니터링 스택에서 지표를 스크랩하도록 Prometheus 수신자를 구성합니다.

6.1. 모니터링 스택에 메트릭을 전송하기 위한 구성

OpenTelemetryCollector CR(사용자 정의 리소스)을 구성하여 사이드카 배포에 대한 Prometheus ServiceMonitor CR 또는 PodMonitor CR을 생성할 수 있습니다. ServiceMonitor 는 수집기의 내부 메트릭 끝점 및 Prometheus 내보내기 메트릭 끝점을 스크랩할 수 있습니다.

Prometheus 내보내기가 포함된 OpenTelemetry Collector CR의 예

apiVersion: opentelemetry.io/v1alpha1
kind: OpenTelemetryCollector
spec:
  mode: deployment
  observability:
    metrics:
      enableMetrics: true 1
  config: |
    exporters:
      prometheus:
        endpoint: 0.0.0.0:8889
        resource_to_telemetry_conversion:
          enabled: true # by default resource attributes are dropped
    service:
      telemetry:
        metrics:
          address: ":8888"
      pipelines:
        metrics:
          receivers: [otlp]
          exporters: [prometheus]

1
OpenTelemetry Operator의 Red Hat 빌드를 구성하여 Prometheus ServiceMonitor CR 또는 PodMonitor CR을 생성하여 수집기의 내부 지표 끝점 및 Prometheus 내보내기 메트릭 끝점을 스크랩합니다.
참고

enableMetricstrue 로 설정하면 다음 두 개의 ServiceMonitor 인스턴스가 생성됩니다.

  • < instance_name>-collector-monitoring 서비스에 대한 하나의 ServiceMonitor 인스턴스입니다. 이 ServiceMonitor 인스턴스는 수집기의 내부 메트릭을 스크랩합니다.
  • < instance_name>-collector 서비스에 대한 하나의 ServiceMonitor 인스턴스입니다. 이 ServiceMonitor 인스턴스는 Prometheus 내보내기 인스턴스에서 노출하는 메트릭을 스크랩합니다.

또는 수동으로 생성한 Prometheus PodMonitor CR은 예를 들어 Prometheus 스크랩 중에 추가된 중복된 라벨 제거와 같은 세분화된 제어를 제공할 수 있습니다.

수집기 메트릭을 스크랩하도록 모니터링 스택을 구성하는 PodMonitor CR의 예

apiVersion: monitoring.coreos.com/v1
kind: PodMonitor
metadata:
  name: otel-collector
spec:
  selector:
    matchLabels:
      app.kubernetes.io/name: <cr_name>-collector 1
  podMetricsEndpoints:
  - port: metrics 2
  - port: promexporter 3
    relabelings:
    - action: labeldrop
      regex: pod
    - action: labeldrop
      regex: container
    - action: labeldrop
      regex: endpoint
    metricRelabelings:
    - action: labeldrop
      regex: instance
    - action: labeldrop
      regex: job

1
OpenTelemetry Collector CR의 이름입니다.
2
OpenTelemetry 수집기의 내부 메트릭 포트의 이름입니다. 이 포트 이름은 항상 metrics 입니다.
3
OpenTelemetry 수집기의 Prometheus 내보내기 포트의 이름입니다.

6.2. 모니터링 스택에서 메트릭을 수신하기 위한 구성

구성된 OpenTelemetry Collector CR(사용자 정의 리소스)은 클러스터 내 모니터링 스택에서 메트릭을 스크랩하도록 Prometheus 수신자를 설정할 수 있습니다.

클러스터 내 모니터링 스택에서 메트릭을 스크랩하는 OpenTelemetry Collector CR의 예

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: otel-collector
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-monitoring-view 1
subjects:
  - kind: ServiceAccount
    name: otel-collector
    namespace: observability
---
kind: ConfigMap
apiVersion: v1
metadata:
  name: cabundle
  namespce: observability
  annotations:
    service.beta.openshift.io/inject-cabundle: "true" 2
---
apiVersion: opentelemetry.io/v1alpha1
kind: OpenTelemetryCollector
metadata:
  name: otel
  namespace: observability
spec:
  volumeMounts:
    - name: cabundle-volume
      mountPath: /etc/pki/ca-trust/source/service-ca
      readOnly: true
  volumes:
    - name: cabundle-volume
      configMap:
        name: cabundle
  mode: deployment
  config: |
    receivers:
      prometheus: 3
        config:
          scrape_configs:
            - job_name: 'federate'
              scrape_interval: 15s
              scheme: https
              tls_config:
                ca_file: /etc/pki/ca-trust/source/service-ca/service-ca.crt
              bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
              honor_labels: false
              params:
                'match[]':
                  - '{__name__="<metric_name>"}' 4
              metrics_path: '/federate'
              static_configs:
                - targets:
                  - "prometheus-k8s.openshift-monitoring.svc.cluster.local:9091"
    exporters:
      debug: 5
        verbosity: detailed
    service:
      pipelines:
        metrics:
          receivers: [prometheus]
          processors: []
          exporters: [debug]

1
지표 데이터에 액세스할 수 있도록 OpenTelemetry 수집기의 서비스 계정에 cluster-monitoring-view 클러스터 역할을 할당합니다.
2
Prometheus 수신자에서 TLS를 구성하기 위해 OpenShift 서비스 CA를 삽입합니다.
3
클러스터 내 모니터링 스택에서 통합 엔드포인트를 스크랩하도록 Prometheus 수신자를 구성합니다.
4
Prometheus 쿼리 언어를 사용하여 스크랩할 지표를 선택합니다. 변환 끝점에 대한 자세한 내용 및 제한 사항은 클러스터 내 모니터링 설명서를 참조하십시오.
5
메트릭을 표준 출력에 출력하도록 디버그 내보내기를 구성합니다.

6.3. 추가 리소스

7장. Telemetry 데이터 전달

OpenTelemetry 수집기를 사용하여 Telemetry 데이터를 전달할 수 있습니다.

7.1. TempoStack 인스턴스에 추적 전달

TempoStack 인스턴스에 대한 전달 추적을 구성하려면 OpenTelemetry 수집기를 배포하고 구성할 수 있습니다. 지정된 프로세서, 수신자 및 내보내기를 사용하여 배포 모드에서 OpenTelemetry 수집기를 배포할 수 있습니다. 다른 모드는 추가 리소스에 연결된 OpenTelemetry 수집기 설명서를 참조하십시오.

사전 요구 사항

  • Red Hat build of OpenTelemetry Operator가 설치되어 있습니다.
  • Tempo Operator가 설치되어 있습니다.
  • TempoStack 인스턴스는 클러스터에 배포됩니다.

프로세스

  1. OpenTelemetry 수집기의 서비스 계정을 생성합니다.

    서비스 계정의 예

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-deployment

  2. 서비스 계정에 대한 클러스터 역할을 생성합니다.

    클러스터 역할의 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector
    rules:
      1
      2
    - apiGroups: ["", "config.openshift.io"]
      resources: ["pods", "namespaces", "infrastructures", "infrastructures/status"]
      verbs: ["get", "watch", "list"]

    1
    k8sattributesprocessor에는 Pod 및 네임스페이스 리소스에 대한 권한이 필요합니다.
    2
    resourcedetectionprocessor에는 인프라 및 상태에 대한 권한이 필요합니다.
  3. 클러스터 역할을 서비스 계정에 바인딩합니다.

    클러스터 역할 바인딩 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector
    subjects:
    - kind: ServiceAccount
      name: otel-collector-deployment
      namespace: otel-collector-example
    roleRef:
      kind: ClusterRole
      name: otel-collector
      apiGroup: rbac.authorization.k8s.io

  4. YAML 파일을 생성하여 OpenTelemetryCollector CR(사용자 정의 리소스)을 정의합니다.

    OpenTelemetry 수집기 예

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
    spec:
      mode: deployment
      serviceAccount: otel-collector-deployment
      config: |
        receivers:
          jaeger:
            protocols:
              grpc: {}
              thrift_binary: {}
              thrift_compact: {}
              thrift_http: {}
          opencensus: {}
          otlp:
            protocols:
              grpc: {}
              http: {}
          zipkin: {}
        processors:
          batch: {}
          k8sattributes: {}
          memory_limiter:
            check_interval: 1s
            limit_percentage: 50
            spike_limit_percentage: 30
          resourcedetection:
            detectors: [openshift]
        exporters:
          otlp:
            endpoint: "tempo-simplest-distributor:4317" 1
            tls:
              insecure: true
        service:
          pipelines:
            traces:
              receivers: [jaeger, opencensus, otlp, zipkin] 2
              processors: [memory_limiter, k8sattributes, resourcedetection, batch]
              exporters: [otlp]

    1
    수집기 내보내기는 OTLP를 내보내도록 구성되어 있으며 이 예에서는 이미 생성된 Tempo 배포자 엔드포인트인 "tempo-simplest-distributor:4317" 을 가리킵니다.
    2
    수집기는 Jaeger 추적을 위한 수신기로 구성되며 OpenCensus는 OpenCensus 프로토콜을 통해 추적, Zipkin 프로토콜을 통한 Zipkin 추적 및 GRPC 프로토콜을 통해 OTLP 추적을 사용합니다.
작은 정보

Telemetrygen을 테스트로 배포할 수 있습니다.

apiVersion: batch/v1
kind: Job
metadata:
  name: telemetrygen
spec:
  template:
    spec:
      containers:
        - name: telemetrygen
          image: ghcr.io/open-telemetry/opentelemetry-collector-contrib/telemetrygen:latest
          args:
            - traces
            - --otlp-endpoint=otel-collector:4317
            - --otlp-insecure
            - --duration=30s
            - --workers=1
      restartPolicy: Never
  backoffLimit: 4

7.2. LokiStack 인스턴스로 로그 전달

수집기 구성 요소와 함께 OpenTelemetry 수집기를 배포하여 LokiStack 인스턴스로 로그를 전달할 수 있습니다.

Loki Exporter의 이러한 사용은 Loki Exporter가 OTLP HTTP Exporter로 대체되는 개선된 솔루션 게시로 대체될 임시 기술 프리뷰 기능입니다.

중요

Loki 내보내기는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

사전 요구 사항

  • Red Hat build of OpenTelemetry Operator가 설치되어 있습니다.
  • Loki Operator가 설치되어 있습니다.
  • 지원되는 LokiStack 인스턴스는 클러스터에 배포됩니다.

프로세스

  1. OpenTelemetry 수집기의 서비스 계정을 생성합니다.

    ServiceAccount 오브젝트의 예

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-deployment
      namespace: openshift-logging

  2. 수집기의 서비스 계정에 LokiStack 애플리케이션 테넌트로 로그를 내보낼 수 있는 권한을 부여하는 클러스터 역할을 생성합니다.

    ClusterRole 오브젝트의 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector-logs-writer
    rules:
     - apiGroups: ["loki.grafana.com"]
       resourceNames: ["logs"]
       resources: ["application"]
       verbs: ["create"]
     - apiGroups: [""]
       resources: ["pods", "namespaces", "nodes"]
       verbs: ["get", "watch", "list"]
     - apiGroups: ["apps"]
       resources: ["replicasets"]
       verbs: ["get", "list", "watch"]
     - apiGroups: ["extensions"]
       resources: ["replicasets"]
       verbs: ["get", "list", "watch"]

  3. 클러스터 역할을 서비스 계정에 바인딩합니다.

    ClusterRoleBinding 오브젝트의 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector-logs-writer
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: otel-collector-logs-writer
    subjects:
      - kind: ServiceAccount
        name: otel-collector-deployment
        namespace: openshift-logging

  4. OpenTelemetryCollector CR(사용자 정의 리소스) 오브젝트를 생성합니다.

    OpenTelemetryCollector CR 오브젝트의 예

    apiVersion: opentelemetry.io/v1beta1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
      namespace: openshift-logging
    spec:
      serviceAccount: otel-collector-deployment
      config:
        extensions:
          bearertokenauth:
            filename: "/var/run/secrets/kubernetes.io/serviceaccount/token"
        receivers:
          otlp:
            protocols:
              grpc: {}
              http: {}
        processors:
          k8sattributes:
            auth_type: "serviceAccount"
            passthrough: false
            extract:
              metadata:
                - k8s.pod.name
                - k8s.container.name
                - k8s.namespace.name
              labels:
              - tag_name: app.label.component
                key: app.kubernetes.io/component
                from: pod
            pod_association:
              - sources:
                  - from: resource_attribute
                    name: k8s.pod.name
                  - from: resource_attribute
                    name: k8s.container.name
                  - from: resource_attribute
                    name: k8s.namespace.name
              - sources:
                  - from: connection
          resource:
            attributes: 1
              - key: loki.format 2
                action: insert
                value: json
              - key:  kubernetes_namespace_name
                from_attribute: k8s.namespace.name
                action: upsert
              - key:  kubernetes_pod_name
                from_attribute: k8s.pod.name
                action: upsert
              - key: kubernetes_container_name
                from_attribute: k8s.container.name
                action: upsert
              - key: log_type
                value: application
                action: upsert
              - key: loki.resource.labels 3
                value: log_type, kubernetes_namespace_name, kubernetes_pod_name, kubernetes_container_name
                action: insert
          transform:
            log_statements:
              - context: log
                statements:
                  - set(attributes["level"], ConvertCase(severity_text, "lower"))
        exporters:
          loki:
            endpoint: https://logging-loki-gateway-http.openshift-logging.svc.cluster.local:8080/api/logs/v1/application/loki/api/v1/push 4
            tls:
              ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt"
            auth:
              authenticator: bearertokenauth
          debug:
            verbosity: detailed
        service:
          extensions: [bearertokenauth] 5
          pipelines:
            logs:
              receivers: [otlp]
              processors: [k8sattributes, transform, resource]
              exporters: [loki] 6
            logs/test:
              receivers: [otlp]
              processors: []
              exporters: [debug]

    1
    웹 콘솔에서 사용할 다음 리소스 특성을 제공합니다. kubernetes_namespace_name,kubernetes_pod_name,kubernetes_container_name, log_type. 이 loki.resource.labels 속성 값으로 지정하는 경우 Loki Exporter는 이를 레이블로 처리합니다.
    2
    Loki 로그 형식을 구성합니다. 지원되는 값은 json,logfmtraw 입니다.
    3
    Loki 레이블로 처리되는 리소스 속성을 구성합니다.
    4
    Loki Exporter를 LokiStack logging-loki 인스턴스의 게이트웨이를 가리키고 애플리케이션 테넌트를 사용합니다.
    5
    Loki Exporter에 필요한 BearerTokenAuth 확장을 활성화합니다.
    6
    Loki Exporter에서 수집기에서 로그를 내보낼 수 있습니다.
작은 정보

Telemetrygen을 테스트로 배포할 수 있습니다.

apiVersion: batch/v1
kind: Job
metadata:
  name: telemetrygen
spec:
  template:
    spec:
      containers:
        - name: telemetrygen
          image: ghcr.io/open-telemetry/opentelemetry-collector-contrib/telemetrygen:v0.106.1
          args:
            - logs
            - --otlp-endpoint=otel-collector.openshift-logging.svc.cluster.local:4317
            - --otlp-insecure
            - --duration=180s
            - --workers=1
            - --logs=10
            - --otlp-attributes=k8s.container.name="telemetrygen"
      restartPolicy: Never
  backoffLimit: 4

8장. OpenTelemetry 수집기 메트릭 구성

다음 목록은 이러한 메트릭 중 일부를 보여줍니다.

  • 수집기 메모리 사용량
  • CPU 사용
  • 처리된 활성 추적 및 기간 수
  • 삭제된 기간, 로그 또는 메트릭
  • 내보내기 및 수신자 통계

Red Hat build of OpenTelemetry Operator는 수집기의 내부 메트릭을 노출하는 < instance_name>-collector-monitoring 라는 서비스를 자동으로 생성합니다. 이 서비스는 기본적으로 포트 8888 에서 수신 대기합니다.

이러한 메트릭을 사용하여 수집기의 성능, 리소스 사용량 및 기타 내부 동작을 모니터링할 수 있습니다. Prometheus 인스턴스 또는 다른 모니터링 툴을 사용하여 언급된 < instance_name>-collector-monitoring 서비스에서 이러한 메트릭을 스크랩할 수도 있습니다.

참고

OpenTelemetryCollector CR(사용자 정의 리소스)의 spec.observability.metrics.enableMetrics 필드가 true 로 설정된 경우 OpenTelemetryCollector CR은 Prometheus ServiceMonitor 또는 PodMonitor CR을 자동으로 생성하여 메트릭을 스크랩할 수 있습니다.

사전 요구 사항

  • 클러스터에서 사용자 정의 프로젝트에 대한 모니터링이 활성화됩니다.

프로세스

  • OpenTelemetry Collector 인스턴스의 메트릭을 활성화하려면 spec.observability.metrics.enableMetrics 필드를 true 로 설정합니다.

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: <name>
    spec:
      observability:
        metrics:
          enableMetrics: true

검증

웹 콘솔의 관리자 보기를 사용하여 구성이 성공했는지 확인할 수 있습니다.

  1. 모니터링대상으로 이동합니다.
  2. 소스로 필터링 : 사용자.
  3. opentelemetry-collector-<instance_name > 형식의 ServiceMonitor 또는 PodMonitors 의 상태가 Up 인지 확인합니다.

9장. 여러 클러스터에서 관찰 데이터 수집

다중 클러스터 구성의 경우 원격 클러스터 각각에 하나의 OpenTelemetry 수집기 인스턴스를 생성한 다음 모든 Telemetry 데이터를 하나의 OpenTelemetry 수집기 인스턴스로 전달할 수 있습니다.

사전 요구 사항

  • Red Hat build of OpenTelemetry Operator가 설치되어 있습니다.
  • Tempo Operator가 설치되어 있습니다.
  • TempoStack 인스턴스는 클러스터에 배포됩니다.
  • 다음 마운트된 인증서: 발급자, 자체 서명 인증서, CA 발급자, 클라이언트 및 서버 인증서입니다. 이러한 인증서를 생성하려면 1단계를 참조하십시오.

프로세스

  1. OpenTelemetry 수집기 인스턴스에 다음 인증서를 마운트하고 이미 마운트된 인증서를 건너뜁니다.

    1. cert-manager Operator for Red Hat OpenShift를 사용하여 인증서를 생성하는 발행자입니다.

      apiVersion: cert-manager.io/v1
      kind: Issuer
      metadata:
        name: selfsigned-issuer
      spec:
        selfSigned: {}
    2. 자체 서명된 인증서입니다.

      apiVersion: cert-manager.io/v1
      kind: Certificate
      metadata:
        name: ca
      spec:
        isCA: true
        commonName: ca
        subject:
          organizations:
            - Organization # <your_organization_name>
          organizationalUnits:
            - Widgets
        secretName: ca-secret
        privateKey:
          algorithm: ECDSA
          size: 256
        issuerRef:
          name: selfsigned-issuer
          kind: Issuer
          group: cert-manager.io
    3. CA 발행자.

      apiVersion: cert-manager.io/v1
      kind: Issuer
      metadata:
        name: test-ca-issuer
      spec:
        ca:
          secretName: ca-secret
    4. 클라이언트 및 서버 인증서입니다.

      apiVersion: cert-manager.io/v1
      kind: Certificate
      metadata:
        name: server
      spec:
        secretName: server-tls
        isCA: false
        usages:
          - server auth
          - client auth
        dnsNames:
        - "otel.observability.svc.cluster.local" 1
        issuerRef:
          name: ca-issuer
      ---
      apiVersion: cert-manager.io/v1
      kind: Certificate
      metadata:
        name: client
      spec:
        secretName: client-tls
        isCA: false
        usages:
          - server auth
          - client auth
        dnsNames:
        - "otel.observability.svc.cluster.local" 2
        issuerRef:
          name: ca-issuer
      1
      OpenTelemetry 수집기 인스턴스의 솔버에 매핑될 정확한 DNS 이름 목록입니다.
      2
      클라이언트 OpenTelemetry 수집기 인스턴스에서 솔버에 매핑될 정확한 DNS 이름 목록입니다.
  2. OpenTelemetry 수집기 인스턴스에 대한 서비스 계정을 생성합니다.

    서비스 계정의 예

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-deployment

  3. 서비스 계정에 대한 클러스터 역할을 생성합니다.

    클러스터 역할의 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector
    rules:
      1
      2
    - apiGroups: ["", "config.openshift.io"]
      resources: ["pods", "namespaces", "infrastructures", "infrastructures/status"]
      verbs: ["get", "watch", "list"]

    1
    k8sattributesprocessor 에는 Pod 및 네임스페이스 리소스에 대한 권한이 필요합니다.
    2
    resourcedetectionprocessor에는 인프라 및 상태에 대한 권한이 필요합니다.
  4. 클러스터 역할을 서비스 계정에 바인딩합니다.

    클러스터 역할 바인딩 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector
    subjects:
    - kind: ServiceAccount
      name: otel-collector-deployment
      namespace: otel-collector-<example>
    roleRef:
      kind: ClusterRole
      name: otel-collector
      apiGroup: rbac.authorization.k8s.io

  5. YAML 파일을 생성하여 엣지 클러스터에서 OpenTelemetryCollector CR(사용자 정의 리소스)을 정의합니다.

    엣지 클러스터에 대한 OpenTelemetryCollector 사용자 정의 리소스의 예

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
      namespace: otel-collector-<example>
    spec:
      mode: daemonset
      serviceAccount: otel-collector-deployment
      config: |
        receivers:
          jaeger:
            protocols:
              grpc: {}
              thrift_binary: {}
              thrift_compact: {}
              thrift_http: {}
          opencensus:
          otlp:
            protocols:
              grpc: {}
              http: {}
          zipkin: {}
        processors:
          batch: {}
          k8sattributes: {}
          memory_limiter:
            check_interval: 1s
            limit_percentage: 50
            spike_limit_percentage: 30
          resourcedetection:
            detectors: [openshift]
        exporters:
          otlphttp:
            endpoint: https://observability-cluster.com:443 1
            tls:
              insecure: false
              cert_file: /certs/server.crt
              key_file: /certs/server.key
              ca_file: /certs/ca.crt
        service:
          pipelines:
            traces:
              receivers: [jaeger, opencensus, otlp, zipkin]
              processors: [memory_limiter, k8sattributes, resourcedetection, batch]
              exporters: [otlp]
      volumes:
        - name: otel-certs
          secret:
            name: otel-certs
      volumeMounts:
        - name: otel-certs
          mountPath: /certs

    1
    수집기 내보내기는 OTLP HTTP를 내보내도록 구성되며 중앙 클러스터에서 OpenTelemetry 수집기를 가리킵니다.
  6. YAML 파일을 생성하여 중앙 클러스터에서 OpenTelemetryCollector CR(사용자 정의 리소스)을 정의합니다.

    중앙 클러스터에 대한 OpenTelemetryCollector 사용자 정의 리소스의 예

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otlp-receiver
      namespace: observability
    spec:
      mode: "deployment"
      ingress:
        type: route
        route:
          termination: "passthrough"
      config: |
        receivers:
          otlp:
            protocols:
              http:
                tls: 1
                  cert_file: /certs/server.crt
                  key_file: /certs/server.key
                  client_ca_file: /certs/ca.crt
        exporters:
          logging: {}
          otlp:
            endpoint: "tempo-<simplest>-distributor:4317" 2
            tls:
              insecure: true
        service:
          pipelines:
            traces:
              receivers: [otlp]
              processors: []
              exporters: [otlp]
      volumes:
        - name: otel-certs
          secret:
            name: otel-certs
      volumeMounts:
        - name: otel-certs
          mountPath: /certs

    1
    수집기 수신자는 첫 번째 단계에 나열된 인증서가 필요합니다.
    2
    수집기 내보내기는 OTLP를 내보내도록 구성되어 있으며 Tempo 배포자 끝점을 가리킵니다. 이 예제에서는 "tempo-simplest-distributor:4317" 이며 이미 생성되었습니다.

10장. 문제 해결

OpenTelemetry 수집기는 상태를 측정하고 데이터 수집 문제를 조사하는 여러 방법을 제공합니다.

10.1. OpenTelemetry 수집기 로그 가져오기

다음과 같이 OpenTelemetry 수집기의 로그를 가져올 수 있습니다.

프로세스

  1. OpenTelemetryCollector 사용자 정의 리소스(CR)에서 관련 로그 수준을 설정합니다.

      config: |
        service:
          telemetry:
            logs:
              level: debug 1
    1
    수집기의 로그 수준입니다. 지원되는 값에는 info,warn,error 또는 debug 가 있습니다. 기본값은 info 입니다.
  2. oc logs 명령 또는 웹 콘솔을 사용하여 로그를 검색합니다.

10.2. 메트릭 노출

OpenTelemetry 수집기는 처리된 데이터 볼륨에 대한 지표를 표시합니다. 다음 메트릭은 기간용이지만 메트릭 및 로그 신호에 대해 유사한 메트릭이 노출됩니다.

otelcol_receiver_accepted_spans
파이프라인에 성공적으로 푸시된 기간 수입니다.
otelcol_receiver_refused_spans
파이프라인에 푸시할 수 없는 기간 수입니다.
otelcol_exporter_sent_spans
대상에 성공적으로 전송된 기간 수입니다.
otelcol_exporter_enqueue_failed_spans
전송 대기열에 범위를 추가하지 못했습니다.

Operator는 메트릭 끝점을 스크랩하는 데 사용할 수 있는 < cr_name>-collector-monitoring 원격 분석 서비스를 생성합니다.

프로세스

  1. OpenTelemetryCollector CR(사용자 정의 리소스)에 다음 행을 추가하여 Telemetry 서비스를 활성화합니다.

    # ...
      config: |
        service:
          telemetry:
            metrics:
              address: ":8888" 1
    # ...
    1
    내부 수집기 지표가 노출되는 주소입니다. 기본값은 :8888 입니다.
  2. port-forwarding Collector Pod를 사용하는 다음 명령을 실행하여 지표를 검색합니다.

    $ oc port-forward <collector_pod>
  3. OpenTelemetryCollector CR에서 enableMetrics 필드를 true 로 설정하여 내부 메트릭을 스크랩합니다.

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    spec:
    # ...
      mode: deployment
      observability:
        metrics:
          enableMetrics: true
    # ...

    OpenTelemetry 수집기의 배포 모드에 따라 PodMonitor 또는 ServiceMonitor 를 사용하여 내부 메트릭이 스크랩됩니다.

    참고

    또는 enableMetrics 필드를 true 로 설정하지 않으면 http://localhost:8888/metrics 에서 메트릭 끝점에 액세스할 수 있습니다.

  4. 웹 콘솔 모니터링 페이지에서 User Workload Monitoring 을 활성화하여 스크랩된 메트릭을 시각화할 수 있습니다.

    참고

    모든 프로세서가 필요한 메트릭을 노출하는 것은 아닙니다.

  5. 웹 콘솔에서 모니터링 → 대시보드 로 이동하여 드롭다운 목록에서 OpenTelemetry 수집기 대시보드를 선택하여 확인합니다.

    작은 정보

    범위 또는 메트릭과 같은 시각화된 데이터는 프로세서, 수신자 또는 내보내기와 같은 수집기 인스턴스, 네임스페이스 또는 OpenTelemetry 구성 요소를 통해 필터링할 수 있습니다.

10.3. 디버그 내보내기

수집된 데이터를 표준 출력으로 내보내도록 디버그 내보내기를 구성할 수 있습니다.

프로세스

  1. 다음과 같이 OpenTelemetryCollector 사용자 정의 리소스를 구성합니다.

      config: |
        exporters:
          debug:
            verbosity: detailed
        service:
          pipelines:
            traces:
              exporters: [debug]
            metrics:
              exporters: [debug]
            logs:
              exporters: [debug]
  2. oc logs 명령 또는 웹 콘솔을 사용하여 로그를 표준 출력으로 내보냅니다.

11장. 마이그레이션

중요

Red Hat OpenShift distributed tracing platform(Jaeger)은 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.

OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.

애플리케이션에 Red Hat OpenShift distributed tracing Platform(Jaeger)을 이미 사용하고 있는 경우 OpenTelemetry 오픈 소스 프로젝트를 기반으로 하는 OpenTelemetry의 Red Hat 빌드로 마이그레이션할 수 있습니다.

Red Hat build of OpenTelemetry는 분산 시스템에서 관찰 기능을 용이하게 하는 API, 라이브러리, 에이전트 및 계측을 제공합니다. OpenTelemetry의 Red Hat 빌드의 OpenTelemetry 수집기는 Jaeger 프로토콜을 수집할 수 있으므로 애플리케이션의 SDK를 변경할 필요가 없습니다.

분산 추적 플랫폼(Jaeger)에서 OpenTelemetry 수집기로 Red Hat 빌드로 마이그레이션하려면 OpenTelemetry 수집기 및 애플리케이션이 추적을 원활하게 보고하도록 구성해야 합니다. 사이드카 및 사이드카 없는 배포를 마이그레이션할 수 있습니다.

11.1. 사이드카로 마이그레이션

Red Hat build of OpenTelemetry Operator는 배포 워크로드에 사이드카 삽입을 지원하므로 분산 추적 플랫폼(Jaeger) 사이드카에서 Red Hat 빌드의 OpenTelemetry 사이드카로 마이그레이션할 수 있습니다.

사전 요구 사항

  • Red Hat OpenShift 분산 추적 플랫폼(Jaeger)은 클러스터에서 사용됩니다.
  • Red Hat build of OpenTelemetry가 설치되어 있습니다.

프로세스

  1. OpenTelemetry 수집기를 사이드카로 구성합니다.

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
      namespace: <otel-collector-namespace>
    spec:
      mode: sidecar
      config: |
        receivers:
          jaeger:
            protocols:
              grpc: {}
              thrift_binary: {}
              thrift_compact: {}
              thrift_http: {}
        processors:
          batch: {}
          memory_limiter:
            check_interval: 1s
            limit_percentage: 50
            spike_limit_percentage: 30
          resourcedetection:
            detectors: [openshift]
            timeout: 2s
        exporters:
          otlp:
            endpoint: "tempo-<example>-gateway:8090" 1
            tls:
              insecure: true
        service:
          pipelines:
            traces:
              receivers: [jaeger]
              processors: [memory_limiter, resourcedetection, batch]
              exporters: [otlp]
    1
    이 끝점은 Tempo Operator를 사용하여 배포된 TempoStack 인스턴스의 게이트웨이를 <example> 가리킵니다.
  2. 애플리케이션 실행을 위한 서비스 계정을 생성합니다.

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-sidecar
  3. 일부 프로세서에 필요한 권한에 대한 클러스터 역할을 생성합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector-sidecar
    rules:
      1
    - apiGroups: ["config.openshift.io"]
      resources: ["infrastructures", "infrastructures/status"]
      verbs: ["get", "watch", "list"]
    1
    resourcedetectionprocessor에는 인프라 및 인프라/상태에 대한 권한이 필요합니다.
  4. ClusterRoleBinding 을 생성하여 서비스 계정에 대한 권한을 설정합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector-sidecar
    subjects:
    - kind: ServiceAccount
      name: otel-collector-deployment
      namespace: otel-collector-example
    roleRef:
      kind: ClusterRole
      name: otel-collector
      apiGroup: rbac.authorization.k8s.io
  5. OpenTelemetry Collector를 사이드카로 배포합니다.
  6. Deployment 오브젝트에서 "sidecar.jaegertracing.io/inject": "true" 주석을 제거하여 애플리케이션에서 삽입된 Jaeger 에이전트를 제거합니다.
  7. Deployment 오브젝트의 .spec.template.metadata.annotations 필드에 sidecar.opentelemetry.io/inject: "true" 주석을 추가하여 OpenTelemetry 사이드카 자동 삽입을 활성화합니다.
  8. 생성된 서비스 계정을 사용하여 애플리케이션이 배포되면 프로세서가 올바른 정보를 가져와서 추적에 추가할 수 있습니다.

11.2. 사이드카 없이 마이그레이션

사이드카 배포 없이 분산 추적 플랫폼(Jaeger)에서 OpenTelemetry의 Red Hat 빌드로 마이그레이션할 수 있습니다.

사전 요구 사항

  • Red Hat OpenShift 분산 추적 플랫폼(Jaeger)은 클러스터에서 사용됩니다.
  • Red Hat build of OpenTelemetry가 설치되어 있습니다.

프로세스

  1. OpenTelemetry 수집기 배포를 구성합니다.
  2. OpenTelemetry 수집기를 배포할 프로젝트를 생성합니다.

    apiVersion: project.openshift.io/v1
    kind: Project
    metadata:
      name: observability
  3. OpenTelemetry 수집기 인스턴스를 실행하기 위한 서비스 계정을 생성합니다.

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector-deployment
      namespace: observability
  4. 프로세서에 필요한 권한을 설정하는 클러스터 역할을 생성합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: otel-collector
    rules:
      1
      2
    - apiGroups: ["", "config.openshift.io"]
      resources: ["pods", "namespaces", "infrastructures", "infrastructures/status"]
      verbs: ["get", "watch", "list"]
    1
    k8sattributesprocessor에는 Podnamespaces 리소스에 대한 권한이 필요합니다.
    2
    resourcedetectionprocessor에는 infrastructuresinfrastructures/status에 대한 권한이 필요합니다.
  5. ClusterRoleBinding을 생성하여 서비스 계정에 대한 권한을 설정합니다.

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: otel-collector
    subjects:
    - kind: ServiceAccount
      name: otel-collector-deployment
      namespace: observability
    roleRef:
      kind: ClusterRole
      name: otel-collector
      apiGroup: rbac.authorization.k8s.io
  6. OpenTelemetry 수집기 인스턴스를 생성합니다.

    참고

    이 수집기는 추적을 TempoStack 인스턴스로 내보냅니다. Red Hat Tempo Operator를 사용하여 TempoStack 인스턴스를 생성하고 여기에 올바른 끝점을 배치해야 합니다.

    apiVersion: opentelemetry.io/v1alpha1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
      namespace: observability
    spec:
      mode: deployment
      serviceAccount: otel-collector-deployment
      config: |
        receivers:
          jaeger:
            protocols:
              grpc: {}
              thrift_binary: {}
              thrift_compact: {}
              thrift_http: {}
        processors:
          batch: {}
          k8sattributes:
          memory_limiter:
            check_interval: 1s
            limit_percentage: 50
            spike_limit_percentage: 30
          resourcedetection:
            detectors: [openshift]
        exporters:
          otlp:
            endpoint: "tempo-example-gateway:8090"
            tls:
              insecure: true
        service:
          pipelines:
            traces:
              receivers: [jaeger]
              processors: [memory_limiter, k8sattributes, resourcedetection, batch]
              exporters: [otlp]
  7. 추적 끝점을 OpenTelemetry Operator를 가리킵니다.
  8. 애플리케이션에서 직접 추적을 Jaeger로 내보내는 경우 API 끝점을 Jaeger 끝점에서 OpenTelemetry 수집기 끝점으로 변경합니다.

    Golang에서 jaegerexporter 를 사용하여 추적 내보내기 예

    exp, err := jaeger.New(jaeger.WithCollectorEndpoint(jaeger.WithEndpoint(url))) 1

    1
    URL은 OpenTelemetry 수집기 API 끝점을 가리킵니다.

12장. 업그레이드

버전 업그레이드의 경우 Red Hat build of OpenTelemetry Operator는 OLM(Operator Lifecycle Manager)을 사용하여 클러스터에서 Operator의 설치, 업그레이드 및 역할 기반 액세스 제어(RBAC)를 제어합니다.

OLM은 기본적으로 OpenShift Container Platform에서 실행됩니다. 사용 가능한 Operator 및 설치된 Operator의 업그레이드에 대한 OLM 쿼리입니다.

Red Hat build of OpenTelemetry Operator가 새 버전으로 업그레이드되면 관리하는 OpenTelemetry Collector 인스턴스를 검사하고 Operator의 새 버전에 해당하는 버전으로 업그레이드합니다.

12.1. 추가 리소스

13장. 제거 중

OpenShift Container Platform 클러스터에서 OpenTelemetry의 Red Hat 빌드를 제거하는 단계는 다음과 같습니다.

  1. OpenTelemetry Pod의 모든 Red Hat 빌드를 종료합니다.
  2. OpenTelemetryCollector 인스턴스를 제거합니다.
  3. OpenTelemetry Operator의 Red Hat 빌드를 제거합니다.

13.1. 웹 콘솔을 사용하여 OpenTelemetry 수집기 인스턴스 제거

웹 콘솔의 관리자 보기에서 OpenTelemetry 수집기 인스턴스를 제거할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자로 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할의 계정을 사용하여 로그인해야 합니다.

프로세스

  1. Operators설치된 OperatorsRed Hat build of OpenTelemetry OperatorOpenTelemetryInstrumentation 또는 OpenTelemetryCollector 로 이동합니다.
  2. 관련 인스턴스를 제거하려면 kebabDelete …​ → Delete 를 선택합니다.
  3. 선택 사항: OpenTelemetry Operator의 Red Hat 빌드를 제거합니다.

13.2. CLI를 사용하여 OpenTelemetry 수집기 인스턴스 제거

명령줄에서 OpenTelemetry 수집기 인스턴스를 제거할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 을 실행합니다.

      $ oc login --username=<your_username>

프로세스

  1. 다음 명령을 실행하여 OpenTelemetry 수집기 인스턴스의 이름을 가져옵니다.

    $ oc get deployments -n <project_of_opentelemetry_instance>
  2. 다음 명령을 실행하여 OpenTelemetry 수집기 인스턴스를 제거합니다.

    $ oc delete opentelemetrycollectors <opentelemetry_instance_name> -n <project_of_opentelemetry_instance>
  3. 선택 사항: OpenTelemetry Operator의 Red Hat 빌드를 제거합니다.

검증

  • OpenTelemetry 수집기 인스턴스가 성공적으로 제거되었는지 확인하려면 oc get deployment를 다시 실행합니다.

    $ oc get deployments -n <project_of_opentelemetry_instance>

13.3. 추가 리소스

법적 공지

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.