분산 추적


OpenShift Container Platform 4.19

OpenShift Container Platform에서 분산 추적 구성 및 사용

Red Hat OpenShift Documentation Team

초록

분산 추적을 사용하여 OpenShift Container Platform의 분산 시스템을 통과하는 마이크로서비스 트랜잭션을 저장, 분석 및 시각화합니다.

1장. Red Hat OpenShift Distributed Tracing Platform 3.7 릴리스 노트

1.1. 릴리스 정보

Distributed Tracing Platform 3.7은 Tempo Operator 0.18.0을 통해 제공되며 오픈 소스 Grafana Tempo 2.8.2를 기반으로 합니다.

참고

일부 연결된 Jira 티켓은 Red Hat 자격 증명으로만 접근할 수 있습니다.

참고

지원되는 기능만 문서화되어 있습니다. 문서화되지 않은 기능은 현재 지원되지 않습니다. 기능에 대한 도움이 필요하면 Red Hat 지원팀에 문의하세요.

1.2. 새로운 기능 및 개선 사항

API 액세스를 제한하는 네트워크 정책
이 업데이트를 통해 Tempo Operator는 사용된 API에 대한 액세스를 제한하는 네트워크 정책을 생성합니다.

1.3. 확인된 문제

Tempo 쿼리 프런트엔드가 추적 JSON을 가져오지 못했습니다.

Jaeger UI에서 추적을 클릭하고 페이지를 새로 고치거나 Tempo 쿼리 프런트엔드에서 추적추적 타임라인추적 JSON 에 액세스하면 Tempo 쿼리 포드가 EOF 오류로 실패할 수 있습니다.

이 문제를 해결하려면 분산 추적 UI 플러그인을 사용하여 추적을 확인하세요.

추적-5483

1.4. 해결된 문제

이 릴리스에서는 다음 CVE가 수정되었습니다.

1.5. 지원 요청

이 문서에 설명된 절차 또는 일반적으로 OpenShift Container Platform에 문제가 발생하는 경우 Red Hat 고객 포털에 액세스하십시오.

고객 포털에서 다음을 수행할 수 있습니다.

  • Red Hat 제품과 관련된 기사 및 솔루션에 대한 Red Hat 지식베이스를 검색하거나 살펴볼 수 있습니다.
  • Red Hat 지원에 대한 지원 케이스 제출할 수 있습니다.
  • 다른 제품 설명서에 액세스 가능합니다.

클러스터의 문제를 식별하려면 OpenShift Cluster Manager 의 Insights를 사용할 수 있습니다. Insights는 문제에 대한 세부 정보 및 문제 해결 방법에 대한 정보를 제공합니다.

이 문서를 개선하기 위한 제안이 있거나 오류를 발견한 경우, 가장 관련성 있는 문서 구성 요소에 대한 Jira 이슈를 제출하세요. 섹션 이름 및 OpenShift Container Platform 버전과 같은 구체적인 정보를 제공합니다.

2장. 분산 추적 플랫폼에 대하여

2.1. 분산 추적의 핵심 개념

사용자가 애플리케이션에서 작업을 수행할 때마다 응답을 생성하기 위해 참여하도록 다양한 서비스를 필요로 할 수 있는 아키텍처에 의해 요청이 실행됩니다. Red Hat OpenShift Distributed Tracing Platform을 사용하면 애플리케이션을 구성하는 다양한 마이크로서비스를 통한 요청 경로를 기록하는 분산 추적을 수행할 수 있습니다.

분산 추적은 분산 트랜잭션에 있는 전체 이벤트 체인을 이해하기 위해 일반적으로 다양한 프로세스 또는 호스트에서 실행되는 다양한 작업 단위에 대한 정보를 결합하는 데 사용되는 기술입니다. 개발자는 분산 추적을 사용하여 대규모 마이크로 서비스 아키텍처에서 호출 흐름을 시각화할 수 있습니다. 직렬화, 병렬 처리 및 대기 시간 소스를 이해하는 데 유용합니다.

Red Hat OpenShift Distributed Tracing Platform은 마이크로서비스 스택 전체에서 개별 요청의 실행을 기록하고 이를 추적으로 표시합니다. 추적은 시스템을 통한 데이터/실행 경로입니다. 엔드투엔드 추적은 하나 이상의 스팬으로 구성됩니다.

스팬은 작업 이름, 작업 시작 시간, 기간은 물론 태그와 로그를 포함하는 Red Hat OpenShift Distributed Tracing Platform의 논리적 작업 단위를 나타냅니다. 기간은 중첩되어 인과 관계를 모델링하도록 주문될 수 있습니다.

서비스 소유자로서 분산 추적을 사용하여 서비스 아키텍처에 대한 정보를 수집하도록 서비스를 조정할 수 있습니다. Red Hat OpenShift Distributed Tracing Platform을 사용하면 최신 클라우드 네이티브 마이크로서비스 기반 애플리케이션에서 구성 요소 간 상호 작용을 모니터링하고, 네트워크 프로파일링하고, 문제를 해결할 수 있습니다.

분산 추적 플랫폼을 사용하면 다음 기능을 수행할 수 있습니다.

  • 분산 트랜잭션 모니터링
  • 성능 및 대기 시간 최적화
  • 근본 원인 분석 수행

Distributed Tracing Platform을 OpenShift Container Platform의 다른 관련 구성 요소와 결합할 수 있습니다.

  • TempoStack 인스턴스로 추적을 전달하기 위한 OpenTelemetry의 Red Hat 빌드
  • 클러스터 관찰성 운영자(COO)의 분산 추적 UI 플러그인

2.2. Red Hat OpenShift 분산 추적 플랫폼 기능

Red Hat OpenShift Distributed Tracing Platform은 다음과 같은 기능을 제공합니다.

  • Kiali와 통합 – 올바르게 구성하면 Kiali 콘솔에서 분산 추적 플랫폼 데이터를 볼 수 있습니다.
  • 높은 확장성 – 분산 추적 플랫폼 백엔드는 단일 장애 지점이 없도록 설계되었으며 비즈니스 요구 사항에 따라 확장 가능합니다.
  • 분산 컨텍스트 전파 - 다양한 구성 요소의 데이터를 함께 연결하여 완전한 엔드 투 엔드 추적을 만들 수 있습니다.
  • Zipkin과의 하위 호환성 – Red Hat OpenShift Distributed Tracing Platform에는 Zipkin을 바로 대체할 수 있는 API가 있지만, Red Hat은 이 릴리스에서 Zipkin과의 호환성을 지원하지 않습니다.

2.3. Red Hat OpenShift 분산 추적 플랫폼 아키텍처

Red Hat OpenShift Distributed Tracing Platform은 추적 데이터를 수집, 저장, 표시하기 위해 함께 작동하는 여러 구성 요소로 이루어져 있습니다.

  • Red Hat OpenShift 분산 추적 플랫폼 - 이 구성 요소는 오픈 소스 Grafana Tempo 프로젝트를 기반으로 합니다.

    • 게이트웨이는 인증, 권한 부여 및 요청을 배포 또는 쿼리 프런트 엔드 서비스로 처리합니다.
    • 배포자 - 배포자는 Jaeger, OpenTelemetry 및 Zipkin을 비롯한 여러 형식으로 기간을 허용합니다. 이 경로는 traceID 를 해시하고 분산 일관된 해시 링을 사용하여 Ingesters로 구성됩니다.
    • Ingester - Ingester는 추적을 블록으로 배치하고, bloom 필터와 인덱스를 생성한 다음 모두 백엔드로 플러시합니다.
    • 쿼리 프런트 엔드 - 쿼리 프런트 엔드는 들어오는 쿼리에 대한 검색 공간을 분할합니다. 그런 다음 검색 쿼리가 Queriers로 전송됩니다. 쿼리 프런트 엔드 배포는 Tempo 쿼리 사이드카를 통해 Jaeger UI를 노출합니다.
    • Querier - Querier는 Ingesters 또는 백엔드 스토리지에서 요청된 추적 ID를 찾을 책임이 있습니다. 매개변수에 따라 Ingesters를 쿼리하고 백엔드에서 오브젝트 스토리지의 검색 블록으로 Ingesters를 가져올 수 있습니다.
    • Cryo stator - 백엔드 스토리지로 또는 백엔드 스토리지에서 차단하여 총 블록 수를 줄입니다.
  • OpenTelemetry의 Red Hat 빌드 - 이 구성 요소는 오픈 소스 OpenTelemetry 프로젝트를 기반으로 합니다.

    • OpenTelemetry Collector - OpenTelemetry 수집기는 원격 분석 데이터를 수신, 처리 및 내보내는 벤더와 무관한 방법입니다. OpenTelemetry 수집기는 오픈 소스 관찰 기능 데이터 형식(예: Jaeger 및 Prometheus)을 지원하여 하나 이상의 오픈 소스 또는 상용 백엔드로 전송합니다. 수집기는 원격 분석 데이터를 내보내는 기본 위치 조정 라이브러리입니다.
  • Red Hat OpenShift Distributed Tracing Platform(Jaeger) - 이 구성 요소는 오픈 소스 Jaeger 프로젝트를 기반으로 합니다.

    중요

    Red Hat OpenShift Distributed Tracing Platform(Jaeger)은 더 이상 지원되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.

    Red Hat OpenShift Distributed Tracing Platform Operator(Jaeger)는 향후 릴리스에서 redhat-operators 카탈로그에서 제거될 예정입니다. 자세한 내용은 Red Hat Knowledgebase 솔루션인 Jaeger Deprecation and Removal in OpenShift를 참조하세요.

    사용자는 분산 추적 수집 및 저장을 위해 Tempo Operator와 OpenTelemetry의 Red Hat 빌드로 마이그레이션해야 합니다.

    OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.

    • 클라이언트 (Jaeger 클라이언트, Tracer, Reporter, 계측화된 애플리케이션, 클라이언트 라이브러리)- Distributed Tracing Platform(Jaeger) 클라이언트는 OpenTracing API의 언어별 구현입니다. 이러한 프레임워크는 Camel(Fuse), Spring Boot(RHOAR), MicroProfile(RHOAR/Thorntail), Wildfly(EAP) 등과 같이 이미 OpenTracing과 통합된 다양한 기존 오픈 소스 프레임워크를 사용하거나 수동으로 분산 추적을 위한 애플리케이션을 계측하는 데 사용될 수 있습니다.
    • 에이전트 (Jaeger 에이전트, 서버 큐, 프로세서 워커) - 분산 추적 플랫폼(Jaeger) 에이전트는 사용자 데이터그램 프로토콜(UDP)을 통해 전송된 스팬을 수신하고 이를 일괄 처리하여 수집기로 전송하는 네트워크 데몬입니다. 에이전트는 조정된 애플리케이션과 동일한 호스트에 배치되어야 합니다. 일반적으로 Kubernetes와 같은 컨테이너 환경에서 사이드카를 보유하여 수행됩니다.
    • Jaeger 수집기 (Collector, Queue, Workers) - Jaeger 에이전트와 유사하게 Jaeger 수집기는 기간을 수신하여 처리를 위해 내부 큐에 배치합니다. 이를 통해 Jaeger 수집기는 기간이 스토리지로 이동할 때까지 기다리지 않고 클라이언트/에이전트로 즉시 돌아갈 수 있습니다.
    • 스토리지(데이터 저장소) - 수집기에는 영구 스토리지 백엔드가 필요합니다. Red Hat OpenShift Distributed Tracing Platform(Jaeger)에는 SPAN 스토리지를 위한 플러그형 메커니즘이 있습니다. Red Hat OpenShift Distributed Tracing Platform(Jaeger)은 Elasticsearch 스토리지를 지원합니다.
    • 쿼리(쿼리 서비스) - 쿼리는 스토리지에서 추적을 검색하는 서비스입니다.
    • Ingester (Ingester 서비스) - Red Hat OpenShift Distributed Tracing Platform은 Apache Kafka를 Collector와 실제 Elasticsearch 백업 스토리지 사이의 버퍼로 사용할 수 있습니다. Ingester는 Kafka에서 데이터를 읽고 Elasticsearch 스토리지 백엔드에 쓰는 서비스입니다.
    • Jaeger 콘솔 – Red Hat OpenShift Distributed Tracing Platform(Jaeger) 사용자 인터페이스를 사용하면 분산 추적 데이터를 시각화할 수 있습니다. 검색 페이지에서 추적을 찾고 개별 추적을 구성하는 기간의 세부 사항을 확인할 수 있습니다.

3장. 분산 추적 플랫폼 설치

작은 정보

더 이상 지원되지 않는 Distributed Tracing Platform(Jaeger)을 설치하는 방법에 대한 자세한 내용은 Distributed Tracing Platform(Jaeger) 설명서에서 설치를 참조하세요.

분산 추적 플랫폼을 설치하는 단계는 다음과 같습니다.

  1. Tempo Operator 설치합니다.
  2. 지원되는 개체 저장소를 설정하고 개체 저장소 자격 증명에 대한 비밀을 생성합니다.
  3. 권한 및 테넌트 구성.
  4. 사용 사례에 따라 배포를 선택하여 설치합니다.

    • 마이크로서비스 모드 TempoStack 인스턴스
    • 모놀리식 모드 TempoMonolithic 인스턴스

3.1. Tempo Operator 설치

웹 콘솔이나 명령줄을 사용하여 Tempo Operator를 설치할 수 있습니다.

3.1.1. 웹 콘솔을 사용하여 Tempo Operator 설치

웹 콘솔의 관리자 보기에서 Tempo Operator를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할이 있는 계정을 사용하여 로그인해야 합니다.
  • 지원되는 공급자 (Red Hat OpenShift Data Foundation , MinIO , Amazon S3 , Azure Blob Storage , Google Cloud Storage) 를 통해 필요한 개체 스토리지를 설정하는 작업을 완료했습니다. 자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    주의

    개체 스토리지는 필수이지만 분산 추적 플랫폼에 포함되어 있지 않습니다. Distributed Tracing Platform을 설치하기 전에 지원되는 공급자의 개체 스토리지를 선택하고 설정해야 합니다.

프로세스

  1. OperatorsOperatorHub 로 이동하여 Tempo Operator 를 검색합니다.
  2. Red Hat에서 제공하는 Tempo Operator를 선택하세요.

    중요

    다음 선택 사항은 이 연산자에 대한 기본 사전 설정입니다.

    • 업데이트 채널stable
    • 설치 모드클러스터의 모든 네임스페이스
    • 설치된 네임스페이스openshift-tempo-operator
    • 업데이트 승인자동
  3. 이 네임스페이스에서 운영자가 권장하는 클러스터 모니터링을 활성화하는 옵션을 선택합니다.
  4. 설치 → 설치 Operator 보기를 선택합니다.

검증

  • 설치된 Operator 페이지의 세부 정보 탭에서 ClusterServiceVersion 세부 정보에서 설치 상태Succeeded인지 확인합니다.

3.1.2. CLI를 사용하여 Tempo Operator 설치

명령줄에서 Tempo Operator를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 을 실행합니다.

      $ oc login --username=<your_username>
      Copy to Clipboard Toggle word wrap
  • 지원되는 공급자 (Red Hat OpenShift Data Foundation , MinIO , Amazon S3 , Azure Blob Storage , Google Cloud Storage) 를 통해 필요한 개체 스토리지를 설정하는 작업을 완료했습니다. 자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    주의

    개체 스토리지는 필수이지만 분산 추적 플랫폼에 포함되어 있지 않습니다. Distributed Tracing Platform을 설치하기 전에 지원되는 공급자의 개체 스토리지를 선택하고 설정해야 합니다.

프로세스

  1. 다음 명령을 실행하여 Tempo Operator에 대한 프로젝트를 생성합니다.

    $ oc apply -f - << EOF
    apiVersion: project.openshift.io/v1
    kind: Project
    metadata:
      labels:
        kubernetes.io/metadata.name: openshift-tempo-operator
        openshift.io/cluster-monitoring: "true"
      name: openshift-tempo-operator
    EOF
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 운영자 그룹을 만듭니다.

    $ oc apply -f - << EOF
    apiVersion: operators.coreos.com/v1
    kind: OperatorGroup
    metadata:
      name: openshift-tempo-operator
      namespace: openshift-tempo-operator
    spec:
      upgradeStrategy: Default
    EOF
    Copy to Clipboard Toggle word wrap
  3. 다음 명령을 실행하여 서브스크립션을 생성합니다.

    $ oc apply -f - << EOF
    apiVersion: operators.coreos.com/v1alpha1
    kind: Subscription
    metadata:
      name: tempo-product
      namespace: openshift-tempo-operator
    spec:
      channel: stable
      installPlanApproval: Automatic
      name: tempo-product
      source: redhat-operators
      sourceNamespace: openshift-marketplace
    EOF
    Copy to Clipboard Toggle word wrap

검증

  • 다음 명령을 실행하여 운영자 상태를 확인하세요.

    $ oc get csv -n openshift-tempo-operator
    Copy to Clipboard Toggle word wrap

3.2. 개체 스토리지 설정

지원되는 개체 스토리지를 설정할 때 다음 구성 매개변수를 사용할 수 있습니다.

중요

개체 저장소를 사용하려면 지원되는 개체 저장소를 설정하고 TempoStack 또는 TempoMonolithic 인스턴스를 배포하기 전에 개체 저장소 자격 증명에 대한 비밀을 생성해야 합니다.

Expand
표 3.1. 필수 시크릿 매개변수
스토리지 공급자

시크릿 매개변수

Red Hat OpenShift 데이터 파운데이션

name: tempostack-dev-odf # example

bucket: <bucket_name> # requires an ObjectBucketClaim

endpoint: https://s3.openshift-storage.svc

access_key_id: <data_foundation_access_key_id>

access_key_secret: <data_foundation_access_key_secret>

MinIO

MinIO Operator 를 참조하십시오.

name: tempostack-dev-minio # example

bucket: <minio_bucket_name> # MinIO documentation

endpoint: <minio_bucket_endpoint>

access_key_id: <minio_access_key_id>

access_key_secret: <minio_access_key_secret>

Amazon S3

name: tempostack-dev-s3 # example

bucket: <s3_bucket_name> # Amazon S3 documentation

endpoint: <s3_bucket_endpoint>

access_key_id: <s3_access_key_id>

access_key_secret: <s3_access_key_secret>

보안 토큰 서비스(STS)가 포함된 Amazon S3

name: tempostack-dev-s3 # example

bucket: <s3_bucket_name> # Amazon S3 documentation

region: <s3_region>

role_arn: <s3_role_arn>

Microsoft Azure Blob Storage

name: tempostack-dev-azure # example

container: <azure_blob_storage_container_name> # Microsoft Azure documentation

account_name: <azure_blob_storage_account_name>

account_key: <azure_blob_storage_account_key>

GCP(Google Cloud Platform)의 Google Cloud Storage

name: tempostack-dev-gcs # example

bucketname: <google_cloud_storage_bucket_name> # requires a bucket created in a GCP project

key.json: <path/to/key.json> # requires a service account in the bucket’s GCP project for GCP authentication

3.2.1. 보안 토큰 서비스를 사용하여 Amazon S3 스토리지 설정

보안 토큰 서비스(STS)와 AWS 명령줄 인터페이스(AWS CLI)를 사용하여 Amazon S3 스토리지를 설정할 수 있습니다. 선택적으로 CCO(Cloud Credential Operator)를 사용할 수도 있습니다.

중요

Amazon S3 스토리지 및 STS와 함께 분산 추적 플랫폼을 사용하는 것은 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

사전 요구 사항

  • AWS CLI의 최신 버전을 설치했습니다.
  • CCO를 사용하려면 클러스터에 CCO를 설치하고 구성해야 합니다.

프로세스

  1. AWS S3 버킷을 생성합니다.
  2. 다음 단계에서 생성할 AWS IAM 역할과 TempoStack 또는 TempoMonolithic 인스턴스의 서비스 계정 간에 신뢰 관계(trust relationship)를 설정하기 위해, AWS Identity and Access Management (AWS IAM) 정책용 trust.json 파일을 다음과 같이 생성하십시오.

    trust.json

    {
        "Version": "2012-10-17",
        "Statement": [
          {
            "Effect": "Allow",
            "Principal": {
              "Federated": "arn:aws:iam::<aws_account_id>:oidc-provider/<oidc_provider>" 
    1
    
            },
            "Action": "sts:AssumeRoleWithWebIdentity",
            "Condition": {
              "StringEquals": {
                "<oidc_provider>:sub": [
                  "system:serviceaccount:<openshift_project_for_tempo>:tempo-<tempo_custom_resource_name>" 
    2
    
                  "system:serviceaccount:<openshift_project_for_tempo>:tempo-<tempo_custom_resource_name>-query-frontend"
               ]
             }
           }
         }
        ]
    }
    Copy to Clipboard Toggle word wrap

    1
    OpenShift Container Platform에서 구성한 OpenID Connect(OIDC) 공급자입니다.
    2
    TempoStack 또는 TempoMonolithic 인스턴스를 생성하려는 네임스페이스입니다. <tempo_custom_resource_name>TempoStack 또는 TempoMonolithic 사용자 정의 리소스에 정의한 metadata 이름으로 바꿉니다.
    작은 정보

    다음 명령을 실행하여 OIDC 공급자의 값을 얻을 수도 있습니다.

    $ oc get authentication cluster -o json | jq -r '.spec.serviceAccountIssuer' | sed 's~http[s]*://~~g'
    Copy to Clipboard Toggle word wrap
  3. 생성된 trust.json 정책 파일을 첨부하여 AWS IAM 역할을 생성합니다. 다음 명령을 실행하면 됩니다.

    $ aws iam create-role \
          --role-name "tempo-s3-access" \
          --assume-role-policy-document "file:///tmp/trust.json" \
          --query Role.Arn \
          --output text
    Copy to Clipboard Toggle word wrap
  4. 생성된 AWS IAM 역할에 AWS IAM 정책을 연결합니다. 다음 명령을 실행하면 됩니다.

    $ aws iam attach-role-policy \
          --role-name "tempo-s3-access" \
          --policy-arn "arn:aws:iam::aws:policy/AmazonS3FullAccess"
    Copy to Clipboard Toggle word wrap
  5. CCO를 사용하지 않는 경우 이 단계를 건너뛰세요. CCO를 사용하는 경우 Tempo Operator에 대한 클라우드 공급자 환경을 구성하세요. 다음 명령을 실행하면 됩니다.

    $ oc patch subscription <tempo_operator_sub> \ 
    1
    
              -n <tempo_operator_namespace> \ 
    2
    
              --type='merge' -p '{"spec": {"config": {"env": [{"name": "ROLEARN", "value": "'"<role_arn>"'"}]}}}' 
    3
    Copy to Clipboard Toggle word wrap
    1
    Tempo Operator 서브스크립션의 이름입니다.
    2
    Tempo Operator의 네임스페이스입니다.
    3
    AWS STS에서는 Tempo Operator 서브스크립션에 ROLEARN 환경 변수를 추가해야 합니다. <role_arn> 값으로 3단계에서 생성한 AWS IAM 역할의 Amazon 리소스 이름(ARN)을 추가합니다.
  6. OpenShift 컨테이너 플랫폼에서 다음과 같이 키를 사용하여 개체 저장소 비밀을 만듭니다.

    apiVersion: v1
    kind: Secret
    metadata:
      name: <secret_name>
    stringData:
      bucket: <s3_bucket_name>
      region: <s3_region>
      role_arn: <s3_role_arn>
    type: Opaque
    Copy to Clipboard Toggle word wrap
  7. 개체 저장소 시크릿이 생성되면 다음과 같이 Distributed Tracing Platform 인스턴스의 관련 사용자 지정 리소스를 업데이트합니다.

    TempoStack 사용자 정의 리소스 예시

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: <name>
      namespace: <namespace>
    spec:
    # ...
      storage:
        secret: 
    1
    
          name: <secret_name>
          type: s3
          credentialMode: token-cco 
    2
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 시크릿입니다.
    2
    CCO를 사용하지 않는 경우 이 줄을 생략하세요. CCO를 사용하는 경우 token-cco 값과 함께 이 매개변수를 추가하세요.

    TempoMonolithic 사용자 정의 리소스 예시

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoMonolithic
    metadata:
      name: <name>
      namespace: <namespace>
    spec:
    # ...
      storage:
        traces:
          backend: s3
          s3:
            secret: <secret_name> 
    1
    
            credentialMode: token-cco 
    2
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 시크릿입니다.
    2
    CCO를 사용하지 않는 경우 이 줄을 생략하세요. CCO를 사용하는 경우 token-cco 값과 함께 이 매개변수를 추가하세요.

3.2.2. 보안 토큰 서비스를 사용하여 Azure 저장소 설정

Azure 명령줄 인터페이스(Azure CLI)를 사용하여 보안 토큰 서비스(STS)로 Azure 저장소를 설정할 수 있습니다.

중요

Azure 저장소 및 STS와 함께 분산 추적 플랫폼을 사용하는 것은 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

사전 요구 사항

  • Azure CLI의 최신 버전을 설치했습니다.
  • Azure 스토리지 계정을 만들었습니다.
  • Azure Blob 스토리지 컨테이너를 만들었습니다.

프로세스

  1. 다음 명령을 실행하여 Azure 관리 ID를 만듭니다.

    $ az identity create \
      --name <identity_name> \ 
    1
    
      --resource-group <resource_group> \ 
    2
    
      --location <region> \ 
    3
    
      --subscription <subscription_id> 
    4
    Copy to Clipboard Toggle word wrap
    1
    관리되는 ID에 대해 선택한 이름입니다.
    2
    ID를 만들려는 Azure 리소스 그룹입니다.
    3
    Azure 지역은 리소스 그룹과 동일한 지역이어야 합니다.
    4
    Azure 서브스크립션 ID입니다.
  2. Query Frontend를 제외한 Distributed Tracing Platform의 모든 컴포넌트에서 사용할 수 있도록, OpenShift Container Platform 서비스 계정에 대한 페더레이션 ID 자격 증명을 생성하십시오. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.

    $ az identity federated-credential create \ 
    1
    
      --name <credential_name> \ 
    2
    
      --identity-name <identity_name> \
      --resource-group <resource_group> \
      --issuer <oidc_provider> \ 
    3
    
      --subject <tempo_service_account_subject> \ 
    4
    
      --audiences <audience> 
    5
    Copy to Clipboard Toggle word wrap
    1
    페더레이션 ID 자격 증명을 사용하면 OpenShift Container Platform 서비스 계정에서 시크릿을 저장하거나 Azure 서비스 주체 ID를 사용하지 않고도 Azure 관리 ID로 인증할 수 있습니다.
    2
    페더레이션 자격 증명에 대해 선택한 이름입니다.
    3
    클러스터에 대한 OpenID Connect(OIDC) 공급자의 URL입니다.
    4
    다음 형식을 따르는 클러스터의 서비스 계정 주체: system:serviceaccount:<namespace>:tempo-<tempostack_instance_name> .
    5
    페더레이션 ID 자격 증명을 위해 발급된 토큰의 유효성을 검사하는 데 사용될 예상 대상입니다. 일반적으로 이는 api://AzureADTokenExchange 로 설정됩니다.
    작은 정보

    다음 명령을 실행하면 클러스터의 OpenID Connect(OIDC) 발급자의 URL을 얻을 수 있습니다.

    $ oc get authentication cluster -o json | jq -r .spec.serviceAccountIssuer
    Copy to Clipboard Toggle word wrap
  3. Distributed Tracing Platform의 Query Frontend 구성 요소에서 사용할 OpenShift Container Platform 서비스 계정에 대한 페더레이션 ID 자격 증명을 만듭니다. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.

    $ az identity federated-credential create \ 
    1
    
      --name <credential_name>-frontend \ 
    2
    
      --identity-name <identity_name> \
      --resource-group <resource_group> \
      --issuer <cluster_issuer> \
      --subject <tempo_service_account_query_frontend_subject> \ 
    3
    
      --audiences <audience> | jq
    Copy to Clipboard Toggle word wrap
    1
    페더레이션 ID 자격 증명을 사용하면 OpenShift Container Platform 서비스 계정에서 시크릿을 저장하거나 Azure 서비스 주체 ID를 사용하지 않고도 Azure 관리 ID로 인증할 수 있습니다.
    2
    프런트엔드 페더레이션 ID 자격 증명에 대해 선택한 이름입니다.
    3
    다음 형식을 따르는 클러스터의 서비스 계정 주체: system:serviceaccount:<namespace>:tempo-<tempostack_instance_name> .
  4. 생성된 Azure 관리 ID의 Azure 서비스 주체 ID에 Storage Blob Data Contributor 역할을 할당합니다. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.

    $ az role assignment create \
      --assignee <assignee_name> \ 
    1
    
      --role "Storage Blob Data Contributor" \
      --scope "/subscriptions/<subscription_id>
    Copy to Clipboard Toggle word wrap
    1
    1단계에서 만든 Azure 관리 ID의 Azure 서비스 주체 ID입니다.
    작은 정보

    다음 명령을 실행하면 <assignee_name> 값을 얻을 수 있습니다.

    $ az ad sp list --all --filter "servicePrincipalType eq 'ManagedIdentity'" | jq -r --arg idName <identity_name> '.[] | select(.displayName == $idName) | .appId'`
    Copy to Clipboard Toggle word wrap
  5. 1단계에서 만든 Azure 관리 ID의 클라이언트 ID를 가져옵니다.

    CLIENT_ID=$(az identity show \
      --name <identity_name> \ 
    1
    
      --resource-group <resource_group> \ 
    2
    
      --query clientId \
      -o tsv)
    Copy to Clipboard Toggle word wrap
    1
    1단계의 <identity_name> 값을 복사하여 붙여넣습니다.
    2
    1단계의 <resource_group> 값을 복사하여 붙여넣습니다.
  6. Azure 워크로드 ID 페더레이션(WIF)에 대한 OpenShift Container Platform 시크릿을 만듭니다. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.

    $ oc create -n <tempo_namespace> secret generic azure-secret \
      --from-literal=container=<azure_storage_azure_container> \ 
    1
    
      --from-literal=account_name=<azure_storage_azure_accountname> \ 
    2
    
      --from-literal=client_id=<client_id> \ 
    3
    
      --from-literal=audience=<audience> \ 
    4
    
      --from-literal=tenant_id=<tenant_id> 
    5
    Copy to Clipboard Toggle word wrap
    1
    Azure Blob Storage 컨테이너의 이름입니다.
    2
    Azure Storage 계정의 이름입니다.
    3
    이전 단계에서 가져온 관리 ID의 클라이언트 ID입니다.
    4
    선택 사항: 기본값은 api://AzureADTokenExchange 입니다.
    5
    Azure Tenant ID.
  7. 개체 저장소 시크릿이 생성되면 다음과 같이 Distributed Tracing Platform 인스턴스의 관련 사용자 지정 리소스를 업데이트합니다.

    TempoStack 사용자 정의 리소스 예시

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: <name>
      namespace: <namespace>
    spec:
    # ...
      storage:
        secret: 
    1
    
          name: <secret_name>
          type: azure
    # ...
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 시크릿입니다.

    TempoMonolithic 사용자 정의 리소스 예시

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoMonolithic
    metadata:
      name: <name>
      namespace: <namespace>
    spec:
    # ...
      storage:
        traces:
          backend: azure
          azure:
            secret: <secret_name> 
    1
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 시크릿입니다.

3.2.3. 보안 토큰 서비스를 사용하여 Google Cloud 스토리지 설정

Google Cloud CLI를 사용하여 보안 토큰 서비스(STS)로 Google Cloud Storage(GCS)를 설정할 수 있습니다.

중요

GCS 및 STS와 함께 분산 추적 플랫폼을 사용하는 것은 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

사전 요구 사항

  • Google Cloud CLI의 최신 버전을 설치했습니다.

프로세스

  1. Google Cloud Platform(GCP)에서 GCS 버킷을 만듭니다.
  2. Google의 Identity and Access Management(IAM)를 사용하여 서비스 계정을 만들거나 재사용하세요.

    SERVICE_ACCOUNT_EMAIL=$(gcloud iam service-accounts create <iam_service_account_name> \ 
    1
    
        --display-name="Tempo Account" \
        --project <project_id>  \ 
    2
    
        --format='value(email)' \
        --quiet)
    Copy to Clipboard Toggle word wrap
    1
    GCP의 서비스 계정 이름입니다.
    2
    GCP의 서비스 계정의 프로젝트 ID입니다.
  3. 프로젝트 수준에서 생성된 서비스 계정에 필요한 GCP 역할을 바인딩합니다. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.

    $ gcloud projects add-iam-policy-binding <project_id> \
        --member "serviceAccount:$SERVICE_ACCOUNT_EMAIL" \
        --role "roles/storage.objectAdmin"
    Copy to Clipboard Toggle word wrap
  4. 클러스터와 연결된 Google Cloud Workload Identity Pool의 POOL_ID 값을 검색합니다. 이 값을 검색하는 방법은 환경에 따라 다르므로 다음 명령은 단지 예시일 뿐입니다.

    $ OIDC_ISSUER=$(oc get authentication.config cluster -o jsonpath='{.spec.serviceAccountIssuer}') \
    &&
      POOL_ID=$(echo "$OIDC_ISSUER" | awk -F'/' '{print $NF}' | sed 's/-oidc$//')
    Copy to Clipboard Toggle word wrap
  5. IAM 정책 바인딩을 추가합니다. 다음 명령을 실행하면 됩니다.

    $ gcloud iam service-accounts add-iam-policy-binding "$SERVICE_ACCOUNT_EMAIL" \ 
    1
    
      --role="roles/iam.workloadIdentityUser" \
      --member="principal://iam.googleapis.com/projects/<project_number>/locations/global/workloadIdentityPools/<pool_id>/subject/system:serviceaccount:<tempo_namespace>:tempo-<tempo_name>" \
      --project=<project_id> \
      --quiet \
    &&
      gcloud iam service-accounts add-iam-policy-binding "$SERVICE_ACCOUNT_EMAIL" \
      --role="roles/iam.workloadIdentityUser" \
      --member="principal://iam.googleapis.com/projects/<project_number>/locations/global/workloadIdentityPools/<pool_id>/subject/system:serviceaccount:<tempo_namespace>:tempo-<tempo_name>-query-frontend" \
      --project=<project_id> \
      --quiet
    &&
      gcloud storage buckets add-iam-policy-binding "gs://$BUCKET_NAME" \
      --role="roles/storage.admin" \
      --member="serviceAccount:$SERVICE_ACCOUNT_EMAIL" \
      --condition=None
    Copy to Clipboard Toggle word wrap
    1
    $SERVICE_ACCOUNT_EMAIL 은 2단계의 명령 출력입니다.
  6. TempoStack 사용자 정의 리소스에서 사용할 스토리지 시크릿의 key.json 키에 대한 자격 증명 파일을 만듭니다. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.

    $ gcloud iam workload-identity-pools create-cred-config \
        "projects/<project_number>/locations/global/workloadIdentityPools/<pool_id>/providers/<provider_id>" \
        --service-account="$SERVICE_ACCOUNT_EMAIL" \
        --credential-source-file=/var/run/secrets/storage/serviceaccount/token \ 
    1
    
        --credential-source-type=text \
        --output-file=<output_file_path> 
    2
    Copy to Clipboard Toggle word wrap
    1
    credential-source-file 매개변수는 항상 /var/run/secrets/storage/serviceaccount/token 경로를 가리켜야 합니다. Operator가 이 경로에서 토큰을 마운트하기 때문입니다.
    2
    출력 파일을 저장하는 경로입니다.
  7. 다음 명령을 실행하여 올바른 대상 고객을 확보하세요.

    $ gcloud iam workload-identity-pools providers describe "$PROVIDER_NAME" --format='value(oidc.allowedAudiences[0])'
    Copy to Clipboard Toggle word wrap
  8. 다음 명령을 실행하여 분산 추적 플랫폼에 대한 저장소 시크릿을 만듭니다.

    $ oc -n <tempo_namespace> create secret generic gcs-secret \
      --from-literal=bucketname="<bucket_name>" \ 
    1
    
      --from-literal=audience="<audience>" \      
    2
    
      --from-file=key.json=<output_file_path>    
    3
    Copy to Clipboard Toggle word wrap
    1
    Google Cloud Storage의 버킷 이름입니다.
    2
    이전 단계에서 얻은 audience 값입니다.
    3
    6단계에서 생성한 자격 증명 파일입니다.
  9. 개체 저장소 시크릿이 생성되면 다음과 같이 Distributed Tracing Platform 인스턴스의 관련 사용자 지정 리소스를 업데이트합니다.

    TempoStack 사용자 정의 리소스 예시

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: <name>
      namespace: <namespace>
    spec:
    # ...
      storage:
        secret: 
    1
    
          name: <secret_name>
          type: gcs
    # ...
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 시크릿입니다.

    TempoMonolithic 사용자 정의 리소스 예시

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoMonolithic
    metadata:
      name: <name>
      namespace: <namespace>
    spec:
    # ...
      storage:
        traces:
          backend: gcs
          gcs:
            secret: <secret_name> 
    1
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 시크릿입니다.

3.2.4. IBM Cloud Object Storage 설정

OpenShift CLI( oc )를 사용하여 IBM Cloud Object Storage를 설정할 수 있습니다.

사전 요구 사항

  • OpenShift CLI( oc )의 최신 버전을 설치했습니다. 자세한 내용은 Configure: CLI 도구 의 "OpenShift CLI 시작하기"를 참조하세요.
  • IBM Cloud Command Line Interface( ibmcloud )의 최신 버전을 설치했습니다. 자세한 내용은 IBM Cloud Docs 의 "IBM Cloud CLI 시작하기"를 참조하세요.
  • IBM Cloud Object Storage를 구성했습니다. 자세한 내용은 IBM Cloud Docs 에서 "플랜 선택 및 인스턴스 생성"을 참조하세요.

    • IBM Cloud Platform 계정이 있습니다.
    • IBM Cloud Object Storage 플랜을 주문하셨습니다.
    • IBM Cloud Object Storage 인스턴스를 생성했습니다.

프로세스

  1. IBM Cloud에서 오브젝트 저장소 버킷을 생성합니다.
  2. IBM Cloud에서 다음 명령을 실행하여 객체 저장소 버킷에 연결하기 위한 서비스 키를 만듭니다.

    $ ibmcloud resource service-key-create <tempo_bucket> Writer \
      --instance-name <tempo_bucket> --parameters '{"HMAC":true}'
    Copy to Clipboard Toggle word wrap
  3. IBM Cloud에서 다음 명령을 실행하여 버킷 자격 증명으로 비밀을 만듭니다.

    $ oc -n <namespace> create secret generic <ibm_cos_secret> \
      --from-literal=bucket="<tempo_bucket>" \
      --from-literal=endpoint="<ibm_bucket_endpoint>" \
      --from-literal=access_key_id="<ibm_bucket_access_key>" \
      --from-literal=access_key_secret="<ibm_bucket_secret_key>"
    Copy to Clipboard Toggle word wrap
  4. OpenShift Container Platform에서 다음과 같이 키를 사용하여 개체 저장소 비밀을 만듭니다.

    apiVersion: v1
    kind: Secret
    metadata:
      name: <ibm_cos_secret>
    stringData:
      bucket: <tempo_bucket>
      endpoint: <ibm_bucket_endpoint>
      access_key_id: <ibm_bucket_access_key>
      access_key_secret: <ibm_bucket_secret_key>
    type: Opaque
    Copy to Clipboard Toggle word wrap
  5. OpenShift Container Platform에서 TempoStack 사용자 정의 리소스의 스토리지 섹션을 다음과 같이 설정합니다.

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    # ...
    spec:
    # ...
      storage:
        secret:
          name: <ibm_cos_secret> 
    1
    
          type: s3
    # ...
    Copy to Clipboard Toggle word wrap
    1
    IBM Cloud Storage 액세스 및 비밀 키가 포함된 비밀의 이름입니다.

3.3. 권한 및 테넌트 구성

TempoStack 또는 TempoMonolithic 인스턴스를 설치하기 전에 하나 이상의 테넌트를 정의하고 읽기 및 쓰기 액세스를 구성해야 합니다. Kubernetes 역할 기반 액세스 제어(RBAC)에 대한 클러스터 역할 및 클러스터 역할 바인딩을 사용하여 이러한 권한 부여 설정을 구성할 수 있습니다. 기본적으로 사용자에게는 읽기 또는 쓰기 권한이 부여되지 않습니다. 자세한 내용은 "테넌트에 대한 읽기 권한 구성" 및 "테넌트에 대한 쓰기 권한 구성"을 참조하세요.

참고

Red Hat 빌드의 OpenTelemetry Collector는 RBAC를 사용하여 데이터를 쓰는 서비스 계정을 사용하여 TempoStack 또는 TempoMonolithic 인스턴스에 추적 데이터를 보낼 수 있습니다.

Expand
표 3.2. 인증 및 권한 부여
ComponentTempo Gateway 서비스OpenShift OAuth토큰리뷰 APISubjectAccessReview API

인증

X

X

X

 

권한 부여

X

  

X

3.3.1. 테넌트에 대한 읽기 권한 구성

웹 콘솔의 관리자 보기나 명령줄에서 테넌트의 읽기 권한을 구성할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할이 있는 계정을 사용하여 로그인해야 합니다.

프로세스

  1. TempoStack 사용자 정의 리소스(CR)에 원하는 값과 함께 tenantNametenantId 매개변수를 추가하여 테넌트를 정의합니다.

    TempoStack CR의 테넌트 예

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: redmetrics
    spec:
    # ...
      tenants:
        mode: openshift
        authentication:
          - tenantName: dev 
    1
    
            tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa" 
    2
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    사용자가 선택한 tenantName 값입니다.
    2
    사용자가 선택한 tenantId 값입니다.
  2. 추적을 읽을 수 있는 읽기( get ) 권한이 있는 클러스터 역할에 테넌트를 추가합니다.

    ClusterRole 리소스의 RBAC 구성 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: tempostack-traces-reader
    rules:
      - apiGroups:
          - 'tempo.grafana.com'
        resources: 
    1
    
          - dev
          - prod
        resourceNames:
          - traces
        verbs:
          - 'get' 
    2
    Copy to Clipboard Toggle word wrap

    1
    이 예제에서는 이전 단계에서 tenantName 매개변수를 사용하여 정의된 테넌트( devprod) 를 나열합니다.
    2
    나열된 테넌트에 대한 읽기 작업을 활성화합니다.
  3. 이전 단계의 클러스터 역할에 대한 클러스터 역할 바인딩을 정의하여 인증된 사용자에게 추적 데이터에 대한 읽기 권한을 부여합니다.

    ClusterRoleBinding 리소스의 RBAC 구성 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: tempostack-traces-reader
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: tempostack-traces-reader
    subjects:
      - kind: Group
        apiGroup: rbac.authorization.k8s.io
        name: system:authenticated 
    1
    Copy to Clipboard Toggle word wrap

    1
    인증된 모든 사용자에게 추적 데이터에 대한 읽기 권한을 부여합니다.

3.3.2. 테넌트에 대한 쓰기 권한 구성

웹 콘솔의 관리자 보기나 명령줄에서 테넌트의 쓰기 권한을 구성할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할이 있는 계정을 사용하여 로그인해야 합니다.
  • OpenTelemetry Collector를 설치하고 권한이 있는 서비스 계정을 사용하도록 구성했습니다. 자세한 내용은 OpenTelemetry Red Hat 빌드 문서에서 "필요한 RBAC 리소스를 자동으로 생성하기"를 참조하세요.

프로세스

  1. OpenTelemetry Collector와 함께 사용할 서비스 계정을 만듭니다.

    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: otel-collector
      namespace: <project_of_opentelemetry_collector_instance>
    Copy to Clipboard Toggle word wrap
  2. 추적을 작성하기 위한 쓰기( 생성 ) 권한이 있는 클러스터 역할에 테넌트를 추가합니다.

    ClusterRole 리소스의 RBAC 구성 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: tempostack-traces-write
    rules:
      - apiGroups:
          - 'tempo.grafana.com'
        resources: 
    1
    
          - dev
        resourceNames:
          - traces
        verbs:
          - 'create' 
    2
    Copy to Clipboard Toggle word wrap

    1
    세입자를 나열합니다.
    2
    쓰기 작업을 활성화합니다.
  3. 클러스터 역할 바인딩을 정의하여 OpenTelemetry Collector 서비스 계정을 연결하여 OpenTelemetry Collector에 쓰기 권한을 부여합니다.

    ClusterRoleBinding 리소스의 RBAC 구성 예

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: tempostack-traces
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: tempostack-traces-write
    subjects:
      - kind: ServiceAccount
        name: otel-collector 
    1
    
        namespace: otel
    Copy to Clipboard Toggle word wrap

    1
    이전 단계에서 만든 서비스 계정입니다. 클라이언트는 추적 데이터를 내보낼 때 사용합니다.
  4. 다음과 같이 OpenTelemetryCollector 사용자 지정 리소스를 구성합니다.

    • 추적 파이프라인 서비스에 bearertokenauth 확장 기능과 유효한 토큰을 추가합니다.
    • otlp/otlphttp 내보내기 프로그램에 테넌트 이름을 X-Scope-OrgID 헤더로 추가합니다.
    • 유효한 인증 기관 파일로 TLS를 활성화합니다.

      샘플 OpenTelemetry CR 구성

      apiVersion: opentelemetry.io/v1beta1
      kind: OpenTelemetryCollector
      metadata:
        name: cluster-collector
        namespace: <project_of_tempostack_instance>
      spec:
        mode: deployment
        serviceAccount: otel-collector 
      1
      
        config: |
            extensions:
              bearertokenauth: 
      2
      
                filename: "/var/run/secrets/kubernetes.io/serviceaccount/token" 
      3
      
            exporters:
              otlp/dev: 
      4
      
                endpoint: sample-gateway.tempo.svc.cluster.local:8090
                tls:
                  insecure: false
                  ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt" 
      5
      
                auth:
                  authenticator: bearertokenauth
                headers:
                  X-Scope-OrgID: "dev" 
      6
      
              otlphttp/dev: 
      7
      
                endpoint: https://sample-gateway.<project_of_tempostack_instance>.svc.cluster.local:8080/api/traces/v1/dev
                tls:
                  insecure: false
                  ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt"
                auth:
                  authenticator: bearertokenauth
                headers:
                  X-Scope-OrgID: "dev"
            service:
              extensions: [bearertokenauth]
              pipelines:
                traces:
                  exporters: [otlp/dev] 
      8
      
      
      # ...
      Copy to Clipboard Toggle word wrap

      1
      쓰기 권한이 구성된 서비스 계정입니다.
      2
      서비스 계정 토큰을 사용하기 위한 Bearer Token 확장입니다.
      3
      서비스 계정 토큰. 클라이언트는 토큰을 베어러 토큰 헤더로 추적 파이프라인 서비스에 전송합니다.
      4
      OTLP gRPC Exporter( otlp/dev ) 또는 OTLP HTTP Exporter( otlphttp/dev )를 지정하세요.
      5
      유효한 서비스 CA 파일로 TLS가 활성화되었습니다.
      6
      세입자 이름이 있는 헤더입니다.
      7
      OTLP gRPC Exporter( otlp/dev ) 또는 OTLP HTTP Exporter( otlphttp/dev )를 지정하세요.
      8
      CR의 수출자 섹션에 지정한 수출자입니다.

3.4. TempoStack 인스턴스 설치

웹 콘솔이나 명령줄을 사용하여 TempoStack 인스턴스를 설치할 수 있습니다.

3.4.1. 웹 콘솔을 사용하여 TempoStack 인스턴스 설치

웹 콘솔의 관리자 보기에서 TempoStack 인스턴스를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할이 있는 계정을 사용하여 로그인해야 합니다.
  • 지원되는 공급자 (Red Hat OpenShift Data Foundation , MinIO , Amazon S3 , Azure Blob Storage , Google Cloud Storage) 를 통해 필요한 개체 스토리지를 설정하는 작업을 완료했습니다. 자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    주의

    개체 스토리지는 필수이지만 분산 추적 플랫폼에 포함되어 있지 않습니다. Distributed Tracing Platform을 설치하기 전에 지원되는 공급자의 개체 스토리지를 선택하고 설정해야 합니다.

  • 하나 이상의 테넌트를 정의하고 읽기 및 쓰기 권한을 구성했습니다. 자세한 내용은 "테넌트에 대한 읽기 권한 구성" 및 "테넌트에 대한 쓰기 권한 구성"을 참조하세요.

프로세스

  1. 프로젝트프로젝트 만들기 로 이동하여 이후 단계에서 만들 TempoStack 인스턴스에 대해 허용된 프로젝트를 만듭니다. openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
  2. TempoStack 인스턴스에 대해 생성한 프로젝트의 개체 스토리지 버킷에 대한 비밀을 생성하려면 워크로드비밀생성YAML 로 이동합니다. 자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    Amazon S3 및 MinIO 스토리지의 시크릿 예

    apiVersion: v1
    kind: Secret
    metadata:
      name: minio-test
    stringData:
      endpoint: http://minio.minio.svc:9000
      bucket: tempo
      access_key_id: tempo
      access_key_secret: <secret>
    type: Opaque
    Copy to Clipboard Toggle word wrap

  3. TempoStack 인스턴스를 생성합니다.

    참고

    동일한 클러스터의 별도 프로젝트에서 여러 개의 TempoStack 인스턴스를 만들 수 있습니다.

    1. Operator설치된 Operator 로 이동합니다.
    2. TempoStackTempoStackYAML 보기를 선택합니다.
    3. YAML 보기에서 TempoStack 사용자 정의 리소스(CR)를 사용자 지정합니다.

      AWS S3 및 MinIO 스토리지와 두 개의 테넌트에 대한 TempoStack CR 예시

      apiVersion: tempo.grafana.com/v1alpha1
      kind: TempoStack 
      1
      
      metadata:
        name: simplest
        namespace: <permitted_project_of_tempostack_instance> 
      2
      
      spec: 
      3
      
        storage: 
      4
      
          secret: 
      5
      
            name: <secret_name> 
      6
      
            type: <secret_provider> 
      7
      
        storageSize: <value>Gi 
      8
      
        resources: 
      9
      
          total:
            limits:
              memory: 2Gi
              cpu: 2000m
        tenants:
          mode: openshift 
      10
      
          authentication: 
      11
      
            - tenantName: dev 
      12
      
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa" 
      13
      
            - tenantName: prod
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfb"
        template:
          gateway:
            enabled: true 
      14
      
          queryFrontend:
            jaegerQuery:
              enabled: true 
      15
      Copy to Clipboard Toggle word wrap

      1
      이 CR은 HTTP 및 OTLP(OpenTelemetry Protocol)를 통해 Jaeger Thrift를 수신하도록 구성된 TempoStack 배포를 생성합니다.
      2
      TempoStack 배포를 위해 선택한 프로젝트입니다. openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
      3
      Red Hat은 Red Hat OpenShift Distributed Tracing Platform 문서에서 제공하는 사용자 정의 리소스 옵션만 지원합니다.
      4
      추적을 저장하기 위한 저장소를 지정합니다.
      5
      2단계에서 필수 구성 요소 중 하나로 설정된 개체 저장소에 대해 만든 비밀입니다.
      6
      비밀의 메타데이터 섹션에 있는 이름 필드의 값입니다. 예를 들어: minio .
      7
      허용되는 값은 Azure Blob Storage의 경우 azure , Google Cloud Storage의 경우 gcs , Amazon S3, MinIO 또는 Red Hat OpenShift Data Foundation의 경우 s3입니다 . 예를 들어: s3 .
      8
      Tempo Write-Ahead Logging(WAL)에 대한 영구 볼륨 클레임의 크기입니다. 기본값은 10Gi 입니다. 예를 들어: 1Gi .
      9
      선택 사항입니다.
      10
      값은 openshift 여야 합니다.
      11
      세입자 목록.
      12
      X-Scope-OrgId HTTP 헤더의 값으로 사용되는 테넌트 이름입니다.
      13
      세입자의 고유 식별자입니다. TempoStack 배포의 라이프사이클 전체에 걸쳐 고유해야 합니다. 분산 추적 플랫폼은 이 ID를 사용하여 개체 저장소의 개체에 접두사를 붙입니다. UUID 또는 tempoName 필드의 값을 재사용할 수 있습니다.
      14
      인증 및 권한 부여를 수행하는 게이트웨이를 활성화합니다.
      15
      http://<gateway_ingress>/api/traces/v1/<tenant_name>/search 의 경로를 통해 데이터를 시각화하는 Jaeger UI를 공개합니다.
    4. 생성을 선택합니다.

검증

  1. 프로젝트: 드롭다운 목록을 사용하여 TempoStack 인스턴스의 프로젝트를 선택합니다.
  2. 운영자설치된 운영자 로 이동하여 TempoStack 인스턴스의 상태가 조건: 준비 인지 확인합니다.
  3. 워크로드Pod 로 이동하여 TempoStack 인스턴스의 모든 구성 요소 Pod가 실행 중인지 확인합니다.
  4. Tempo 콘솔에 액세스합니다.

    1. 네트워킹경로Ctrl+F 로 이동하여 tempo 를 검색합니다.
    2. 위치 열에서 URL을 열어 Tempo 콘솔에 액세스합니다.

      참고

      Tempo 콘솔은 처음에 Tempo 콘솔 설치 후 추적 데이터를 표시하지 않습니다.

3.4.2. CLI를 사용하여 TempoStack 인스턴스 설치

명령줄에서 TempoStack 인스턴스를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 명령을 실행합니다.

      $ oc login --username=<your_username>
      Copy to Clipboard Toggle word wrap
  • 지원되는 공급자 (Red Hat OpenShift Data Foundation , MinIO , Amazon S3 , Azure Blob Storage , Google Cloud Storage) 를 통해 필요한 개체 스토리지를 설정하는 작업을 완료했습니다. 자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    주의

    개체 스토리지는 필수이지만 분산 추적 플랫폼에 포함되어 있지 않습니다. Distributed Tracing Platform을 설치하기 전에 지원되는 공급자의 개체 스토리지를 선택하고 설정해야 합니다.

  • 하나 이상의 테넌트를 정의하고 읽기 및 쓰기 권한을 구성했습니다. 자세한 내용은 "테넌트에 대한 읽기 권한 구성" 및 "테넌트에 대한 쓰기 권한 구성"을 참조하세요.

프로세스

  1. 다음 명령을 실행하여 이후 단계에서 생성할 TempoStack 인스턴스에 대해 허용된 프로젝트를 선택하세요.

    $ oc apply -f - << EOF
    apiVersion: project.openshift.io/v1
    kind: Project
    metadata:
      name: <permitted_project_of_tempostack_instance> 
    1
    
    EOF
    Copy to Clipboard Toggle word wrap
    1
    openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
  2. TempoStack 인스턴스에 대해 생성한 프로젝트에서 다음 명령을 실행하여 개체 스토리지 버킷에 대한 비밀을 생성합니다.

    $ oc apply -f - << EOF
    <object_storage_secret>
    EOF
    Copy to Clipboard Toggle word wrap

    자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    Amazon S3 및 MinIO 스토리지의 시크릿 예

    apiVersion: v1
    kind: Secret
    metadata:
      name: minio-test
    stringData:
      endpoint: http://minio.minio.svc:9000
      bucket: tempo
      access_key_id: tempo
      access_key_secret: <secret>
    type: Opaque
    Copy to Clipboard Toggle word wrap

  3. 생성한 프로젝트에서 TempoStack 인스턴스를 생성합니다.

    참고

    동일한 클러스터의 별도 프로젝트에서 여러 개의 TempoStack 인스턴스를 만들 수 있습니다.

    1. TempoStack CR(사용자 정의 리소스)을 사용자 정의합니다.

      AWS S3 및 MinIO 스토리지와 두 개의 테넌트에 대한 TempoStack CR 예시

      apiVersion: tempo.grafana.com/v1alpha1
      kind: TempoStack 
      1
      
      metadata:
        name: simplest
        namespace: <permitted_project_of_tempostack_instance> 
      2
      
      spec: 
      3
      
        storage: 
      4
      
          secret: 
      5
      
            name: <secret_name> 
      6
      
            type: <secret_provider> 
      7
      
        storageSize: <value>Gi 
      8
      
        resources: 
      9
      
          total:
            limits:
              memory: 2Gi
              cpu: 2000m
        tenants:
          mode: openshift 
      10
      
          authentication: 
      11
      
            - tenantName: dev 
      12
      
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa" 
      13
      
            - tenantName: prod
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfb"
        template:
          gateway:
            enabled: true 
      14
      
          queryFrontend:
            jaegerQuery:
              enabled: true 
      15
      Copy to Clipboard Toggle word wrap

      1
      이 CR은 HTTP 및 OTLP(OpenTelemetry Protocol)를 통해 Jaeger Thrift를 수신하도록 구성된 TempoStack 배포를 생성합니다.
      2
      TempoStack 배포를 위해 선택한 프로젝트입니다. openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
      3
      Red Hat은 Red Hat OpenShift Distributed Tracing Platform 문서에서 제공하는 사용자 정의 리소스 옵션만 지원합니다.
      4
      추적을 저장하기 위한 저장소를 지정합니다.
      5
      2단계에서 필수 구성 요소 중 하나로 설정된 개체 저장소에 대해 만든 비밀입니다.
      6
      비밀의 메타데이터 섹션에 있는 이름 필드의 값입니다. 예를 들어: minio .
      7
      허용되는 값은 Azure Blob Storage의 경우 azure , Google Cloud Storage의 경우 gcs , Amazon S3, MinIO 또는 Red Hat OpenShift Data Foundation의 경우 s3입니다 . 예를 들어: s3 .
      8
      Tempo Write-Ahead Logging(WAL)에 대한 영구 볼륨 클레임의 크기입니다. 기본값은 10Gi 입니다. 예를 들어: 1Gi .
      9
      선택 사항입니다.
      10
      값은 openshift 여야 합니다.
      11
      세입자 목록.
      12
      X-Scope-OrgId HTTP 헤더의 값으로 사용되는 테넌트 이름입니다.
      13
      세입자의 고유 식별자입니다. TempoStack 배포의 라이프사이클 전체에 걸쳐 고유해야 합니다. 분산 추적 플랫폼은 이 ID를 사용하여 개체 저장소의 개체에 접두사를 붙입니다. UUID 또는 tempoName 필드의 값을 재사용할 수 있습니다.
      14
      인증 및 권한 부여를 수행하는 게이트웨이를 활성화합니다.
      15
      http://<gateway_ingress>/api/traces/v1/<tenant_name>/search 의 경로를 통해 데이터를 시각화하는 Jaeger UI를 공개합니다.
    2. 다음 명령을 실행하여 사용자 지정 CR을 적용합니다.

      $ oc apply -f - << EOF
      <tempostack_cr>
      EOF
      Copy to Clipboard Toggle word wrap

검증

  1. 다음 명령을 실행하여 모든 TempoStack 구성 요소상태가 실행 중이고 조건이 유형: 준비 인지 확인하세요.

    $ oc get tempostacks.tempo.grafana.com simplest -o yaml
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 모든 TempoStack 구성 요소 포드가 실행 중인지 확인하세요.

    $ oc get pods
    Copy to Clipboard Toggle word wrap
  3. Tempo 콘솔에 액세스합니다.

    1. 다음 명령을 실행하여 경로 세부 정보를 쿼리합니다.

      $ oc get route
      Copy to Clipboard Toggle word wrap
    2. 웹 브라우저에서 https://<route_from_previous_step>을 엽니다.

      참고

      Tempo 콘솔은 처음에 Tempo 콘솔 설치 후 추적 데이터를 표시하지 않습니다.

3.5. TempoMonolithic 인스턴스 설치

중요

TempoMonolithic 인스턴스는 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

웹 콘솔이나 명령줄을 사용하여 TempoMonolithic 인스턴스를 설치할 수 있습니다.

TempoMonolithic 사용자 정의 리소스(CR)는 모놀리식 모드에서 Tempo 배포를 생성합니다. 압축기, 배포기, 수집기, 쿼리기, 쿼리 프런트엔드 등 Tempo 배포의 모든 구성 요소는 단일 컨테이너에 포함되어 있습니다.

TempoMonolithic 인스턴스는 메모리 내 스토리지, 영구 볼륨 또는 개체 스토리지에 추적을 저장하는 것을 지원합니다.

소규모 배포, 데모, 테스트 및 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 올인원 배포의 마이그레이션 경로로 모놀리식 모드의 템포 배포가 선호됩니다.

참고

Tempo의 모놀리식 배포는 수평적으로 확장되지 않습니다. 수평적 확장이 필요한 경우 마이크로서비스 모드에서 Tempo 배포를 위해 TempoStack CR을 사용하세요.

3.5.1. 웹 콘솔을 사용하여 TempoMonolithic 인스턴스 설치

중요

TempoMonolithic 인스턴스는 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

웹 콘솔의 관리자 보기에서 TempoMonolithic 인스턴스를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할이 있는 계정을 사용하여 로그인해야 합니다.
  • 하나 이상의 테넌트를 정의하고 읽기 및 쓰기 권한을 구성했습니다. 자세한 내용은 "테넌트에 대한 읽기 권한 구성" 및 "테넌트에 대한 쓰기 권한 구성"을 참조하세요.

프로세스

  1. 프로젝트프로젝트 만들기 로 이동하여 이후 단계에서 만들 TempoMonolithic 인스턴스에 대해 허용된 프로젝트를 만듭니다. openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
  2. 추적을 저장하는 데 사용할 지원되는 스토리지 유형을 결정합니다. 메모리 내 스토리지, 영구 볼륨 또는 개체 스토리지입니다.

    중요

    개체 스토리지는 분산 추적 플랫폼에 포함되지 않으며 지원되는 공급자 (Red Hat OpenShift Data Foundation , MinIO , Amazon S3 , Azure Blob Storage 또는 Google Cloud Storage) 를 통해 개체 저장소를 설정해야 합니다.

    또한, 개체 스토리지를 선택하려면 TempoMonolithic 인스턴스에 대해 생성한 프로젝트에서 개체 스토리지 버킷에 대한 비밀을 생성해야 합니다. 워크로드비밀생성YAML 에서 이 작업을 수행할 수 있습니다.

    자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    Amazon S3 및 MinIO 스토리지의 시크릿 예

    apiVersion: v1
    kind: Secret
    metadata:
      name: minio-test
    stringData:
      endpoint: http://minio.minio.svc:9000
      bucket: tempo
      access_key_id: tempo
      access_key_secret: <secret>
    type: Opaque
    Copy to Clipboard Toggle word wrap

  3. TempoMonolithic 인스턴스를 생성합니다.

    참고

    동일한 클러스터의 별도 프로젝트에서 여러 TempoMonolithic 인스턴스를 만들 수 있습니다.

    1. Operator설치된 Operator 로 이동합니다.
    2. TempoMonolithicTempoMonolithic 만들기YAML 보기를 선택합니다.
    3. YAML 보기 에서 TempoMonolithic 사용자 정의 리소스(CR)를 사용자 정의합니다.

      TempoMonolithic CR 예시

      apiVersion: tempo.grafana.com/v1alpha1
      kind: TempoMonolithic 
      1
      
      metadata:
        name: <metadata_name>
        namespace: <permitted_project_of_tempomonolithic_instance> 
      2
      
      spec: 
      3
      
        storage: 
      4
      
          traces:
            backend: <supported_storage_type> 
      5
      
            size: <value>Gi 
      6
      
            s3: 
      7
      
              secret: <secret_name> 
      8
      
          tls: 
      9
      
            enabled: true
            caName: <ca_certificate_configmap_name> 
      10
      
        jaegerui:
          enabled: true 
      11
      
          route:
            enabled: true 
      12
      
        resources: 
      13
      
          total:
            limits:
              memory: <value>Gi
              cpu: <value>m
        multitenancy:
          enabled: true
          mode: openshift
          authentication: 
      14
      
            - tenantName: dev 
      15
      
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa" 
      16
      
            - tenantName: prod
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfb"
      Copy to Clipboard Toggle word wrap

      1
      이 CR은 OTLP 프로토콜에서 추적 수집 기능을 갖춘 TempoMonolithic 배포를 생성합니다.
      2
      TempoMonolithic 배포를 위해 선택한 프로젝트입니다. openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
      3
      Red Hat은 Red Hat OpenShift Distributed Tracing Platform 문서에서 제공하는 사용자 정의 리소스 옵션만 지원합니다.
      4
      추적을 저장하기 위한 저장소를 지정합니다.
      5
      추적을 저장하기 위한 스토리지 유형: 메모리 내 스토리지, 영구 볼륨 또는 개체 스토리지. 영구 볼륨의 값은 pv 입니다. 사용된 객체 저장소 유형에 따라 객체 저장소에 허용되는 값은 s3 , gcs 또는 azure 입니다. 기본값은 tmpfs 인메모리 저장소의 메모리 입니다. 이는 포드가 종료되면 데이터가 유지되지 않으므로 개발, 테스트, 데모 및 개념 증명 환경에만 적합합니다.
      6
      메모리 크기: 메모리 내 저장소의 경우 이는 tmpfs 볼륨의 크기를 의미하며 기본값은 2Gi 입니다. 영구 볼륨의 경우 이는 영구 볼륨 클레임의 크기를 의미하며 기본값은 10Gi 입니다. 개체 스토리지의 경우 이는 Tempo Write-Ahead Logging(WAL)에 대한 영구 볼륨 클레임 크기를 의미하며 기본값은 10Gi 입니다.
      7
      선택 사항: 개체 스토리지의 경우 개체 스토리지 유형입니다. 사용된 객체 저장소 유형에 따라 허용되는 값은 s3 , gcsazure 입니다.
      8
      선택 사항: 개체 저장소의 경우 저장소 비밀의 메타데이터 에 있는 이름 값입니다. 저장소 비밀은 TempoMonolithic 인스턴스와 동일한 네임스페이스에 있어야 하며 "표 1"에 지정된 필드를 포함해야 합니다. "오브젝트 스토리지 설정" 섹션의 필수 시크릿 매개변수입니다.
      9
      선택 사항입니다.
      10
      선택 사항: CA 인증서가 포함된 ConfigMap 개체의 이름입니다.
      11
      http://<gateway_ingress>/api/traces/v1/<tenant_name>/search 의 경로를 통해 데이터를 시각화하는 Jaeger UI를 공개합니다.
      12
      Jaeger UI에 대한 경로를 생성할 수 있습니다.
      13
      선택 사항입니다.
      14
      세입자를 나열합니다.
      15
      X-Scope-OrgId HTTP 헤더의 값으로 사용되는 테넌트 이름입니다.
      16
      세입자의 고유 식별자입니다. TempoMonolithic 배포의 라이프사이클 전체에 걸쳐 고유해야 합니다. 이 ID는 개체 저장소의 개체에 접두사로 추가됩니다. UUID 또는 tempoName 필드의 값을 재사용할 수 있습니다.
    4. 생성을 선택합니다.

검증

  1. 프로젝트: 드롭다운 목록을 사용하여 TempoMonolithic 인스턴스의 프로젝트를 선택합니다.
  2. 운영자설치된 운영자 로 이동하여 TempoMonolithic 인스턴스의 상태가 조건: 준비 인지 확인합니다.
  3. 워크로드Pod 로 이동하여 TempoMonolithic 인스턴스의 Pod가 실행 중인지 확인합니다.
  4. Jaeger UI에 접속하세요:

    1. 네트워킹경로 로 가서 Ctrl+F를 눌러 jaegerui를 검색합니다.

      참고

      Jaeger UI는 tempo-<metadata_name_of_TempoMonolithic_CR>-jaegerui 경로를 사용합니다.

    2. 위치 열에서 URL을 열어 Jaeger UI에 액세스합니다.
  5. TempoMonolithic 인스턴스의 포드가 준비되면 클러스터 내부의 tempo-<metadata_name_of_TempoMonolithic_CR>:4317 (OTLP/gRPC) 및 tempo-<metadata_name_of_TempoMonolithic_CR>:4318 (OTLP/HTTP) 엔드포인트로 추적을 보낼 수 있습니다.

    Tempo API는 클러스터 내부의 tempo-<metadata_name_of_TempoMonolithic_CR>:3200 엔드포인트에서 사용할 수 있습니다.

3.5.2. CLI를 사용하여 TempoMonolithic 인스턴스 설치

중요

TempoMonolithic 인스턴스는 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

명령줄에서 TempoMonolithic 인스턴스를 설치할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 명령을 실행합니다.

      $ oc login --username=<your_username>
      Copy to Clipboard Toggle word wrap
  • 하나 이상의 테넌트를 정의하고 읽기 및 쓰기 권한을 구성했습니다. 자세한 내용은 "테넌트에 대한 읽기 권한 구성" 및 "테넌트에 대한 쓰기 권한 구성"을 참조하세요.

프로세스

  1. 다음 명령을 실행하여 이후 단계에서 생성할 TempoMonolithic 인스턴스에 대해 허용된 프로젝트를 선택하세요.

    $ oc apply -f - << EOF
    apiVersion: project.openshift.io/v1
    kind: Project
    metadata:
      name: <permitted_project_of_tempomonolithic_instance> 
    1
    
    EOF
    Copy to Clipboard Toggle word wrap
    1
    openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
  2. 추적을 저장하는 데 사용할 지원되는 스토리지 유형을 결정합니다. 메모리 내 스토리지, 영구 볼륨 또는 개체 스토리지입니다.

    중요

    개체 스토리지는 분산 추적 플랫폼에 포함되지 않으며 지원되는 공급자 (Red Hat OpenShift Data Foundation , MinIO , Amazon S3 , Azure Blob Storage 또는 Google Cloud Storage) 를 통해 개체 저장소를 설정해야 합니다.

    또한, 개체 스토리지를 선택하려면 TempoMonolithic 인스턴스에 대해 생성한 프로젝트에서 개체 스토리지 버킷에 대한 비밀을 생성해야 합니다. 다음 명령을 실행하면 됩니다.

    $ oc apply -f - << EOF
    <object_storage_secret>
    EOF
    Copy to Clipboard Toggle word wrap

    자세한 내용은 "개체 스토리지 설정"을 참조하세요.

    Amazon S3 및 MinIO 스토리지의 시크릿 예

    apiVersion: v1
    kind: Secret
    metadata:
      name: minio-test
    stringData:
      endpoint: http://minio.minio.svc:9000
      bucket: tempo
      access_key_id: tempo
      access_key_secret: <secret>
    type: Opaque
    Copy to Clipboard Toggle word wrap

  3. 생성한 프로젝트에서 TempoMonolithic 인스턴스를 생성합니다.

    작은 정보

    동일한 클러스터의 별도 프로젝트에서 여러 TempoMonolithic 인스턴스를 만들 수 있습니다.

    1. TempoMonolithic 사용자 정의 리소스(CR)를 사용자 정의합니다.

      TempoMonolithic CR 예시

      apiVersion: tempo.grafana.com/v1alpha1
      kind: TempoMonolithic 
      1
      
      metadata:
        name: <metadata_name>
        namespace: <permitted_project_of_tempomonolithic_instance> 
      2
      
      spec: 
      3
      
        storage: 
      4
      
          traces:
            backend: <supported_storage_type> 
      5
      
            size: <value>Gi 
      6
      
            s3: 
      7
      
              secret: <secret_name> 
      8
      
          tls: 
      9
      
            enabled: true
            caName: <ca_certificate_configmap_name> 
      10
      
        jaegerui:
          enabled: true 
      11
      
          route:
            enabled: true 
      12
      
        resources: 
      13
      
          total:
            limits:
              memory: <value>Gi
              cpu: <value>m
        multitenancy:
          enabled: true
          mode: openshift
          authentication: 
      14
      
            - tenantName: dev 
      15
      
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa" 
      16
      
            - tenantName: prod
              tenantId: "1610b0c3-c509-4592-a256-a1871353dbfb"
      Copy to Clipboard Toggle word wrap

      1
      이 CR은 OTLP 프로토콜에서 추적 수집 기능을 갖춘 TempoMonolithic 배포를 생성합니다.
      2
      TempoMonolithic 배포를 위해 선택한 프로젝트입니다. openshift- 접두사로 시작하는 프로젝트 이름은 허용되지 않습니다.
      3
      Red Hat은 Red Hat OpenShift Distributed Tracing Platform 문서에서 제공하는 사용자 정의 리소스 옵션만 지원합니다.
      4
      추적을 저장하기 위한 저장소를 지정합니다.
      5
      추적을 저장하기 위한 스토리지 유형: 메모리 내 스토리지, 영구 볼륨 또는 개체 스토리지. 영구 볼륨의 값은 pv 입니다. 사용된 객체 저장소 유형에 따라 객체 저장소에 허용되는 값은 s3 , gcs 또는 azure 입니다. 기본값은 tmpfs 인메모리 저장소의 메모리 입니다. 이는 포드가 종료되면 데이터가 유지되지 않으므로 개발, 테스트, 데모 및 개념 증명 환경에만 적합합니다.
      6
      메모리 크기: 메모리 내 저장소의 경우 이는 tmpfs 볼륨의 크기를 의미하며 기본값은 2Gi 입니다. 영구 볼륨의 경우 이는 영구 볼륨 클레임의 크기를 의미하며 기본값은 10Gi 입니다. 개체 스토리지의 경우 이는 Tempo Write-Ahead Logging(WAL)에 대한 영구 볼륨 클레임 크기를 의미하며 기본값은 10Gi 입니다.
      7
      선택 사항: 개체 스토리지의 경우 개체 스토리지 유형입니다. 사용된 객체 저장소 유형에 따라 허용되는 값은 s3 , gcsazure 입니다.
      8
      선택 사항: 개체 저장소의 경우 저장소 비밀의 메타데이터 에 있는 이름 값입니다. 저장소 비밀은 TempoMonolithic 인스턴스와 동일한 네임스페이스에 있어야 하며 "표 1"에 지정된 필드를 포함해야 합니다. "오브젝트 스토리지 설정" 섹션의 필수 시크릿 매개변수입니다.
      9
      선택 사항입니다.
      10
      선택 사항: CA 인증서가 포함된 ConfigMap 개체의 이름입니다.
      11
      http://<gateway_ingress>/api/traces/v1/<tenant_name>/search 의 경로를 통해 데이터를 시각화하는 Jaeger UI를 공개합니다.
      12
      Jaeger UI에 대한 경로를 생성할 수 있습니다.
      13
      선택 사항입니다.
      14
      세입자를 나열합니다.
      15
      X-Scope-OrgId HTTP 헤더의 값으로 사용되는 테넌트 이름입니다.
      16
      세입자의 고유 식별자입니다. TempoMonolithic 배포의 라이프사이클 전체에 걸쳐 고유해야 합니다. 이 ID는 개체 저장소의 개체에 접두사로 추가됩니다. UUID 또는 tempoName 필드의 값을 재사용할 수 있습니다.
    2. 다음 명령을 실행하여 사용자 지정 CR을 적용합니다.

      $ oc apply -f - << EOF
      <tempomonolithic_cr>
      EOF
      Copy to Clipboard Toggle word wrap

검증

  1. 다음 명령을 실행하여 모든 TempoMonolithic 구성 요소상태가 실행 중이고 조건이 유형: 준비 인지 확인하세요.

    $ oc get tempomonolithic.tempo.grafana.com <metadata_name_of_tempomonolithic_cr> -o yaml
    Copy to Clipboard Toggle word wrap
  2. TempoMonolithic 인스턴스의 Pod가 실행 중인지 확인하려면 다음 명령을 실행하세요.

    $ oc get pods
    Copy to Clipboard Toggle word wrap
  3. Jaeger UI에 접속하세요:

    1. 다음 명령을 실행하여 tempo-<metadata_name_of_tempomonolithic_cr>-jaegerui 경로에 대한 경로 세부 정보를 쿼리합니다.

      $ oc get route
      Copy to Clipboard Toggle word wrap
    2. 웹 브라우저에서 https://<route_from_previous_step>을 엽니다.
  4. TempoMonolithic 인스턴스의 포드가 준비되면 클러스터 내부의 tempo-<metadata_name_of_tempomonolithic_cr>:4317 (OTLP/gRPC) 및 tempo-<metadata_name_of_tempomonolithic_cr>:4318 (OTLP/HTTP) 엔드포인트로 추적을 보낼 수 있습니다.

    Tempo API는 클러스터 내부의 tempo-<metadata_name_of_tempomonolithic_cr>:3200 엔드포인트에서 사용할 수 있습니다.

4장. 분산 추적 플랫폼 구성

작은 정보

더 이상 사용되지 않는 Distributed Tracing Platform(Jaeger) 구성에 대한 자세한 내용은 Distributed Tracing Platform(Jaeger) 설명서의 구성을 참조하세요.

Tempo Operator는 분산 추적 플랫폼 리소스를 만들고 배포하기 위한 아키텍처와 구성 설정을 정의하는 사용자 정의 리소스 정의(CRD) 파일을 사용합니다. 기본 구성을 설치하거나 파일을 수정할 수 있습니다.

4.1. 백엔드 스토리지 구성

백엔드 스토리지 구성에 대한 자세한 내용은 영구 스토리지 이해 및 선택한 스토리지 옵션에 대한 관련 구성 섹션을 참조하세요.

4.2. TempoStack 구성 매개변수 소개

TempoStack 사용자 정의 리소스(CR)는 분산 추적 플랫폼 리소스를 생성하기 위한 아키텍처와 설정을 정의합니다. 이러한 매개변수를 수정하여 비즈니스 요구 사항에 맞게 구현을 사용자 정의할 수 있습니다.

TempoStack CR 예제

apiVersion: tempo.grafana.com/v1alpha1 
1

kind: TempoStack 
2

metadata: 
3

  name: <name> 
4

spec: 
5

  storage: {} 
6

  resources: {} 
7

  replicationFactor: 1 
8

  retention: 
9

    global:
      traces: 48h
    perTenant: {}
  template:
      distributor: {} 
10

      ingester: {} 
11

      compactor: {} 
12

      querier: {} 
13

      queryFrontend: {} 
14

      gateway: {} 
15

  limits: 
16

    global:
      ingestion: {} 
17

      query: {} 
18

  observability: 
19

    grafana: {}
    metrics: {}
    tracing: {}
  search: {} 
20

  managementState: managed 
21
Copy to Clipboard Toggle word wrap

1
오브젝트를 생성할 때 사용할 API 버전입니다.
2
생성할 Kubernetes 오브젝트를 정의합니다.
3
name 문자열, UID 및 선택적 namespace를 포함하여 오브젝트를 고유하게 식별하는 데이터입니다. OpenShift Container Platform은 UID를 자동으로 생성하고 오브젝트가 생성된 프로젝트의 이름으로 namespace를 완료합니다.
4
TempoStack 인스턴스의 이름입니다.
5
TempoStack 인스턴스의 모든 구성 매개변수를 포함합니다. 모든 Tempo 구성 요소에 대한 공통 정의가 필요한 경우 사양 섹션에서 정의합니다. 정의가 개별 구성 요소와 관련된 경우 spec.template.<component> 섹션에 배치합니다.
6
저장소는 인스턴스 배포 시 지정됩니다. 인스턴스의 저장 옵션에 대한 자세한 내용은 설치 페이지를 참조하세요.
7
Tempo 컨테이너에 대한 컴퓨팅 리소스를 정의합니다.
8
범위를 수락하기 전에 배포자로부터 데이터를 확인해야 하는 수집기 수에 대한 정수 값입니다.
9
추적 보존을 위한 구성 옵션입니다. 기본값은 48시간 입니다.
10
Tempo 배포기 구성 요소에 대한 구성 옵션입니다.
11
Tempo Ingester 구성 요소에 대한 구성 옵션입니다.
12
Tempo 압축기 구성 요소에 대한 구성 옵션입니다.
13
Tempo 쿼리어 구성 요소에 대한 구성 옵션입니다.
14
Tempo 쿼리 프런트엔드 구성 요소에 대한 구성 옵션입니다.
15
Tempo 게이트웨이 구성 요소에 대한 구성 옵션입니다.
16
수집 및 쿼리 속도를 제한합니다.
17
수집 속도 제한을 정의합니다.
18
쿼리 속도 제한을 정의합니다.
19
원격 측정 데이터를 처리하기 위한 피연산자를 구성합니다.
20
검색 기능을 구성합니다.
21
이 CR이 운영자에 의해 관리되는지 여부를 정의합니다. 기본값은 관리 됩니다.
Expand
표 4.1. TempoStack CR 매개변수
매개변수설명기본값

apiVersion:

오브젝트를 생성할 때 사용할 API 버전입니다.

tempo.grafana.com/v1alpha1

tempo.grafana.com/v1alpha1

kind:

생성할 Kubernetes 오브젝트의 종류를 정의합니다.

tempo

 

metadata:

name 문자열, UID 및 선택적 namespace를 포함하여 오브젝트를 고유하게 식별하는 데이터입니다.

 

OpenShift Container Platform은 UID를 자동으로 생성하고 오브젝트가 생성된 프로젝트의 이름으로 namespace를 완료합니다.

name:

오브젝트의 이름입니다.

TempoStack 인스턴스의 이름입니다.

tempo-all-in-one-inmemory

spec:

생성할 오브젝트의 사양입니다.

TempoStack 인스턴스에 대한 모든 구성 매개변수를 포함합니다. 모든 Tempo 구성 요소에 대한 공통 정의가 필요한 경우 spec 노드 아래에 정의됩니다. 정의가 개별 구성 요소와 관련된 경우 spec.template.<component> 노드 아래에 배치됩니다.

해당 없음

resources:

TempoStack 인스턴스에 할당된 리소스입니다.

  

storageSize:

ingester PVC의 스토리지 크기입니다.

  

replicationFactor:

복제 요소에 대한 구성입니다.

  

retention:

추적 보존을 위한 구성 옵션입니다.

  

storage:

스토리지를 정의하는 구성 옵션입니다.

  

template.distributor:

Tempo 배포자에 대한 구성 옵션입니다.

  

template.ingester:

Tempo ingester의 구성 옵션입니다.

  

template.compactor:

Tempo compactor에 대한 구성 옵션입니다.

  

template.querier:

Tempo querier의 구성 옵션입니다.

  

template.queryFrontend:

Tempo 쿼리 프런트 엔드에 대한 구성 옵션입니다.

  

template.gateway:

Tempo 게이트웨이에 대한 구성 옵션입니다.

  

4.3. 쿼리 구성 옵션

분산 추적 플랫폼의 두 구성 요소인 큐리어 및 쿼리 프런트 엔드는 쿼리를 관리합니다. 이러한 두 구성 요소를 모두 구성할 수 있습니다.

querier 구성 요소는 ingesters 또는 백엔드 스토리지에서 요청된 추적 ID를 찾습니다. set 매개변수에 따라 querier 구성 요소는 ingesters 및 pull bloom 또는 인덱스를 백엔드에서 오브젝트 스토리지의 검색 블록으로 쿼리할 수 있습니다. querier 구성 요소는 GET /querier/api/traces/<trace_id >에서 HTTP 끝점을 노출하지만 직접 사용할 수는 없습니다. 쿼리를 쿼리 프런트 엔드로 보내야 합니다.

Expand
표 4.2. querier 구성 요소에 대한 구성 매개변수
매개변수설명

nodeSelector

노드 선택 제약 조건의 간단한 형식입니다.

유형: 오브젝트

replicas

구성 요소에 대해 생성할 복제본 수입니다.

유형: 정수; 형식: int32

허용 오차

구성 요소별 Pod 허용 오차입니다.

유형: array

쿼리 프런트 엔드 구성 요소는 들어오는 쿼리의 검색 공간을 분할합니다. 쿼리 프런트 엔드는 간단한 HTTP 끝점을 통해 추적을 노출합니다. GET /api/traces/<trace_id > . 내부적으로 쿼리 프런트 엔드 구성 요소는 blockID 공간을 구성 가능한 수의 shard로 분할한 다음 이러한 요청을 대기열에 넣습니다. querier 구성 요소는 스트리밍 gRPC 연결을 통해 쿼리 프런트 엔드 구성 요소에 연결하여 이러한 분할된 쿼리를 처리합니다.

Expand
표 4.3. 쿼리 프런트 엔드 구성 요소에 대한 구성 매개변수
매개변수설명

component

쿼리 프런트 엔드 구성 요소입니다.

유형: 오브젝트

component.nodeSelector

노드 선택 제약 조건의 간단한 형식입니다.

유형: 오브젝트

component.replicas

쿼리 프런트 엔드 구성 요소에 대해 생성할 복제본 수입니다.

유형: 정수; 형식: int32

component.tolerations

쿼리 프런트 엔드 구성 요소와 관련된 Pod 허용 오차입니다.

유형: array

jaegerQuery

Jaeger 쿼리 구성 요소와 관련된 옵션입니다.

유형: 오브젝트

jaegerQuery.enabled

활성화하면 Jaeger 쿼리 구성 요소jaegerQuery 를 생성합니다.

유형: 부울

jaegerQuery.ingress

Jaeger 쿼리 수신에 대한 옵션입니다.

유형: 오브젝트

jaegerQuery.ingress.annotations

ingress 오브젝트의 주석입니다.

유형: 오브젝트

jaegerQuery.ingress.host

ingress 오브젝트의 호스트 이름입니다.

유형: 문자열

jaegerQuery.ingress.ingressClassName

IngressClass 클러스터 리소스의 이름입니다. 이 수신 리소스를 제공하는 수신 컨트롤러를 정의합니다.

유형: 문자열

jaegerQuery.ingress.route

OpenShift 경로에 대한 옵션입니다.

유형: 오브젝트

jaegerQuery.ingress.route.termination

종료 유형입니다. 기본값은 edge 입니다.

type: string (enum: insecure, edge, passthrough, reencrypt)

jaegerQuery.ingress.type

Jaeger 쿼리 UI의 수신 유형입니다. 지원되는 유형은 ingress,route, none 입니다.

유형: 문자열(um: ingress, route)

jaegerQuery.monitorTab

모니터 탭 구성입니다.

유형: 오브젝트

jaegerQuery.monitorTab.enabled

Jaeger 콘솔에서 모니터 탭을 활성화합니다. PrometheusEndpoint 를 구성해야 합니다.

유형: 부울

jaegerQuery.monitorTab.prometheusEndpoint

범위 속도, 오류 및 기간(RED) 메트릭이 포함된 Prometheus 인스턴스의 끝점입니다. 예: https://thanos-querier.openshift-monitoring.svc.cluster.local:9092.

유형: 문자열

TempoStack CR의 쿼리 프런트 엔드 구성의 예

apiVersion: tempo.grafana.com/v1alpha1
kind: TempoStack
metadata:
  name: simplest
spec:
  storage:
    secret:
      name: minio
      type: s3
  storageSize: 200M
  resources:
    total:
      limits:
        memory: 2Gi
        cpu: 2000m
  template:
    queryFrontend:
      jaegerQuery:
        enabled: true
        ingress:
          route:
            termination: edge
          type: route
Copy to Clipboard Toggle word wrap

4.4. UI 구성

클러스터 관찰 운영자(COO)의 분산 추적 UI 플러그인을 Red Hat OpenShift 분산 추적 플랫폼의 사용자 인터페이스(UI)로 사용할 수 있습니다. 분산 추적 UI 플러그인을 설치하고 사용하는 방법에 대한 자세한 내용은 Cluster Observability Operator 의 "분산 추적 UI 플러그인"을 참조하세요.

4.5. Jaeger UI에서 모니터 탭 구성

요청 속도, 오류, 기간(RED) 메트릭을 추적에서 추출하여 OpenShift Container Platform 웹 콘솔의 Monitor 탭에서 Jaeger 콘솔을 통해 시각화할 수 있습니다. 메트릭은 사용자 워크로드 모니터링 스택에 배포할 수 있는 Prometheus의 수집기에서 스크랩되는 OpenTelemetry 수집기의 범위에서 파생됩니다. Jaeger UI는 Prometheus 끝점에서 이러한 지표를 쿼리하고 시각화합니다.

사전 요구 사항

  • Distributed Tracing Platform에 대한 권한 및 테넌트를 구성했습니다. 자세한 내용은 "권한 및 테넌트 구성"을 참조하십시오.

프로세스

  1. OpenTelemetryCollector 에서 OpenTelemetry 수집기의 사용자 지정 리소스에서 Spanmetrics Connector(spanmetrics)를 활성화합니다. 이는 추적에서 지표를 파생하고 Prometheus 형식으로 메트릭을 내보냅니다.

    범위의 OpenTelemetryCollector 사용자 정의 리소스의 예

    apiVersion: opentelemetry.io/v1beta1
    kind: OpenTelemetryCollector
    metadata:
      name: otel
    spec:
      mode: deployment
      observability:
        metrics:
          enableMetrics: true 
    1
    
      config: |
        connectors:
          spanmetrics: 
    2
    
            metrics_flush_interval: 15s
    
        receivers:
          otlp: 
    3
    
            protocols:
              grpc:
              http:
    
        exporters:
          prometheus: 
    4
    
            endpoint: 0.0.0.0:8889
            add_metric_suffixes: false
            resource_to_telemetry_conversion:
              enabled: true 
    5
    
    
          otlp:
            auth:
              authenticator: bearertokenauth
            endpoint: tempo-redmetrics-gateway.mynamespace.svc.cluster.local:8090
            headers:
              X-Scope-OrgID: dev
            tls:
              ca_file: /var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt
              insecure: false
    
        extensions:
          bearertokenauth:
            filename: /var/run/secrets/kubernetes.io/serviceaccount/token
    
        service:
          extensions:
          - bearertokenauth
          pipelines:
            traces:
              receivers: [otlp]
              exporters: [otlp, spanmetrics] 
    6
    
            metrics:
              receivers: [spanmetrics] 
    7
    
              exporters: [prometheus]
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    ServiceMonitor 사용자 정의 리소스를 생성하여 Prometheus 내보내기를 스크랩할 수 있습니다.
    2
    Spanmetrics 커넥터는 추적 및 내보내기 메트릭을 수신합니다.
    3
    OpenTelemetry 프로토콜에서 기간을 수신하는 OTLP 수신자입니다.
    4
    Prometheus 내보내기는 Prometheus 형식으로 지표를 내보내는 데 사용됩니다.
    5
    리소스 속성은 기본적으로 삭제됩니다.
    6
    Spanmetrics 커넥터는 추적 파이프라인에서 내보내기로 구성됩니다.
    7
    Spanmetrics 커넥터는 메트릭 파이프라인에서 수신자로 구성됩니다.
  2. TempoStack 사용자 정의 리소스에서 Monitor 탭을 활성화하고 Prometheus 끝점을 Thanos querier 서비스로 설정하여 사용자 정의 모니터링 스택의 데이터를 쿼리합니다.

    활성화된 Monitor 탭을 사용하는 TempoStack 사용자 정의 리소스의 예

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: redmetrics
    spec:
      storage:
        secret:
          name: minio-test
          type: s3
      storageSize: 1Gi
      tenants:
        mode: openshift
        authentication:
          - tenantName: dev
            tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa"
      template:
        gateway:
          enabled: true
        queryFrontend:
          jaegerQuery:
            monitorTab:
              enabled: true 
    1
    
              prometheusEndpoint: https://thanos-querier.openshift-monitoring.svc.cluster.local:9092 
    2
    
              redMetricsNamespace: "" 
    3
    
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    Jaeger 콘솔에서 모니터링 탭을 활성화합니다.
    2
    사용자 워크로드 모니터링의 Thanos Querier의 서비스 이름입니다.
    3
    선택사항: Jaeger 쿼리가 Prometheus 지표를 검색하는 메트릭 네임스페이스입니다. 0.109.0 이전의 OpenTelemetry 수집기 버전을 사용하는 경우에만 이 행을 포함합니다. OpenTelemetry Collector 버전 0.109.0 이상을 사용하는 경우 이 행을 생략합니다.
  3. 선택 사항: spanmetrics 커넥터에서 생성한 범위를 경고 규칙과 함께 사용합니다. 예를 들어 느린 서비스에 대한 경고 또는 서비스 수준 목표(SLO)를 정의하는 경우 커넥터는 duration_bucket 히스토그램 및 호출 카운터 메트릭을 생성합니다. 이러한 지표에는 서비스, API 이름, 작업 유형 및 기타 속성을 식별하는 레이블이 있습니다.

    Expand
    표 4.4. spanmetrics 커넥터에서 생성된 지표의 레이블
    레이블설명

    service_name

    otel_service_name 환경 변수로 설정된 서비스 이름입니다.

    frontend

    span_name

    작업 이름입니다.

    • /
    • /customer

    span_kind

    서버, 클라이언트, 메시징 또는 내부 작업을 식별합니다.

    • SPAN_KIND_SERVER
    • SPAN_KIND_CLIENT
    • SPAN_KIND_PRODUCER
    • SPAN_KIND_CONSUMER
    • SPAN_KIND_INTERNAL

    프런트 엔드 서비스의 2000ms 내에서 요청의 95%를 제공하지 않을 때 SLO에 대한 경고 규칙을 정의하는 PrometheusRule 사용자 정의 리소스의 예

    apiVersion: monitoring.coreos.com/v1
    kind: PrometheusRule
    metadata:
      name: span-red
    spec:
      groups:
      - name: server-side-latency
        rules:
        - alert: SpanREDFrontendAPIRequestLatency
          expr: histogram_quantile(0.95, sum(rate(duration_bucket{service_name="frontend", span_kind="SPAN_KIND_SERVER"}[5m])) by (le, service_name, span_name)) > 2000 
    1
    
          labels:
            severity: Warning
          annotations:
            summary: "High request latency on {{$labels.service_name}} and {{$labels.span_name}}"
            description: "{{$labels.instance}} has 95th request latency above 2s (current value: {{$value}}s)"
    Copy to Clipboard Toggle word wrap

    1
    프런트 엔드 서버 응답 시간 값의 95%가 2000ms 미만인지 확인하기 위한 표현식입니다. 시간 범위([5m])는 스크랩 간격의 4배 이상이고 메트릭의 변경 사항을 수용할 수 있을 만큼 길어야 합니다.

4.6. 수신자 TLS 구성

TempoStack 또는 TempoMonolithic 인스턴스의 사용자 정의 리소스는 사용자 제공 인증서 또는 OpenShift의 서비스 제공 인증서를 사용하여 수신자의 TLS 구성을 지원합니다.

4.6.1. TempoStack 인스턴스에 대한 수신자 TLS 구성

시크릿에 TLS 인증서를 제공하거나 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.

  • 시크릿에 TLS 인증서를 제공하려면 TempoStack 사용자 정의 리소스에서 구성합니다.

    참고

    이 기능은 활성화된 Tempo Gateway에서 지원되지 않습니다.

    수신자의 경우 TLS 및 시크릿에서 사용자 제공 인증서 사용

    apiVersion: tempo.grafana.com/v1alpha1
    kind:  TempoStack
    # ...
    spec:
    # ...
      template:
        distributor:
          tls:
            enabled: true 
    1
    
            certName: <tls_secret> 
    2
    
            caName: <ca_name> 
    3
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    Tempo Cryostat에서 활성화된 TLS.
    2
    사전에 적용하는 tls.key 키 및 tls.crt 인증서가 포함된 보안입니다.
    3
    선택 사항: 구성 맵의 CA를 사용하여 상호 TLS 인증(mTLS)을 활성화합니다.
  • 또는 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.

    참고

    이 기능에서는 mTLS(mutual TLS Authentication)가 지원되지 않습니다.

    OpenShift Container Platform에서 생성된 수신자 및 서비스 제공 인증서를 사용하는 경우 TLS

    apiVersion: tempo.grafana.com/v1alpha1
    kind:  TempoStack
    # ...
    spec:
    # ...
      template:
        distributor:
          tls:
            enabled: true 
    1
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    Tempo Cryostat에서 TLS에 대한 충분한 구성입니다.

4.6.2. TempoMonolithic 인스턴스에 대한 수신자 TLS 구성

시크릿에 TLS 인증서를 제공하거나 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.

  • 시크릿에 TLS 인증서를 제공하려면 TempoMonolithic 사용자 정의 리소스에서 구성합니다.

    참고

    이 기능은 활성화된 Tempo Gateway에서 지원되지 않습니다.

    수신자를 위한 TLS 및 비밀에 사용자 제공 인증서 사용

    apiVersion: tempo.grafana.com/v1alpha1
    kind:  TempoMonolithic
    # ...
      spec:
    # ...
      ingestion:
        otlp:
          grpc:
            tls:
              enabled: true 
    1
    
              certName: <tls_secret> 
    2
    
              caName: <ca_name> 
    3
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    Tempo Cryostat에서 활성화된 TLS.
    2
    사전에 적용하는 tls.key 키 및 tls.crt 인증서가 포함된 보안입니다.
    3
    선택 사항: 구성 맵의 CA를 사용하여 상호 TLS 인증(mTLS)을 활성화합니다.
  • 또는 OpenShift Container Platform에서 생성된 서비스 제공 인증서를 사용할 수 있습니다.

    참고

    이 기능에서는 상호 TLS 인증(mTLS)이 지원되지 않습니다.

    OpenShift Container Platform에서 생성된 서비스 제공 인증서를 사용하고 수신자를 위한 TLS

    apiVersion: tempo.grafana.com/v1alpha1
    kind:  TempoMonolithic
    # ...
      spec:
    # ...
      ingestion:
        otlp:
          grpc:
            tls:
              enabled: true
          http:
            tls:
              enabled: true 
    1
    
    # ...
    Copy to Clipboard Toggle word wrap

    1
    Tempo Distributor의 TLS에 대한 최소 구성입니다.

4.7. RBAC 쿼리 구성

관리자는 쿼리 역할 기반 액세스 제어(RBAC)를 설정하여 사용자에게 권한을 부여한 네임스페이스별로 사용자의 스팬 속성을 필터링할 수 있습니다.

참고

쿼리 RBAC를 활성화하면 사용자는 모든 네임스페이스의 추적에 계속 액세스할 수 있으며, service.namek8s.namespace.name 속성도 모든 사용자에게 표시됩니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 을 실행합니다.

      $ oc login --username=<your_username>
      Copy to Clipboard Toggle word wrap

프로세스

  1. TempoStack 사용자 정의 리소스(CR)에서 다중 테넌시를 활성화하고 RBAC를 쿼리합니다(예:

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: simplest
      namespace: chainsaw-multitenancy
    spec:
      storage:
        secret:
          name: minio
          type: s3
      storageSize: 1Gi
      resources:
        total:
          limits:
            memory: 2Gi
            cpu: 2000m
      tenants:
        mode: openshift
        authentication:
          - tenantName: dev
            tenantId: "1610b0c3-c509-4592-a256-a1871353dbfb"
      template:
        gateway:
          enabled: true 
    1
    
          rbac:
            enabled: true 
    2
    
        queryFrontend:
          jaegerQuery:
            enabled: false 
    3
    Copy to Clipboard Toggle word wrap
    1
    항상 true 로 설정합니다.
    2
    항상 true 로 설정합니다.
    3
    항상 false 로 설정합니다.
  2. TempoStack CR에서 지정한 테넌트에 액세스할 수 있는 권한을 대상 사용자에게 부여하기 위해 클러스터 역할과 클러스터 역할 바인딩을 만듭니다. 예:

    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: tempo-dev-read
    rules:
    - apiGroups: [tempo.grafana.com]
      resources: [dev] 
    1
    
      resourceNames: [traces]
      verbs: [get]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRoleBinding
    metadata:
      name: tempo-dev-read
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: tempo-dev-read
    subjects:
      - kind: Group
        apiGroup: rbac.authorization.k8s.io
        name: system:authenticated 
    2
    Copy to Clipboard Toggle word wrap
    1
    TempoStack CR의 테넌트 이름.
    2
    인증된 모든 OpenShift 사용자를 의미합니다.
  3. 대상 사용자에게 프로젝트의 속성을 읽을 수 있는 권한을 부여합니다. 다음 명령을 실행하면 됩니다.

    $ oc adm policy add-role-to-user view <username> -n <project>
    Copy to Clipboard Toggle word wrap

4.8. 오염 및 허용 오차 사용

전용 노드에서 TempoStack Pod를 예약하려면 OpenShift 4에서 nodeSelector 및 톨러레이션을 사용하여 인프라 노드에 다양한 TempoStack 구성 요소를 배포하는 방법을 참조하세요.

4.9. 모니터링 및 알림 구성

Tempo Operator는 배포자, 수집기 등 각 TempoStack 구성 요소에 대한 모니터링과 알림을 지원하고, Operator 자체에 대한 업그레이드 및 운영 지표를 제공합니다.

4.9.1. TempoStack 메트릭 및 알림 구성

TempoStack 인스턴스의 메트릭 및 경고를 활성화할 수 있습니다.

사전 요구 사항

  • 클러스터에서 사용자 정의 프로젝트에 대한 모니터링이 활성화됩니다.

프로세스

  1. TempoStack 인스턴스의 메트릭을 활성화하려면 spec.observability.metrics.createServiceMonitors 필드를 true 로 설정합니다.

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: <name>
    spec:
      observability:
        metrics:
          createServiceMonitors: true
    Copy to Clipboard Toggle word wrap
  2. TempoStack 인스턴스에 대한 경고를 활성화하려면 spec.observability.metrics.createPrometheusRules 필드를 true 로 설정합니다.

    apiVersion: tempo.grafana.com/v1alpha1
    kind: TempoStack
    metadata:
      name: <name>
    spec:
      observability:
        metrics:
          createPrometheusRules: true
    Copy to Clipboard Toggle word wrap

검증

웹 콘솔의 관리자 보기를 사용하여 구성이 성공했는지 확인할 수 있습니다.

  1. 모니터링대상으로 이동하여 소스: 사용자에 대해 필터링한 다음 tempo-<instance_name>-<component> 형식의 서비스 모니터링의 상태가 Up 인지 확인합니다.
  2. 경고가 올바르게 설정되었는지 확인하려면 모니터링경고경고 규칙으로 이동하여 소스: 사용자 에 대해 필터링한 다음 TempoStack 인스턴스 구성 요소에 대한 경고 규칙을 사용할 수 있는지 확인합니다.

4.9.2. Tempo Operator 메트릭 및 알림 구성

웹 콘솔에서 Tempo Operator를 설치할 때 이 네임스페이스에서 Operator 권장 클러스터 모니터링 활성화 확인란을 선택하여 Tempo Operator의 메트릭 및 경고를 생성할 수 있습니다.

설치 중에 확인란을 선택하지 않은 경우 Tempo Operator를 설치한 후에도 메트릭 및 경고를 수동으로 활성화할 수 있습니다.

프로세스

  • Tempo Operator가 설치된 프로젝트에서 openshift.io/cluster-monitoring: "true" 레이블을 추가합니다. 기본값은 openshift-tempo-operator입니다.

검증

웹 콘솔의 관리자 보기를 사용하여 구성이 성공했는지 확인할 수 있습니다.

  1. 모니터링대상으로 이동하여 소스: 플랫폼을 필터링한 다음 Up 상태가 있어야 하는 tempo-operator 를 검색합니다.
  2. 경고가 올바르게 설정되었는지 확인하려면 모니터링경고경고 규칙으로 이동하여 소스: 플랫폼에 대한 필터링 및 Tempo Operator경고 규칙을 찾습니다.

5장. 분산 추적 플랫폼 문제 해결

다양한 문제 해결 방법을 사용하여 TempoStack 또는 TempoMonolithic 인스턴스의 문제를 진단하고 해결할 수 있습니다.

5.1. 명령줄에서 진단 데이터 수집

지원 사례를 제출할 때 Red Hat 지원팀에 클러스터에 대한 진단 정보를 포함하는 것이 좋습니다. oc adm must-gather 도구를 사용하면 TempoStack 이나 TempoMonolithic 과 같은 다양한 유형의 리소스와 Deployment , Pod , ConfigMap 과 같은 생성된 리소스에 대한 진단 데이터를 수집할 수 있습니다. oc adm must-gather 도구는 이 데이터를 수집하는 새로운 Pod를 생성합니다.

프로세스

  • 수집된 데이터를 저장하려는 디렉토리에서 oc adm must-gather 명령을 실행하여 데이터를 수집합니다.

    $ oc adm must-gather --image=ghcr.io/grafana/tempo-operator/must-gather -- \
    /usr/bin/must-gather --operator-namespace <operator_namespace> 
    1
    Copy to Clipboard Toggle word wrap
    1
    Operator가 설치된 기본 네임스페이스는 openshift-tempo-operator 입니다.

검증

  • 새 디렉토리가 생성되었고 수집된 데이터가 포함되어 있는지 확인하세요.

6장. 업그레이드

작은 정보

더 이상 사용되지 않는 Distributed Tracing Platform(Jaeger)을 업그레이드하는 방법에 대한 자세한 내용은 Distributed Tracing Platform(Jaeger) 설명서의 업그레이드를 참조하세요.

버전 업그레이드의 경우 Tempo Operator는 OLM(Operator Lifecycle Manager)을 사용하여 클러스터에서 Operator의 설치, 업그레이드, RBAC(역할 기반 액세스 제어)를 제어합니다.

OLM은 기본적으로 OpenShift 컨테이너 플랫폼에서 실행됩니다. 사용 가능한 Operator 및 설치된 Operator의 업그레이드에 대한 OLM 쿼리입니다.

Tempo Operator가 새 버전으로 업그레이드되면 이를 관리하는 TempoStack 인스턴스를 검사하고 Operator의 새 버전에 해당하는 버전으로 업그레이드합니다.

7장. 분산 추적 플랫폼 제거

작은 정보

더 이상 사용되지 않는 Distributed Tracing Platform(Jaeger)을 제거하는 방법에 대한 자세한 내용은 Distributed Tracing Platform(Jaeger) 설명서에서 제거를 참조하세요.

OpenShift Container Platform 클러스터에서 Red Hat OpenShift Distributed Tracing Platform을 제거하는 단계는 다음과 같습니다.

  1. 모든 분산 추적 플랫폼 포드를 종료합니다.
  2. TempoStack 인스턴스를 제거합니다.
  3. Tempo Operator를 제거합니다.

7.1. 웹 콘솔을 사용하여 제거

웹 콘솔의 관리자 보기에서 TempoStack 인스턴스를 제거할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다.
  • Red Hat OpenShift Dedicated의 경우 dedicated-admin 역할이 있는 계정을 사용하여 로그인해야 합니다.

프로세스

  1. Operator설치된 OperatorTempo OperatorTempoStack으로 이동합니다.
  2. TempoStack 인스턴스를 제거하려면 kebabTempoStack 삭제삭제를 선택합니다.
  3. 선택 사항: Tempo Operator를 제거합니다.

7.2. CLI를 사용하여 제거

명령줄에서 TempoStack 인스턴스를 제거할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 을 실행합니다.

      $ oc login --username=<your_username>
      Copy to Clipboard Toggle word wrap

프로세스

  1. 다음 명령을 실행하여 TempoStack 인스턴스의 이름을 가져옵니다.

    $ oc get deployments -n <project_of_tempostack_instance>
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 TempoStack 인스턴스를 제거합니다.

    $ oc delete tempo <tempostack_instance_name> -n <project_of_tempostack_instance>
    Copy to Clipboard Toggle word wrap
  3. 선택 사항: Tempo Operator를 제거합니다.

검증

  1. 다음 명령을 실행하여 성공적으로 제거되었음을 나타내는 TempoStack 인스턴스가 출력에 없는지 확인합니다.

    $ oc get deployments -n <project_of_tempostack_instance>
    Copy to Clipboard Toggle word wrap

8장. 분산 추적 플랫폼(Jaeger)

8.1. 분산 추적 플랫폼(Jaeger) 설치

주의

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 3.5는 Red Hat이 지원하는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)의 마지막 릴리스였습니다.

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)에 대한 지원은 2025년 11월 3일에 종료됩니다.

Red Hat OpenShift Distributed Tracing Platform Operator(Jaeger)는 2025년 11월 3일 redhat-operators 카탈로그에서 제거됩니다. 자세한 내용은 Red Hat Knowledgebase 솔루션인 Jaeger Deprecation and Removal in OpenShift를 참조하세요.

분산 추적 수집 및 저장을 위해 OpenTelemetry Operator와 Tempo Operator의 Red Hat 빌드로 마이그레이션해야 합니다. 자세한 내용은 OpenTelemetry 설명서의 Red Hat 빌드에서 "마이그레이션", OpenTelemetry 설명서의 Red Hat 빌드에서 "설치", Distributed Tracing Platform 설명서의 "설치"를 참조하세요.

다음 두 가지 방법 중 하나로 OpenShift Container Platform에 Red Hat OpenShift Distributed Tracing Platform을 설치할 수 있습니다.

  • Red Hat OpenShift Service Mesh의 일부로 Red Hat OpenShift Distributed Tracing Platform을 설치할 수 있습니다. 분산 추적은 기본적으로 Service Mesh 설치에 포함됩니다. 서비스 메시의 일부로 Red Hat OpenShift Distributed Tracing Platform을 설치하려면 Red Hat Service Mesh 설치 지침을 따르세요. 서비스 메시와 동일한 네임스페이스에 Red Hat OpenShift Distributed Tracing Platform을 설치해야 합니다. 즉, ServiceMeshControlPlane 과 Red Hat OpenShift Distributed Tracing Platform 리소스는 동일한 네임스페이스에 있어야 합니다.
  • 서비스 메시를 설치하지 않으려면 Red Hat OpenShift Distributed Tracing Platform Operators를 사용하여 Distributed Tracing Platform을 직접 설치할 수 있습니다. 서비스 메시 없이 Red Hat OpenShift Distributed Tracing Platform을 설치하려면 다음 지침을 따르세요.

8.1.1. 사전 요구 사항

Red Hat OpenShift Distributed Tracing Platform을 설치하기 전에 설치 활동을 검토하고 필수 구성 요소를 충족하는지 확인하세요.

8.1.2. Red Hat OpenShift 분산 추적 플랫폼 설치 개요

Red Hat OpenShift Distributed Tracing Platform을 설치하는 단계는 다음과 같습니다.

  • 문서를 검토하고 배포 전략을 확인합니다.
  • 배포 전략에 영구 스토리지가 필요한 경우 OperatorHub를 통해 OpenShift Elasticsearch Operator를 설치합니다.
  • OperatorHub를 통해 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator를 설치합니다.
  • 사용자 정의 리소스 YAML 파일을 수정하여 배포 전략을 지원합니다.
  • OpenShift Container Platform 환경에 Red Hat OpenShift Distributed Tracing Platform(Jaeger)의 하나 이상의 인스턴스를 배포합니다.

8.1.3. OpenShift Elasticsearch Operator 설치

기본 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 배포는 Red Hat OpenShift Distributed Tracing Platform을 평가하거나 데모를 제공하거나 테스트 환경에서 Red Hat OpenShift Distributed Tracing Platform(Jaeger)을 사용하는 사람들이 빠르게 설치할 수 있도록 설계되었기 때문에 메모리 내 저장소를 사용합니다. 프로덕션 환경에서 Red Hat OpenShift Distributed Tracing Platform(Jaeger)을 사용하려면 영구 스토리지 옵션(이 경우 Elasticsearch)을 설치하고 구성해야 합니다.

사전 요구 사항

  • OpenShift Container Platform 웹 콘솔에 액세스할 수 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다. Red Hat OpenShift Dedicated를 사용하는 경우 dedicated-admin 역할이 있는 계정이 있어야 합니다.
주의

Operator의 커뮤니티 버전은 설치하지 마십시오. 커뮤니티 Operator는 지원되지 않습니다.

참고

이미 OpenShift Elasticsearch Operator를 OpenShift 로깅의 일부로 설치한 경우 OpenShift Elasticsearch Operator를 다시 설치할 필요가 없습니다. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 설치된 OpenShift Elasticsearch Operator를 사용하여 Elasticsearch 인스턴스를 생성합니다.

프로세스

  1. cluster-admin 역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우 dedicated-admin 역할이 있는 계정이 있어야 합니다.
  2. OperatorsOperatorHub로 이동합니다.
  3. Elasticsearch를 필터 상자에 입력하여 OpenShift Elasticsearch Operator를 찾습니다.
  4. Red Hat에서 제공하는 OpenShift Elasticsearch Operator를 클릭하여 Operator에 대한 정보를 표시합니다.
  5. 설치를 클릭합니다.
  6. Operator 설치 페이지에서 stable 업데이트 채널을 선택합니다. 이렇게 하면 새 버전이 릴리스되면 Operator가 자동으로 업데이트됩니다.
  7. 클러스터의 기본 모든 네임스페이스(기본값)를 허용합니다. 이렇게 하면 기본 openshift-operators-redhat 프로젝트에 Operator가 설치되고 클러스터의 모든 프로젝트에서 Operator를 사용할 수 있습니다.

    참고

    Elasticsearch 설치에는 OpenShift Elasticsearch Operator의 openshift-operators-redhat 네임스페이스가 필요합니다. 다른 Red Hat OpenShift Distributed Tracing Platform Operator는 openshift-operators 네임스페이스에 설치됩니다.

  8. 기본 자동 승인 전략을 수락합니다. 기본값을 수락하면 새 버전의 이 Operator가 사용 가능할 때 OLM(Operator Lifecycle Manager)은 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다. 수동 업데이트를 선택하면 최신 버전의 Operator가 사용 가능할 때 OLM이 업데이트 요청을 작성합니다. 클러스터 관리자는 Operator를 새 버전으로 업데이트하려면 OLM 업데이트 요청을 수동으로 승인해야 합니다.

    참고

    수동 승인 전략을 사용하려면 적절한 인증 정보를 가진 사용자가 Operator 설치 및 서브스크립션 프로세스를 승인해야 합니다.

  9. 설치를 클릭합니다.
  10. 설치된 Operator 페이지에서 openshift-operators-redhat 프로젝트를 선택합니다. 계속하기 전에 OpenShift Elasticsearch Operator의 InstallSucceeded 상태가 될 때까지 기다립니다.

8.1.4. Red Hat OpenShift 분산 추적 플랫폼 운영자 설치

OperatorHub를 통해 Red Hat OpenShift Distributed Tracing Platform Operator를 설치할 수 있습니다.

기본적으로 Operator는 openshift-operators 프로젝트에 설치됩니다.

사전 요구 사항

  • OpenShift Container Platform 웹 콘솔에 액세스할 수 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다. Red Hat OpenShift Dedicated를 사용하는 경우 dedicated-admin 역할이 있는 계정이 있어야 합니다.
  • 영구 저장소가 필요한 경우 Red Hat OpenShift Distributed Tracing Platform Operator를 설치하기 전에 OpenShift Elasticsearch Operator를 설치해야 합니다.

프로세스

  1. cluster-admin 역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우 dedicated-admin 역할이 있는 계정이 있어야 합니다.
  2. OperatorsOperatorHub로 이동합니다.
  3. 검색 필드에 'distributed tracing platform'을 입력하여 Red Hat OpenShift Distributed Tracing Platform Operator를 검색합니다.
  4. Red Hat에서 제공하는 Red Hat OpenShift Distributed Tracing Platform Operator를 선택하면 해당 Operator에 대한 정보가 표시됩니다.
  5. 설치를 클릭합니다.
  6. 설치 운영자 페이지의 업데이트 채널 에서 안정을 선택하면 새 버전이 출시될 때 운영자가 자동으로 업데이트됩니다.
  7. 클러스터의 기본 모든 네임스페이스(기본값)를 허용합니다. 이렇게 하면 기본 openshift-operators 프로젝트에서 Operator가 설치되고 클러스터의 모든 프로젝트에서 Operator를 사용할 수 있습니다.
  8. 기본 자동 승인 전략을 수락합니다.

    참고

    이 기본값을 수락하면 Operator Lifecycle Manager(OLM)가 Operator의 새 버전이 출시될 때마다 해당 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.

    수동 업데이트를 선택하면 OLM은 Operator의 새 버전이 출시될 때 업데이트 요청을 생성합니다. Operator를 새 버전으로 업데이트하려면 클러스터 관리자로서 업데이트 요청을 수동으로 승인해야 합니다. 수동 승인 전략을 사용하려면 클러스터 관리자가 Operator 설치 및 구독을 수동으로 승인해야 합니다.

  9. 설치를 클릭합니다.
  10. Operators설치된 Operator로 이동합니다.
  11. 설치된 Operator 페이지에서 openshift-operators 프로젝트를 선택합니다. 계속 진행하기 전에 Red Hat OpenShift Distributed Tracing Platform Operator의 성공 상태가 될 때까지 기다리세요.

8.2. 분산 추적 플랫폼(Jaeger) 구성

주의

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 3.5는 Red Hat이 지원하는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)의 마지막 릴리스였습니다.

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)에 대한 지원은 2025년 11월 3일에 종료됩니다.

Red Hat OpenShift Distributed Tracing Platform Operator(Jaeger)는 2025년 11월 3일 redhat-operators 카탈로그에서 제거됩니다. 자세한 내용은 Red Hat Knowledgebase 솔루션인 Jaeger Deprecation and Removal in OpenShift를 참조하세요.

분산 추적 수집 및 저장을 위해 OpenTelemetry Operator와 Tempo Operator의 Red Hat 빌드로 마이그레이션해야 합니다. 자세한 내용은 OpenTelemetry 설명서의 Red Hat 빌드에서 "마이그레이션", OpenTelemetry 설명서의 Red Hat 빌드에서 "설치", Distributed Tracing Platform 설명서의 "설치"를 참조하세요.

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 Distributed Tracing Platform(Jaeger) 리소스를 만들고 배포할 때 사용할 아키텍처와 구성 설정을 정의하는 사용자 정의 리소스 정의(CRD) 파일을 사용합니다. 기본 구성을 설치하거나 파일을 수정할 수 있습니다.

Red Hat OpenShift Service Mesh의 일부로 Distributed Tracing Platform을 설치한 경우 ServiceMeshControlPlane 의 일부로 기본 구성을 수행할 수 있지만 완전한 제어를 위해서는 Jaeger CR을 구성한 다음 ServiceMeshControlPlane에서 분산 추적 구성 파일을 참조해야 합니다 .

Red Hat OpenShift Distributed Tracing Platform(Jaeger)에는 사전 정의된 배포 전략이 있습니다. 사용자 정의 리소스 파일에 배포 전략을 지정합니다. 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하면 운영자는 이 구성 파일을 사용하여 배포에 필요한 객체를 생성합니다.

배포 전략을 표시하는 Jaeger 사용자 정의 리소스 파일

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: MyConfigFile
spec:
  strategy: production 
1
Copy to Clipboard Toggle word wrap

1
배포 전략.

8.2.1. 지원되는 배포 전략

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 현재 다음과 같은 배포 전략을 지원합니다.

allInOne

- 이 전략은 개발, 테스트 및 데모 목적으로 사용되며 프로덕션 용도로는 사용되지 않습니다. 기본 백엔드 구성 요소인 에이전트, 수집기 및 쿼리 서비스는 기본적으로 메모리 내 스토리지를 사용하도록 구성된 단일 실행 파일로 패키지됩니다.

참고

메모리 내 스토리지는 영구적이지 않으므로 분산 추적 플랫폼(Jaeger) 인스턴스가 종료되거나, 다시 시작되거나, 교체되면 추적 데이터가 손실됩니다. 각 Pod에 자체 메모리가 있으므로 메모리 내 스토리지를 확장할 수 없습니다. 영구 스토리지의 경우 Elasticsearch를 기본 스토리지로 사용하는 production 또는 streaming 전략을 사용해야 합니다.

Production
프로덕션 전략은 장기적인 추적 데이터 저장과 더 확장 가능하고 가용성이 높은 아키텍처가 필요한 프로덕션 환경을 위한 것입니다. 따라서 각 백엔드 구성 요소는 별도로 배포됩니다. 에이전트는 조정된 애플리케이션에서 사이드카로 삽입될 수 있습니다. 쿼리 및 수집기 서비스는 지원되는 스토리지 유형(현재 Elasticsearch)으로 구성됩니다. 이러한 각 구성 요소의 여러 인스턴스는 성능 및 복원에 필요한 대로 프로비저닝할 수 있습니다.
streaming

스트리밍 전략은 수집기와 Elasticsearch 백엔드 스토리지 간에 효과적으로 적용되는 스트리밍 기능을 제공하여 프로덕션 전략을 보강하도록 설계되었습니다. 이를 통해 높은 로드 상황에서 백엔드 스토리지의 부담을 줄이고 다른 추적 후 처리 기능을 통해 스트리밍 플랫폼(AMQ Streams/ Kafka)에서 직접 실시간 데이터를 가져올 수 있습니다.

참고
  • 스트리밍 전략에는 AMQ Streams에 대한 추가 Red Hat 서브스크립션이 필요합니다.
  • 스트리밍 배포 전략은 현재 IBM Z®에서 지원되지 않습니다.

8.2.2. 웹 콘솔에서 분산 추적 플랫폼 기본 전략 배포

사용자 정의 리소스 정의(CRD)는 Red Hat OpenShift Distributed Tracing Platform 인스턴스를 배포할 때 사용되는 구성을 정의합니다. 기본 CR 이름은 jaeger-all-in-one-inmemory 로 지정되어 기본 OpenShift Container Platform 설치에 성공적으로 설치할 수 있도록 최소한의 리소스로 구성됩니다. 이 기본 구성을 사용하여 AllInOne 배포 전략을 사용하는 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 인스턴스를 만들거나 사용자 정의 리소스 파일을 정의할 수 있습니다.

참고

메모리 내 스토리지는 영구적이지 않습니다. Jaeger Pod가 종료, 재시작 또는 교체되면 추적 데이터가 손실됩니다. 영구 스토리지의 경우 Elasticsearch를 기본 스토리지로 사용하는 production 또는 streaming 전략을 사용해야 합니다.

사전 요구 사항

  • Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 설치되었습니다.
  • 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. cluster-admin 역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다.
  2. 새 프로젝트를 생성합니다(예: tracing-system ).

    참고

    Service Mesh의 일부로 설치하는 경우 Distributed Tracing Platform 리소스는 ServiceMeshControlPlane 리소스와 동일한 네임스페이스(예: istio-system ) 에 설치해야 합니다.

    1. 프로젝트로 이동합니다.
    2. 프로젝트 만들기를 클릭합니다.
    3. 이름 필드에 tracing-system 을 입력합니다.
    4. 생성을 클릭합니다.
  3. Operators설치된 Operator로 이동합니다.
  4. 필요한 경우 프로젝트 메뉴에서 tracing-system 을 선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다.
  5. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator를 클릭합니다. 세부 정보 탭의 제공된 API 에서 Operator는 단일 링크를 제공합니다.
  6. Jaeger 에서 인스턴스 생성을 클릭합니다.
  7. Jaeger 생성 페이지에서 기본값을 사용하여 설치하려면 생성을 클릭하여 분산 추적 플랫폼(Jaeger) 인스턴스를 생성합니다.
  8. Jaegers 페이지에서 Distributed Tracing Platform(Jaeger) 인스턴스의 이름(예: jaeger-all-in-one-inmemory )을 클릭합니다.
  9. Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
8.2.2.1. CLI에서 분산 추적 플랫폼 기본 전략 배포

명령줄에서 Distributed Tracing Platform(Jaeger) 인스턴스를 생성하려면 다음 절차를 따르세요.

사전 요구 사항

  • Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 설치 및 검증되었습니다.
  • 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
  • OpenShift Container Platform 버전과 일치하는 OpenShift CLI(oc)에 액세스할 수 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. 다음 명령을 실행하여 cluster-admin 역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다.

    $ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 tracing-system 이라는 새 프로젝트를 생성합니다.

    $ oc new-project tracing-system
    Copy to Clipboard Toggle word wrap
  3. 다음 텍스트가 포함된 jaeger.yaml이라는 사용자 정의 리소스 파일을 생성합니다.

    예: jaeger-all-one.yaml

    apiVersion: jaegertracing.io/v1
    kind: Jaeger
    metadata:
      name: jaeger-all-in-one-inmemory
    Copy to Clipboard Toggle word wrap

  4. 다음 명령을 실행하여 Distributed Tracing Platform(Jaeger)을 배포합니다.

    $ oc create -n tracing-system -f jaeger.yaml
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.

    $ oc get pods -n tracing-system -w
    Copy to Clipboard Toggle word wrap

    설치 프로세스가 완료되면 출력은 다음 예와 유사합니다.

    NAME                                         READY   STATUS    RESTARTS   AGE
    jaeger-all-in-one-inmemory-cdff7897b-qhfdx   2/2     Running   0          24s
    Copy to Clipboard Toggle word wrap

8.2.3. 웹 콘솔에서 분산 추적 플랫폼 프로덕션 전략 배포

production 배포 전략은 보다 확장 가능하고 가용성이 높은 아키텍처가 필요하고 추적 데이터의 장기 스토리지가 중요한 프로덕션 환경을 위한 것입니다.

사전 요구 사항

  • OpenShift Elasticsearch Operator가 설치되었습니다.
  • Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 설치되었습니다.
  • 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. cluster-admin 역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다.
  2. 새 프로젝트를 생성합니다(예: tracing-system ).

    참고

    Service Mesh의 일부로 설치하는 경우 Distributed Tracing Platform 리소스는 ServiceMeshControlPlane 리소스와 동일한 네임스페이스(예: istio-system ) 에 설치해야 합니다.

    1. 프로젝트로 이동합니다.
    2. 프로젝트 만들기를 클릭합니다.
    3. 이름 필드에 tracing-system 을 입력합니다.
    4. 생성을 클릭합니다.
  3. Operators설치된 Operator로 이동합니다.
  4. 필요한 경우 프로젝트 메뉴에서 tracing-system 을 선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다.
  5. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator를 클릭합니다. 개요 탭의 제공된 API에서 Operator는 단일 링크를 제공합니다.
  6. Jaeger 에서 인스턴스 생성을 클릭합니다.
  7. Jaeger 생성 페이지에서 기본 all-in-one YAML 텍스트를 프로덕션 YAML 구성으로 교체합니다. 예를 들면 다음과 같습니다.

    예 jaeger-production.yaml 파일을 Elasticsearch로

    apiVersion: jaegertracing.io/v1
    kind: Jaeger
    metadata:
      name: jaeger-production
      namespace:
    spec:
      strategy: production
      ingress:
        security: oauth-proxy
      storage:
        type: elasticsearch
        elasticsearch:
          nodeCount: 3
          redundancyPolicy: SingleRedundancy
        esIndexCleaner:
          enabled: true
          numberOfDays: 7
          schedule: 55 23 * * *
        esRollover:
          schedule: '*/30 * * * *'
    Copy to Clipboard Toggle word wrap

  8. 만들기를 클릭하여 Distributed Tracing Platform(Jaeger) 인스턴스를 만듭니다.
  9. Jaegers 페이지에서 분산 추적 플랫폼(Jaeger) 인스턴스의 이름(예: jaeger-prod-elasticsearch ) 을 클릭합니다.
  10. Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 모든 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
8.2.3.1. CLI에서 분산 추적 플랫폼 프로덕션 전략 배포

명령줄에서 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하려면 다음 절차를 따르십시오.

사전 요구 사항

  • OpenShift Elasticsearch Operator가 설치되었습니다.
  • Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator가 설치되어 있습니다.
  • 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
  • OpenShift Container Platform 버전과 일치하는 OpenShift CLI(oc)에 액세스할 수 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. 다음 명령을 실행하여 cluster-admin 역할의 사용자로 OpenShift CLI(oc)에 로그인합니다.

    $ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 tracing-system 이라는 새 프로젝트를 생성합니다.

    $ oc new-project tracing-system
    Copy to Clipboard Toggle word wrap
  3. 이전 프로세스의 예제 텍스트가 포함된 jaeger-production.yaml이라는 사용자 정의 리소스 파일을 생성합니다.
  4. 다음 명령을 실행하여 분산 추적 플랫폼(Jaeger)을 배포합니다.

    $ oc create -n tracing-system -f jaeger-production.yaml
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.

    $ oc get pods -n tracing-system -w
    Copy to Clipboard Toggle word wrap

    설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.

    NAME                                                              READY   STATUS    RESTARTS   AGE
    elasticsearch-cdm-jaegersystemjaegerproduction-1-6676cf568gwhlw   2/2     Running   0          10m
    elasticsearch-cdm-jaegersystemjaegerproduction-2-bcd4c8bf5l6g6w   2/2     Running   0          10m
    elasticsearch-cdm-jaegersystemjaegerproduction-3-844d6d9694hhst   2/2     Running   0          10m
    jaeger-production-collector-94cd847d-jwjlj                        1/1     Running   3          8m32s
    jaeger-production-query-5cbfbd499d-tv8zf                          3/3     Running   3          8m32s
    Copy to Clipboard Toggle word wrap

8.2.4. 웹 콘솔에서 분산 추적 플랫폼 스트리밍 전략 배포

streaming 배포 전략은 보다 확장 가능하고 가용성이 높은 아키텍처가 필요하고 추적 데이터의 장기 스토리지가 중요한 프로덕션 환경을 위한 것입니다.

streaming 전략은 Collector와 Elasticsearch 스토리지 사이에 있는 스트리밍 기능을 제공합니다. 이렇게 하면 높은 로드 상황에서 스토리지의 부담을 줄이고 다른 추적 후 처리 기능을 통해 Kafka 스트리밍 플랫폼에서 직접 실시간 데이터를 활용할 수 있습니다.

참고

스트리밍 전략에는 AMQ Streams에 대한 추가 Red Hat 서브스크립션이 필요합니다. AMQ Streams 서브스크립션이 없는 경우 영업 담당자에게 자세한 내용을 문의하십시오.

참고

스트리밍 배포 전략은 현재 IBM Z®에서 지원되지 않습니다.

사전 요구 사항

  • AMQ Streams Operator가 설치되었습니다. 버전 1.4.0 이상을 사용하는 경우 자체 프로비저닝을 사용할 수 있습니다. 그렇지 않으면 Kafka 인스턴스를 생성해야 합니다.
  • Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator가 설치되어 있습니다.
  • 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. cluster-admin 역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다.
  2. 새 프로젝트를 생성합니다(예: tracing-system ).

    참고

    Service Mesh의 일부로 설치하는 경우 Distributed Tracing Platform 리소스는 ServiceMeshControlPlane 리소스와 동일한 네임스페이스에 설치해야 합니다(예: istio-system ).

    1. 프로젝트로 이동합니다.
    2. 프로젝트 만들기를 클릭합니다.
    3. 이름 필드에 tracing-system 을 입력합니다.
    4. 생성을 클릭합니다.
  3. Operators설치된 Operator로 이동합니다.
  4. 필요한 경우 프로젝트 메뉴에서 tracing-system 을 선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다.
  5. Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator를 클릭합니다. 개요 탭의 제공된 API에서 Operator는 단일 링크를 제공합니다.
  6. Jaeger 에서 인스턴스 생성을 클릭합니다.
  7. Jaeger 생성 페이지에서 기본 all-in-one YAML 텍스트를 스트리밍 YAML 구성으로 교체합니다. 예를 들면 다음과 같습니다.

    jaeger-streaming.yaml 파일 예

    apiVersion: jaegertracing.io/v1
    kind: Jaeger
    metadata:
      name: jaeger-streaming
    spec:
      strategy: streaming
      collector:
        options:
          kafka:
            producer:
              topic: jaeger-spans
              brokers: my-cluster-kafka-brokers.kafka:9092 
    1
    
      storage:
        type: elasticsearch
      ingester:
        options:
          kafka:
            consumer:
              topic: jaeger-spans
              brokers: my-cluster-kafka-brokers.kafka:9092
    Copy to Clipboard Toggle word wrap

    1
    브로커가 정의되지 않은 경우 AMQStreams 1.4.0+ 자체 프로비저닝 Kafka입니다.
  8. 생성 을 클릭하여 분산 추적 플랫폼(Jaeger) 인스턴스를 생성합니다.
  9. Jaegers 페이지에서 분산 추적 플랫폼(Jaeger) 인스턴스의 이름을 클릭합니다(예: jaeger-streaming ).
  10. Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 모든 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
8.2.4.1. CLI에서 분산 추적 플랫폼 스트리밍 전략 배포

명령줄에서 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하려면 다음 절차를 따르십시오.

사전 요구 사항

  • AMQ Streams Operator가 설치되었습니다. 버전 1.4.0 이상을 사용하는 경우 자체 프로비저닝을 사용할 수 있습니다. 그렇지 않으면 Kafka 인스턴스를 생성해야 합니다.
  • Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator가 설치되어 있습니다.
  • 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
  • OpenShift Container Platform 버전과 일치하는 OpenShift CLI(oc)에 액세스할 수 있습니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. 다음 명령을 실행하여 cluster-admin 역할의 사용자로 OpenShift CLI(oc)에 로그인합니다.

    $ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
    Copy to Clipboard Toggle word wrap
  2. 다음 명령을 실행하여 tracing-system 이라는 새 프로젝트를 생성합니다.

    $ oc new-project tracing-system
    Copy to Clipboard Toggle word wrap
  3. 이전 프로세스의 예제 텍스트가 포함된 jaeger-streaming.yaml이라는 사용자 정의 리소스 파일을 생성합니다.
  4. 다음 명령을 실행하여 Jaeger를 배포합니다.

    $ oc create -n tracing-system -f jaeger-streaming.yaml
    Copy to Clipboard Toggle word wrap
  5. 다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.

    $ oc get pods -n tracing-system -w
    Copy to Clipboard Toggle word wrap

    설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.

    NAME                                                              READY   STATUS    RESTARTS   AGE
    elasticsearch-cdm-jaegersystemjaegerstreaming-1-697b66d6fcztcnn   2/2     Running   0          5m40s
    elasticsearch-cdm-jaegersystemjaegerstreaming-2-5f4b95c78b9gckz   2/2     Running   0          5m37s
    elasticsearch-cdm-jaegersystemjaegerstreaming-3-7b6d964576nnz97   2/2     Running   0          5m5s
    jaeger-streaming-collector-6f6db7f99f-rtcfm                       1/1     Running   0          80s
    jaeger-streaming-entity-operator-6b6d67cc99-4lm9q                 3/3     Running   2          2m18s
    jaeger-streaming-ingester-7d479847f8-5h8kc                        1/1     Running   0          80s
    jaeger-streaming-kafka-0                                          2/2     Running   0          3m1s
    jaeger-streaming-query-65bf5bb854-ncnc7                           3/3     Running   0          80s
    jaeger-streaming-zookeeper-0                                      2/2     Running   0          3m39s
    Copy to Clipboard Toggle word wrap

8.2.5. 배포 검증

8.2.5.1. Jaeger 콘솔에 액세스

Jaeger 콘솔에 액세스하려면 Red Hat OpenShift Service Mesh 또는 Red Hat OpenShift Distributed Tracing Platform이 설치되어 있어야 하며 Red Hat OpenShift Distributed Tracing Platform (Jaeger)이 설치, 구성 및 배포되어야 합니다.

설치 프로세스는 Jaeger 콘솔에 액세스하기 위한 경로를 생성합니다.

Jaeger 콘솔의 URL을 알고 있으면 직접 액세스할 수 있습니다. URL을 모르는 경우 다음 지침을 사용합니다.

웹 콘솔의 절차

  1. OpenShift Container Platform 웹 콘솔에 cluster-admin 권한이 있는 사용자로 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우 dedicated-admin 역할의 계정이 있어야 합니다.
  2. 네트워킹경로로 이동합니다.
  3. 경로 페이지의 네임스페이스 메뉴에서 컨트롤 플레인 프로젝트(예: tracing-system )를 선택합니다.

    위치 열에는 각 경로에 연결된 주소가 표시됩니다.

  4. 필요한 경우 필터를 사용하여 jaeger 경로를 찾습니다. 콘솔을 시작하려면 경로 위치를 클릭합니다.
  5. OpenShift를 사용하여 로그인을 클릭합니다.

CLI의 프로세스

  1. 다음 명령을 실행하여 cluster-admin 역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우 dedicated-admin 역할의 계정이 있어야 합니다.

    $ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:6443
    Copy to Clipboard Toggle word wrap
  2. 명령줄을 사용하여 경로 세부 정보를 쿼리하려면 다음 명령을 입력합니다. 이 예에서 tracing-system 은 컨트롤 플레인 네임스페이스입니다.

    $ export JAEGER_URL=$(oc get route -n tracing-system jaeger -o jsonpath='{.spec.host}')
    Copy to Clipboard Toggle word wrap
  3. 브라우저를 시작하고 https://<JAEGER_URL>로 이동합니다. 여기서 <JAEGER_URL>은 이전 단계에서 발견한 경로입니다.
  4. OpenShift Container Platform 콘솔에 액세스하는 데 사용하는 것과 동일한 사용자 이름 및 암호를 사용하여 로그인합니다.
  5. 서비스 메시에 서비스를 추가하고 추적을 생성한 경우 필터를 사용하고 추적 찾기 버튼을 사용하여 추적 데이터를 검색할 수 있습니다.

    콘솔 설치를 검증하는 경우 표시할 추적 데이터가 없습니다.

8.2.6. 배포 사용자 정의

8.2.6.1. 배포 모범 사례
  • Red Hat OpenShift Distributed Tracing Platform 인스턴스 이름은 고유해야 합니다. Red Hat OpenShift Distributed Tracing Platform (Jaeger) 인스턴스를 여러 개 보유하고 있고 사이드카 삽입 에이전트를 사용하고자 하는 경우 Red Hat OpenShift Distributed Tracing Platform (Jaeger) 인스턴스에 고유한 이름이 있어야 하며 injection 주석은 추적 데이터를 보고해야 하는 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 인스턴스 이름을 명시적으로 지정해야 합니다.
  • 다중 테넌트 구현과 테넌트가 네임스페이스로 구분된 경우 Red Hat OpenShift Distributed Tracing Platform (Jaeger) 인스턴스를 각 테넌트 네임스페이스에 배포합니다.

영구 스토리지 구성에 대한 자세한 내용은 영구 스토리지 및 선택한 스토리지 옵션에 대한 적절한 구성 주제 이해 를 참조하십시오.

8.2.6.2. 분산 추적 기본 구성 옵션

Jaeger CR(사용자 정의 리소스)은 분산 추적 플랫폼(Jaeger) 리소스를 생성할 때 사용할 아키텍처 및 설정을 정의합니다. 이러한 매개변수를 수정하여 비즈니스 요구에 맞게 분산 추적 플랫폼(Jaeger) 구현을 사용자 지정할 수 있습니다.

Jaeger CR의 일반 YAML 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: name
spec:
  strategy: <deployment_strategy>
  allInOne:
    options: {}
    resources: {}
  agent:
    options: {}
    resources: {}
  collector:
    options: {}
    resources: {}
  sampling:
    options: {}
  storage:
    type:
    options: {}
  query:
    options: {}
    resources: {}
  ingester:
    options: {}
    resources: {}
  options: {}
Copy to Clipboard Toggle word wrap

Expand
표 8.1. Jaeger 매개변수
매개변수설명기본값

apiVersion:

오브젝트를 생성할 때 사용할 API 버전입니다.

jaegertracing.io/v1

jaegertracing.io/v1

kind:

생성할 Kubernetes 오브젝트를 정의합니다.

jaeger

 

metadata:

name 문자열, UID 및 선택적 namespace 를 포함하여 오브젝트를 고유하게 식별할 수 있는 데이터입니다.

 

OpenShift Container Platform은 UID를 자동으로 생성하고 오브젝트가 생성된 프로젝트의 이름으로 namespace를 완료합니다.

name:

오브젝트의 이름입니다.

분산 추적 플랫폼(Jaeger) 인스턴스의 이름입니다.

jaeger-all-in-one-inmemory

spec:

생성할 오브젝트의 사양입니다.

Jaeger(Distributed Tracing Platform) 인스턴스에 대한 모든 구성 매개변수를 포함합니다. 모든 Jaeger 구성 요소에 대한 공통 정의가 필요한 경우 spec 노드 아래에 정의됩니다. 정의가 개별 구성 요소와 관련된 경우 spec/<component> 노드 아래에 배치됩니다.

해당 없음

strategy:

Jaeger 배포 전략

allInOne, production 또는 streaming

allInOne

allInOne:

allInOne 이미지는 에이전트, 수집기, 쿼리, Ingester 및 Jaeger UI를 단일 Pod에 배포하므로 이 배포에 대한 구성은 allInOne 매개변수 아래에 구성 요소를 중첩해야 합니다.

  

agent:

에이전트를 정의하는 구성 옵션입니다.

  

collector:

Jaeger 수집기를 정의하는 구성 옵션입니다.

  

sampling:

추적을 위한 샘플링 전략을 정의하는 구성 옵션입니다.

  

storage:

스토리지를 정의하는 구성 옵션입니다. 모든 스토리지 관련 옵션은 allInOne 또는 기타 구성 요소 옵션에 있지 않고 storage 아래에 배치되어야 합니다.

  

query:

쿼리 서비스를 정의하는 구성 옵션입니다.

  

ingester:

Ingester 서비스를 정의하는 구성 옵션입니다.

  

다음 YAML 예제는 기본 설정을 사용하여 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 배포를 생성하는 데 필요한 최소한의 내용입니다.

예: 최소 필수 dist-tracing-all-in-one.yaml

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: jaeger-all-in-one-inmemory
Copy to Clipboard Toggle word wrap

8.2.6.3. 오염 및 허용 오차 사용

전용 노드에서 Jaeger 및 Elasticsearch Pod를 예약하려면 OpenShift 4에서 nodeSelector 및 허용 기능을 사용하여 인프라 노드에 다양한 Jaeger 구성 요소를 배포하는 방법을 참조하세요.

8.2.6.4. Jaeger 수집기 구성 옵션

Jaeger 수집기는 추적기에서 캡처한 기간을 수신하여 production 전략을 사용할 때 영구 Elasticsearch 스토리지에 기록하거나 streaming 전략을 사용할 때 AMQ Streams에 쓰는 구성 요소입니다.

수집기는 상태 비저장이므로 Jaeger 수집기의 많은 인스턴스를 병렬로 실행할 수 있습니다. 수집기는 Elasticsearch 클러스터의 위치를 제외하고 거의 구성이 필요하지 않습니다.

Expand
표 8.2. Operator에서 Jaeger Collector를 정의하는 데 사용하는 매개변수
매개변수설명
collector:
  replicas:
Copy to Clipboard Toggle word wrap

생성할 수집기 복제본 수를 지정합니다.

정수(예: 5)

Expand
표 8.3. 수집기에 전달된 구성 매개변수
매개변수설명
spec:
 collector:
  options: {}
Copy to Clipboard Toggle word wrap

Jaeger 수집기를 정의하는 구성 옵션입니다.

 
options:
  collector:
    num-workers:
Copy to Clipboard Toggle word wrap

큐에서 가져온 작업자 수입니다.

정수(예: 50)

options:
  collector:
    queue-size:
Copy to Clipboard Toggle word wrap

수집기 큐의 크기입니다.

정수(예: 2000)

options:
  kafka:
    producer:
      topic: jaeger-spans
Copy to Clipboard Toggle word wrap

topic 매개변수는 메시지를 생성하기 위해 수집기에서 사용하는 Kafka 구성과 메시지를 사용하는 Ingester를 식별합니다.

프로듀서의 레이블입니다.

options:
  kafka:
    producer:
      brokers: my-cluster-kafka-brokers.kafka:9092
Copy to Clipboard Toggle word wrap

메시지를 생성하기 위해 수집기에서 사용하는 Kafka 구성을 식별합니다. 브로커가 지정되지 않고 AMQ Streams 1.4.0+이 설치되어 있는 경우 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 Kafka를 자체적으로 프로비저닝합니다.

 
options:
  log-level:
Copy to Clipboard Toggle word wrap

수집기의 로깅 수준입니다.

가능한 값: debug,info,warn,error,fatal,panic.

options:
  otlp:
    enabled: true
    grpc:
      host-port: 4317
      max-connection-age: 0s
      max-connection-age-grace: 0s
      max-message-size: 4194304
      tls:
        enabled: false
        cert: /path/to/cert.crt
        cipher-suites: "TLS_AES_256_GCM_SHA384,TLS_CHACHA20_POLY1305_SHA256"
        client-ca: /path/to/cert.ca
        reload-interval: 0s
        min-version: 1.2
        max-version: 1.3
Copy to Clipboard Toggle word wrap

OTLP/gRPC를 허용하려면 otlp를 명시적으로 활성화하세요. 다른 모든 옵션은 선택 사항입니다.

 
options:
  otlp:
    enabled: true
    http:
      cors:
        allowed-headers: [<header-name>[, <header-name>]*]
        allowed-origins: *
      host-port: 4318
      max-connection-age: 0s
      max-connection-age-grace: 0s
      max-message-size: 4194304
      read-timeout: 0s
      read-header-timeout: 2s
      idle-timeout: 0s
      tls:
        enabled: false
        cert: /path/to/cert.crt
        cipher-suites: "TLS_AES_256_GCM_SHA384,TLS_CHACHA20_POLY1305_SHA256"
        client-ca: /path/to/cert.ca
        reload-interval: 0s
        min-version: 1.2
        max-version: 1.3
Copy to Clipboard Toggle word wrap

OTLP/HTTP를 허용하려면 otlp를 명시적으로 활성화하세요. 다른 모든 옵션은 선택 사항입니다.

 
8.2.6.5. 분산 추적 샘플링 구성 옵션

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 원격 샘플러를 사용하도록 구성된 추적기에 제공되는 샘플링 전략을 정의하는 데 사용할 수 있습니다.

모든 추적이 생성되지만 소수만 샘플링됩니다. 추적 샘플링은 추가 처리 및 스토리지의 추적을 나타냅니다.

참고

이는 샘플링 결정에 따라 Envoy 프록시에서 추적을 시작한 경우와 관련이 없습니다. Jaeger 샘플링 결정은 클라이언트를 사용하는 애플리케이션에서 추적을 시작할 때만 관련이 있습니다.

서비스에서 추적 컨텍스트가 없는 요청을 수신하면 클라이언트는 새 추적을 시작하고 임의의 추적 ID를 할당하고 현재 설치된 샘플링 전략에 따라 샘플링 결정을 내립니다. 샘플링 결정은 다른 서비스가 샘플링 결정을 다시 하지 않도록 추적의 모든 후속 요청으로 전파됩니다.

Jaeger(Distributed Tracing Platform) 라이브러리는 다음 샘플러를 지원합니다.

  • 확률론 - 샘플러는 샘플링(sampling.param) 속성의 값과 동일한 샘플링의 확률로 임의 샘플링 결정을 내립니다. 예를 들어, sampling.param=0.1 샘플을 사용하여 10개의 추적 중 약 1개를 샘플링합니다.
  • 속도 제한 - 샘플러는 누수된 버킷 속도 제한기를 사용하여 추적을 특정한 일정 속도로 샘플링합니다. 예를 들어, sampling.param=2.0 샘플 요청을 초당 2개 추적 속도로 사용합니다.
Expand
표 8.4. Jaeger 샘플링 옵션
매개변수설명기본값
spec:
 sampling:
  options: {}
    default_strategy:
    service_strategy:
Copy to Clipboard Toggle word wrap

추적을 위한 샘플링 전략을 정의하는 구성 옵션입니다.

 

구성을 제공하지 않으면 수집기는 모든 서비스에 대해 0.001(0.1%)인 기본 확률 샘플링 정책을 반환합니다.

default_strategy:
  type:
service_strategy:
  type:
Copy to Clipboard Toggle word wrap

사용할 샘플링 전략입니다. 위의 설명을 참조하십시오.

유효한 값은 probabilisticratelimiting입니다.

probabilistic

default_strategy:
  param:
service_strategy:
  param:
Copy to Clipboard Toggle word wrap

선택한 샘플링 전략에 대한 매개변수입니다.

10진수 및 정수 값(0, .1, 1, 10)

1

이 예에서는 추적 인스턴스가 샘플링될 가능성이 50%인 비율로 확률적인 기본 샘플링 전략을 정의합니다.

확률 샘플링 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: with-sampling
spec:
  sampling:
    options:
      default_strategy:
        type: probabilistic
        param: 0.5
      service_strategies:
        - service: alpha
          type: probabilistic
          param: 0.8
          operation_strategies:
            - operation: op1
              type: probabilistic
              param: 0.2
            - operation: op2
              type: probabilistic
              param: 0.4
        - service: beta
          type: ratelimiting
          param: 5
Copy to Clipboard Toggle word wrap

사용자가 제공한 구성이 없는 경우 분산 추적 플랫폼(Jaeger)은 다음 설정을 사용합니다.

기본 샘플링

spec:
  sampling:
    options:
      default_strategy:
        type: probabilistic
        param: 1
Copy to Clipboard Toggle word wrap

8.2.6.6. 분산 추적 스토리지 구성 옵션

spec:storage에서 Collector, Ingester 및 쿼리 서비스에 대한 스토리지를 구성합니다. 이러한 각 구성 요소의 여러 인스턴스는 성능 및 복원에 필요한 대로 프로비저닝할 수 있습니다.

Expand
표 8.5. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 분산 추적 스토리지를 정의하는 데 사용하는 일반 스토리지 매개변수
매개변수설명기본값
spec:
  storage:
    type:
Copy to Clipboard Toggle word wrap

배포에 사용할 스토리지 유형입니다.

memory 또는 elasticsearch. 메모리 스토리지는 Pod가 종료되면 데이터가 유지되지 않으므로 개념 환경의 개발, 테스트, 시연 및 검증에만 적합합니다. 프로덕션 환경에서 Distributed Tracing Platform(Jaeger)은 영구 저장소를 위해 Elasticsearch를 지원합니다.

메모리

storage:
  secretname:
Copy to Clipboard Toggle word wrap

시크릿 이름(예: tracing-secret )입니다.

 

해당 없음

storage:
  options: {}
Copy to Clipboard Toggle word wrap

스토리지를 정의하는 구성 옵션입니다.

  
Expand
표 8.6. Elasticsearch 인덱스 정리 매개변수
매개변수설명기본값
storage:
  esIndexCleaner:
    enabled:
Copy to Clipboard Toggle word wrap

Elasticsearch 스토리지를 사용하는 경우 기본적으로 인덱스에서 오래된 추적을 정리하는 작업이 생성됩니다. 이 매개변수는 인덱스 정리 작업을 활성화하거나 비활성화합니다.

true/ false

true

storage:
  esIndexCleaner:
    numberOfDays:
Copy to Clipboard Toggle word wrap

인덱스를 삭제하기 전에 대기하는 날의 수입니다.

정수 값

7

storage:
  esIndexCleaner:
    schedule:
Copy to Clipboard Toggle word wrap

Elasticsearch 인덱스를 정리하는 빈도에 대한 일정을 정의합니다.

Cron 표현식

"55 23 * * *"

8.2.6.6.1. Elasticsearch 인스턴스 자동 프로비저닝

Jaeger 사용자 정의 리소스를 배포하면 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 OpenShift Elasticsearch Operator를 사용하여 사용자 정의 리소스 파일의 스토리지 섹션에 제공된 구성을 기반으로 Elasticsearch 클러스터를 만듭니다. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 다음 구성이 설정된 경우 Elasticsearch를 프로비저닝합니다.

  • spec.storage:typeelasticsearch로 설정됨
  • spec.storage.elasticsearch.doNotProvisionfalse로 설정
  • spec.storage.options.es.server-urls가 정의되지 않았습니다. 즉, OpenShift Elasticsearch Operator에서 프로비저닝하지 않은 Elasticsearch 인스턴스에 대한 연결이 없습니다.

Elasticsearch를 프로비저닝할 때 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 Elasticsearch 사용자 정의 리소스 이름을 Jaeger 사용자 정의 리소스의 spec.storage.elasticsearch.name 값으로 설정합니다. spec.storage.elasticsearch.name 의 값을 지정하지 않으면 Operator에서 elasticsearch 를 사용합니다.

제한 사항

  • 네임스페이스당 자체 프로비저닝된 Elasticsearch 인스턴스가 있는 분산 추적 플랫폼(Jaeger)은 하나만 가질 수 있습니다. Elasticsearch 클러스터는 단일 분산 추적 플랫폼(Jaeger) 인스턴스에 전용으로 사용됩니다.
  • 네임스페이스당 Elasticsearch가 하나만 있을 수 있습니다.
참고

OpenShift Logging의 일부로 Elasticsearch를 이미 설치한 경우 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 설치된 OpenShift Elasticsearch Operator를 사용하여 스토리지를 프로비저닝할 수 있습니다.

다음 구성 매개변수는 자체 프로비저닝 Elasticsearch 인스턴스를 위한 것입니다. 즉, Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 OpenShift Elasticsearch Operator를 사용하여 만든 인스턴스입니다. 구성 파일의 spec:storage:elasticsearch에서 자체 프로비저닝 Elasticsearch에 대한 구성 옵션을 지정합니다.

Expand
표 8.7. Elasticsearch 리소스 구성 매개변수
매개변수설명기본값
elasticsearch:
  properties:
    doNotProvision:
Copy to Clipboard Toggle word wrap

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator가 Elasticsearch 인스턴스를 프로비저닝해야 하는지 여부를 지정하는 데 사용됩니다.

true/false

true

elasticsearch:
  properties:
    name:
Copy to Clipboard Toggle word wrap

Elasticsearch 인스턴스의 이름입니다. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 이 매개변수에 지정된 Elasticsearch 인스턴스를 사용하여 Elasticsearch에 연결합니다.

string

elasticsearch

elasticsearch:
  nodeCount:
Copy to Clipboard Toggle word wrap

Elasticsearch 노드 수입니다. 고가용성의 경우 최소 3개의 노드를 사용합니다. “스플릿 브레인” 문제가 발생할 수 있으므로 2개의 노드를 사용하지 마십시오.

정수 값입니다. 예를 들면 개념 증명 = 1, 최소 배포 =3입니다.

3

elasticsearch:
  resources:
    requests:
      cpu:
Copy to Clipboard Toggle word wrap

사용자 환경 구성에 따른 요청에 대한 중앙 처리 단위 수입니다.

코어 또는 밀리코어(예: 200m, 0.5, 1)에 지정됩니다. 예를 들면 개념 증명 = 500m, 최소 배포 =1입니다.

1

elasticsearch:
  resources:
    requests:
      memory:
Copy to Clipboard Toggle word wrap

환경 구성에 따른 요청에 사용 가능한 메모리입니다.

바이트로 지정됩니다(예: 200Ki, 50Mi, 5Gi). 예를 들면 개념 증명 = 1Gi, 최소 배포 = 16Gi*입니다.

16Gi

elasticsearch:
  resources:
    limits:
      cpu:
Copy to Clipboard Toggle word wrap

사용자 환경 구성에 따른 중앙 처리 장치 수에 대한 제한입니다.

코어 또는 밀리코어(예: 200m, 0.5, 1)에 지정됩니다. 예를 들면 개념 증명 = 500m, 최소 배포 =1입니다.

 
elasticsearch:
  resources:
    limits:
      memory:
Copy to Clipboard Toggle word wrap

사용자 환경 구성에 따라 사용 가능한 메모리 제한입니다.

바이트로 지정됩니다(예: 200Ki, 50Mi, 5Gi). 예를 들면 개념 증명 = 1Gi, 최소 배포 = 16Gi*입니다.

 
elasticsearch:
  redundancyPolicy:
Copy to Clipboard Toggle word wrap

데이터 복제 정책은 Elasticsearch shard가 클러스터의 데이터 노드에 복제되는 방법을 정의합니다. 지정하지 않으면 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 노드 수에 따라 가장 적합한 복제를 자동으로 결정합니다.

ZeroRedundancy(replica shard 없음), SingleRedundancy(하나의 replica shard), MultipleRedundancy(각 인덱스가 데이터 노드의 반을 넘어 분산됨), FullRedundancy(각 인덱스가 클러스터의 모든 데이터 노드에 전체적으로 복제됨).

 
elasticsearch:
  useCertManagement:
Copy to Clipboard Toggle word wrap

Jaeger(Distributed Tracing Platform)가 OpenShift Elasticsearch Operator의 인증서 관리 기능을 사용해야 하는지 여부를 지정하는 데 사용됩니다. 이 기능은 OpenShift Container Platform 4.7의 {logging-title} 5.2에 추가되었으며 새로운 Jaeger 배포에 대한 기본 설정입니다.

true/false

true

각 Elasticsearch 노드는 더 낮은 메모리 설정으로 작동할 수 있지만 이는 프로덕션 배포에는 권장되지 않습니다. 실제 운영에 사용하려면 기본적으로 각 포드에 최소 16Gi를 할당해야 하지만, 가능하면 포드당 최대 64Gi까지 할당하는 것이 좋습니다.

프로덕션 스토리지 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: simple-prod
spec:
  strategy: production
  storage:
    type: elasticsearch
    elasticsearch:
      nodeCount: 3
      resources:
        requests:
          cpu: 1
          memory: 16Gi
        limits:
          memory: 16Gi
Copy to Clipboard Toggle word wrap

영구 저장소를 사용한 저장소 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: simple-prod
spec:
  strategy: production
  storage:
    type: elasticsearch
    elasticsearch:
      nodeCount: 1
      storage: 
1

        storageClassName: gp2
        size: 5Gi
      resources:
        requests:
          cpu: 200m
          memory: 4Gi
        limits:
          memory: 4Gi
      redundancyPolicy: ZeroRedundancy
Copy to Clipboard Toggle word wrap

1
영구 스토리지 구성. 이 경우 AWS gp25Gi 크기가 있습니다. 값을 지정하지 않으면 Distributed Tracing Platform(Jaeger)은 emptyDir을 사용합니다. OpenShift Elasticsearch Operator는 Distributed Tracing Platform(Jaeger) 인스턴스로 제거되지 않는 PersistentVolumeClaimPersistentVolume을 프로비저닝합니다. 동일한 이름과 네임스페이스로 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하면 동일한 볼륨을 마운트할 수 있습니다.
8.2.6.6.2. 기존 Elasticsearch 인스턴스에 연결

Distributed Tracing Platform을 사용하면 기존 Elasticsearch 클러스터를 저장소로 사용할 수 있습니다. 기존 Elasticsearch 클러스터는 외부 Elasticsearch 인스턴스라고도 하며, Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator나 OpenShift Elasticsearch Operator에 의해 설치되지 않은 인스턴스입니다.

Jaeger 사용자 정의 리소스를 배포할 때 다음 구성이 설정된 경우 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 Elasticsearch를 프로비저닝하지 않습니다.

  • spec.storage.elasticsearch.doNotProvisiontrue로 설정
  • spec.storage.options.es.server-urls 에는 값이 있습니다.
  • spec.storage.elasticsearch.name 에는 값이 있거나 Elasticsearch 인스턴스 이름이 elasticsearch 인 경우입니다.

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 spec.storage.elasticsearch.name 에 지정된 Elasticsearch 인스턴스를 사용하여 Elasticsearch에 연결합니다.

제한 사항

  • OpenShift Container Platform 로깅 Elasticsearch 인스턴스를 Distributed Tracing Platform(Jaeger)과 공유하거나 재사용할 수 없습니다. Elasticsearch 클러스터는 단일 분산 추적 플랫폼(Jaeger) 인스턴스에 전용으로 사용됩니다.

다음 구성 매개변수는 외부 Elasticsearch 인스턴스 라고도 하는 기존 Elasticsearch 인스턴스에 대한 것입니다. 이 경우 spec:storage:options:es 사용자 지정 리소스 파일에서 Elasticsearch에 대한 구성 옵션을 지정합니다.

Expand
표 8.8. 일반 ES 구성 매개변수
매개변수설명기본값
es:
  server-urls:
Copy to Clipboard Toggle word wrap

Elasticsearch 인스턴스의 URL입니다.

Elasticsearch 서버의 정규화된 도메인 이름입니다.

http://elasticsearch.<namespace>.svc:9200

es:
  max-doc-count:
Copy to Clipboard Toggle word wrap

Elasticsearch 쿼리에서 반환하는 최대 문서 수입니다. 이는 집계에도 적용됩니다. es.max-doc-countes.max-num-spans를 모두 설정하면 Elasticsearch에서 이 둘 중 작은 값을 사용합니다.

 

10000

es:
  max-num-spans:
Copy to Clipboard Toggle word wrap

[더 이상 사용되지 않음 - 향후 릴리스에서 제거되며 대신 es.max-doc-count를 사용합니다.] Elasticsearch에서 쿼리당 한 번에 가져올 최대 기간 수입니다. es.max-num-spanses.max-doc-count를 모두 설정하면 Elasticsearch는 이 둘 중 작은 값을 사용합니다.

 

10000

es:
  max-span-age:
Copy to Clipboard Toggle word wrap

Elasticsearch에서 기간에 대한 최대 조회 수입니다.

 

72h0m0s

es:
  sniffer:
Copy to Clipboard Toggle word wrap

Elasticsearch의 스니퍼 구성입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다.

true/ false

false

es:
  sniffer-tls-enabled:
Copy to Clipboard Toggle word wrap

Elasticsearch 클러스터를 스니핑할 때 TLS를 활성화하는 옵션입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성화되어 있습니다.

true/ false

false

es:
  timeout:
Copy to Clipboard Toggle word wrap

쿼리에 사용되는 시간 제한입니다. 0으로 설정하면 시간 제한이 없습니다.

 

0s

es:
  username:
Copy to Clipboard Toggle word wrap

Elasticsearch에 필요한 사용자 이름입니다. 기본 인증은 지정된 경우 CA도 로드합니다. es.password도 참조하십시오.

  
es:
  password:
Copy to Clipboard Toggle word wrap

Elasticsearch에 필요한 암호입니다. es.username도 참조하십시오.

  
es:
  version:
Copy to Clipboard Toggle word wrap

주요 Elasticsearch 버전입니다. 지정하지 않으면 Elasticsearch에서 값을 자동으로 탐지합니다.

 

0

Expand
표 8.9. ES 데이터 복제 매개변수
매개변수설명기본값
es:
  num-replicas:
Copy to Clipboard Toggle word wrap

Elasticsearch의 인덱스당 복제본 수입니다.

 

1

es:
  num-shards:
Copy to Clipboard Toggle word wrap

Elasticsearch의 인덱스당 shard 수입니다.

 

5

Expand
표 8.10. ES 인덱스 구성 매개변수
매개변수설명기본값
es:
  create-index-templates:
Copy to Clipboard Toggle word wrap

true로 설정할 때 애플리케이션 시작 시 인덱스 템플릿을 자동으로 생성합니다. 템플릿이 수동으로 설치되면 false로 설정합니다.

true/ false

true

es:
  index-prefix:
Copy to Clipboard Toggle word wrap

분산 추적 플랫폼(Jaeger) 인덱스에 대한 선택적 접두사입니다. 예를 들어 이 값을 "production"으로 설정하면 "production-tracing-*"이라는 인덱스가 생성됩니다.

  
Expand
표 8.11. ES 일괄 프로세서 구성 매개변수
매개변수설명기본값
es:
  bulk:
    actions:
Copy to Clipboard Toggle word wrap

대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 큐에 추가할 수 있는 요청 수입니다.

 

1000

es:
  bulk:
    flush-interval:
Copy to Clipboard Toggle word wrap

다른 임계값에 관계없이 대규모 요청이 커밋된 후 time.Duration입니다. 대규모 프로세서 플러시 간격을 비활성화하려면 이를 0으로 설정합니다.

 

200ms

es:
  bulk:
    size:
Copy to Clipboard Toggle word wrap

대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 대규모 요청이 수행할 수 있는 바이트 수입니다.

 

5000000

es:
  bulk:
    workers:
Copy to Clipboard Toggle word wrap

Elasticsearch에 대규모 요청을 수신하고 커밋할 수 있는 작업자 수입니다.

 

1

Expand
표 8.12. ES TLS 구성 매개변수
매개변수설명기본값
es:
  tls:
    ca:
Copy to Clipboard Toggle word wrap

원격 서버를 확인하는 데 사용되는 TLS 인증 기관(CA) 파일의 경로입니다.

 

기본적으로 시스템 신뢰 저장소를 사용합니다.

es:
  tls:
    cert:
Copy to Clipboard Toggle word wrap

이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 인증서 파일의 경로입니다.

  
es:
  tls:
    enabled:
Copy to Clipboard Toggle word wrap

원격 서버와 통신할 때 TLS(Transport Layer Security)를 활성화합니다. 기본적으로 비활성되어 있습니다.

true/ false

false

es:
  tls:
    key:
Copy to Clipboard Toggle word wrap

이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 개인 키 파일의 경로입니다.

  
es:
  tls:
    server-name:
Copy to Clipboard Toggle word wrap

원격 서버의 인증서에서 예상되는 TLS 서버 이름을 재정의합니다.

  
es:
  token-file:
Copy to Clipboard Toggle word wrap

전달자 토큰이 포함된 파일의 경로입니다. 이 플래그는 지정된 경우 CA(인증 기관) 파일도 로드합니다.

  
Expand
표 8.13. ES 아카이브 구성 매개변수
매개변수설명기본값
es-archive:
  bulk:
    actions:
Copy to Clipboard Toggle word wrap

대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 큐에 추가할 수 있는 요청 수입니다.

 

0

es-archive:
  bulk:
    flush-interval:
Copy to Clipboard Toggle word wrap

다른 임계값에 관계없이 대규모 요청이 커밋된 후 time.Duration입니다. 대규모 프로세서 플러시 간격을 비활성화하려면 이를 0으로 설정합니다.

 

0s

es-archive:
  bulk:
    size:
Copy to Clipboard Toggle word wrap

대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 대규모 요청이 수행할 수 있는 바이트 수입니다.

 

0

es-archive:
  bulk:
    workers:
Copy to Clipboard Toggle word wrap

Elasticsearch에 대규모 요청을 수신하고 커밋할 수 있는 작업자 수입니다.

 

0

es-archive:
  create-index-templates:
Copy to Clipboard Toggle word wrap

true로 설정할 때 애플리케이션 시작 시 인덱스 템플릿을 자동으로 생성합니다. 템플릿이 수동으로 설치되면 false로 설정합니다.

true/ false

false

es-archive:
  enabled:
Copy to Clipboard Toggle word wrap

추가 스토리지를 활성화합니다.

true/ false

false

es-archive:
  index-prefix:
Copy to Clipboard Toggle word wrap

분산 추적 플랫폼(Jaeger) 인덱스에 대한 선택적 접두사입니다. 예를 들어 이 값을 "production"으로 설정하면 "production-tracing-*"이라는 인덱스가 생성됩니다.

  
es-archive:
  max-doc-count:
Copy to Clipboard Toggle word wrap

Elasticsearch 쿼리에서 반환하는 최대 문서 수입니다. 이는 집계에도 적용됩니다.

 

0

es-archive:
  max-num-spans:
Copy to Clipboard Toggle word wrap

[더 이상 사용되지 않음 - 향후 릴리스에서 제거되며 대신 es-archive.max-doc-count를 사용합니다.] Elasticsearch에서 쿼리당 한 번에 가져올 최대 기간 수입니다.

 

0

es-archive:
  max-span-age:
Copy to Clipboard Toggle word wrap

Elasticsearch에서 기간에 대한 최대 조회 수입니다.

 

0s

es-archive:
  num-replicas:
Copy to Clipboard Toggle word wrap

Elasticsearch의 인덱스당 복제본 수입니다.

 

0

es-archive:
  num-shards:
Copy to Clipboard Toggle word wrap

Elasticsearch의 인덱스당 shard 수입니다.

 

0

es-archive:
  password:
Copy to Clipboard Toggle word wrap

Elasticsearch에 필요한 암호입니다. es.username도 참조하십시오.

  
es-archive:
  server-urls:
Copy to Clipboard Toggle word wrap

Elasticsearch 서버의 쉼표로 구분된 목록입니다. 정규화된 URL로 지정해야 합니다(예: http://localhost:9200).

  
es-archive:
  sniffer:
Copy to Clipboard Toggle word wrap

Elasticsearch의 스니퍼 구성입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다.

true/ false

false

es-archive:
  sniffer-tls-enabled:
Copy to Clipboard Toggle word wrap

Elasticsearch 클러스터를 스니핑할 때 TLS를 활성화하는 옵션입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다.

true/ false

false

es-archive:
  timeout:
Copy to Clipboard Toggle word wrap

쿼리에 사용되는 시간 제한입니다. 0으로 설정하면 시간 제한이 없습니다.

 

0s

es-archive:
  tls:
    ca:
Copy to Clipboard Toggle word wrap

원격 서버를 확인하는 데 사용되는 TLS 인증 기관(CA) 파일의 경로입니다.

 

기본적으로 시스템 신뢰 저장소를 사용합니다.

es-archive:
  tls:
    cert:
Copy to Clipboard Toggle word wrap

이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 인증서 파일의 경로입니다.

  
es-archive:
  tls:
    enabled:
Copy to Clipboard Toggle word wrap

원격 서버와 통신할 때 TLS(Transport Layer Security)를 활성화합니다. 기본적으로 비활성되어 있습니다.

true/ false

false

es-archive:
  tls:
    key:
Copy to Clipboard Toggle word wrap

이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 개인 키 파일의 경로입니다.

  
es-archive:
  tls:
    server-name:
Copy to Clipboard Toggle word wrap

원격 서버의 인증서에서 예상되는 TLS 서버 이름을 재정의합니다.

  
es-archive:
  token-file:
Copy to Clipboard Toggle word wrap

전달자 토큰이 포함된 파일의 경로입니다. 이 플래그는 지정된 경우 CA(인증 기관) 파일도 로드합니다.

  
es-archive:
  username:
Copy to Clipboard Toggle word wrap

Elasticsearch에 필요한 사용자 이름입니다. 기본 인증은 지정된 경우 CA도 로드합니다. es-archive.password도 참조하십시오.

  
es-archive:
  version:
Copy to Clipboard Toggle word wrap

주요 Elasticsearch 버전입니다. 지정하지 않으면 Elasticsearch에서 값을 자동으로 탐지합니다.

 

0

볼륨 마운트가 있는 스토리지 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: simple-prod
spec:
  strategy: production
  storage:
    type: elasticsearch
    options:
      es:
        server-urls: https://quickstart-es-http.default.svc:9200
        index-prefix: my-prefix
        tls:
          ca: /es/certificates/ca.crt
    secretName: tracing-secret
  volumeMounts:
    - name: certificates
      mountPath: /es/certificates/
      readOnly: true
  volumes:
    - name: certificates
      secret:
        secretName: quickstart-es-http-certs-public
Copy to Clipboard Toggle word wrap

다음 예는 시크릿에 저장된 볼륨 및 사용자/암호에서 마운트된 TLS CA 인증서가 포함된 외부 Elasticsearch 클러스터를 사용하는 Jaeger CR을 보여줍니다.

외부 Elasticsearch 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: simple-prod
spec:
  strategy: production
  storage:
    type: elasticsearch
    options:
      es:
        server-urls: https://quickstart-es-http.default.svc:9200 
1

        index-prefix: my-prefix
        tls: 
2

          ca: /es/certificates/ca.crt
    secretName: tracing-secret 
3

  volumeMounts: 
4

    - name: certificates
      mountPath: /es/certificates/
      readOnly: true
  volumes:
    - name: certificates
      secret:
        secretName: quickstart-es-http-certs-public
Copy to Clipboard Toggle word wrap

1
기본 네임스페이스에서 실행되는 Elasticsearch 서비스에 대한 URL입니다.
2
TLS 구성입니다. 이 경우 CA 인증서만 해당하지만 상호 TLS를 사용하는 경우 es.tls.key 및 es.tls.cert를 포함할 수 있습니다.
3
환경 변수 ES_PASSWORD 및 ES_USERNAME을 정의하는 시크릿입니다. kubectl create secret generic tracing-secret --from-literal=ES_PASSWORD=changeme --from-literal=ES_USERNAME=elastic에 의해 생성
4
모든 스토리지 구성 요소에 마운트되는 볼륨 마운트 및 볼륨입니다.
8.2.6.7. Elasticsearch로 인증서 관리

OpenShift Elasticsearch Operator를 사용하여 인증서를 만들고 관리할 수 있습니다. OpenShift Elasticsearch Operator를 사용하여 인증서를 관리하면 여러 Jaeger Collector가 있는 단일 Elasticsearch 클러스터를 사용할 수도 있습니다.

중요

Elasticsearch로 인증서를 관리하는 것은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

버전 2.4부터 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 Elasticsearch 사용자 정의 리소스에서 다음 주석을 사용하여 인증서 생성을 OpenShift Elasticsearch Operator에 위임합니다.

  • logging.openshift.io/elasticsearch-cert-management: "true"
  • logging.openshift.io/elasticsearch-cert.jaeger-<shared-es-node-name>: "user.jaeger"
  • logging.openshift.io/elasticsearch-cert.curator-<shared-es-node-name>: "system.logging.curator"

여기서 <shared-es-node-name>은 Elasticsearch 노드의 이름입니다. 예를 들어 custom-es 라는 Elasticsearch 노드를 생성하는 경우 사용자 정의 리소스는 다음 예와 같을 수 있습니다.

주석을 표시하는 Elasticsearch CR의 예

apiVersion: logging.openshift.io/v1
kind: Elasticsearch
metadata:
  annotations:
    logging.openshift.io/elasticsearch-cert-management: "true"
    logging.openshift.io/elasticsearch-cert.jaeger-custom-es: "user.jaeger"
    logging.openshift.io/elasticsearch-cert.curator-custom-es: "system.logging.curator"
  name: custom-es
spec:
  managementState: Managed
  nodeSpec:
    resources:
      limits:
        memory: 16Gi
      requests:
        cpu: 1
        memory: 16Gi
  nodes:
    - nodeCount: 3
      proxyResources: {}
      resources: {}
      roles:
        - master
        - client
        - data
      storage: {}
  redundancyPolicy: ZeroRedundancy
Copy to Clipboard Toggle word wrap

사전 요구 사항

  • Red Hat OpenShift Service Mesh Operator가 설치되었습니다.
  • {logging-title}은 클러스터에 기본 구성으로 설치됩니다.
  • Elasticsearch 노드와 Jaeger 인스턴스는 동일한 네임스페이스에 배포해야 합니다. 예를 들면 tracing-system 입니다.

Jaeger 사용자 정의 리소스에서 spec.storage.elasticsearch.useCertManagementtrue 로 설정하여 인증서 관리를 활성화합니다.

useCertManagement표시 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: jaeger-prod
spec:
  strategy: production
  storage:
    type: elasticsearch
    elasticsearch:
      name: custom-es
      doNotProvision: true
      useCertManagement: true
Copy to Clipboard Toggle word wrap

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 Elasticsearch를 프로비저닝할 때 Elasticsearch 사용자 정의 리소스 이름을 Jaeger 사용자 정의 리소스의 spec.storage.elasticsearch.name 값으로 설정합니다.

인증서는 OpenShift Elasticsearch Operator에 의해 프로비저닝되며 Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator가 인증서를 삽입합니다.

8.2.6.8. 쿼리 구성 옵션

쿼리는 스토리지에서 추적을 검색하고 사용자 인터페이스에서 표시하도록 호스팅하는 서비스입니다.

Expand
표 8.14. Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator에서 쿼리를 정의하는 데 사용하는 매개변수
매개변수설명기본값
spec:
  query:
    replicas:
Copy to Clipboard Toggle word wrap

생성할 쿼리 복제본 수를 지정합니다.

예: 정수 2)

 
Expand
표 8.15. 쿼리에 전달된 구성 매개변수
매개변수설명기본값
spec:
  query:
    options: {}
Copy to Clipboard Toggle word wrap

쿼리 서비스를 정의하는 구성 옵션입니다.

  
options:
  log-level:
Copy to Clipboard Toggle word wrap

쿼리의 로깅 수준입니다.

가능한 값: debug,info,warn,error,fatal,panic.

 
options:
  query:
    base-path:
Copy to Clipboard Toggle word wrap

모든 jaeger-query HTTP 경로의 기본 경로는 root 값이 아닌 값으로 설정할 수 있습니다(예: /jaeger는 모든 UI URL을 /jaeger로 시작합니다). 이는 리버스 프록시 뒤에서 jaeger-query를 실행할 때 유용할 수 있습니다.

/<path>

 

샘플 쿼리 구성

apiVersion: jaegertracing.io/v1
kind: "Jaeger"
metadata:
  name: "my-jaeger"
spec:
  strategy: allInOne
  allInOne:
    options:
      log-level: debug
      query:
        base-path: /jaeger
Copy to Clipboard Toggle word wrap

8.2.6.9. Ingester 구성 옵션

Ingester는 Kafka 항목에서 읽고 Elasticsearch 스토리지 백엔드에 쓰는 서비스입니다. allInOne 또는 production 배포 전략을 사용하는 경우 Ingester 서비스를 구성할 필요가 없습니다.

Expand
표 8.16. Ingester에 전달된 Jaeger 매개변수
매개변수설명
spec:
  ingester:
    options: {}
Copy to Clipboard Toggle word wrap

Ingester 서비스를 정의하는 구성 옵션입니다.

 
options:
  deadlockInterval:
Copy to Clipboard Toggle word wrap

Ingester가 종료되기 전에 메시지를 기다려야 하는 간격(초 또는 분)을 지정합니다. 교착 상태 간격은 시스템 초기화 중에 메시지가 없을 때 Ingester를 종료하지 않도록 기본적으로 ( 0으로 설정) 비활성화됩니다.

분 및 초(예: 1m0s)입니다. 기본값은 0입니다.

options:
  kafka:
    consumer:
      topic:
Copy to Clipboard Toggle word wrap

topic 매개변수는 메시지를 생성하기 위해 수집기에서 사용하는 Kafka 구성과 메시지를 사용하는 Ingester를 식별합니다.

소비자의 레이블입니다. 예를 들면 jaeger-spans입니다.

options:
  kafka:
    consumer:
      brokers:
Copy to Clipboard Toggle word wrap

메시지를 사용하려면 Ingester에서 사용하는 Kafka 구성을 식별합니다.

브로커의 레이블은 예를 들면 my-cluster-kafka-brokers.kafka:9092입니다.

options:
  log-level:
Copy to Clipboard Toggle word wrap

Ingester의 로깅 수준입니다.

가능한 값: debug,info,warn,error,fatal,dpanic,panic.

스트리밍 수집기 및 Ingester 예

apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
  name: simple-streaming
spec:
  strategy: streaming
  collector:
    options:
      kafka:
        producer:
          topic: jaeger-spans
          brokers: my-cluster-kafka-brokers.kafka:9092
  ingester:
    options:
      kafka:
        consumer:
          topic: jaeger-spans
          brokers: my-cluster-kafka-brokers.kafka:9092
      ingester:
        deadlockInterval: 5
  storage:
    type: elasticsearch
    options:
      es:
        server-urls: http://elasticsearch:9200
Copy to Clipboard Toggle word wrap

8.2.7. 사이드카 삽입

Red Hat OpenShift Distributed Tracing Platform(Jaeger)은 애플리케이션의 Pod 내에 있는 프록시 사이드카를 사용하여 에이전트를 제공합니다. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 배포 워크로드에 Agent 사이드카를 주입할 수 있습니다. 자동 사이드카 삽입을 활성화하거나 수동으로 관리할 수 있습니다.

8.2.7.1. 자동으로 사이드카 삽입

Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator는 Jaeger Agent 사이드카를 배포 워크로드에 삽입할 수 있습니다. 사이드카의 자동 주입을 활성화하려면 sidecar.jaegertracing.io/inject 주석을 true 문자열이나 $ oc get jaegers 를 실행하여 반환되는 Distributed Tracing Platform(Jaeger) 인스턴스 이름으로 설정합니다. true를 지정하면 배포와 동일한 네임스페이스에 대해 단일 Distributed Tracing Platform(Jaeger) 인스턴스만 있어야 합니다. 그렇지 않으면 운영자는 어떤 분산 추적 플랫폼(Jaeger) 인스턴스를 사용해야 할지 결정할 수 없습니다. 배포의 특정 분산 추적 플랫폼(Jaeger) 인스턴스 이름은 해당 네임스페이스에 적용된 true 보다 우선순위가 높습니다.

다음 스니펫은 동일한 네임스페이스에서 사용 가능한 단일 Distributed Tracing Platform(Jaeger) 인스턴스를 가리키는 에이전트를 사용하여 사이드카를 주입하는 간단한 애플리케이션을 보여줍니다.

자동 사이드카 삽입 예

apiVersion: apps/v1
kind: Deployment
metadata:
  name: myapp
  annotations:
    "sidecar.jaegertracing.io/inject": "true" 
1

spec:
  selector:
    matchLabels:
      app: myapp
  template:
    metadata:
      labels:
        app: myapp
    spec:
      containers:
      - name: myapp
        image: acme/myapp:myversion
Copy to Clipboard Toggle word wrap

1
문자열 true 또는 Jaeger 인스턴스 이름으로 설정합니다.

사이드카가 삽입되면 에이전트가 localhost 의 기본 위치에 액세스할 수 있습니다.

8.2.7.2. 수동으로 사이드카 삽입

Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator는 Jaeger 에이전트 사이드카를 배포 워크로드에 자동으로 삽입할 수 있습니다. StatefulSets' 및 'DaemonSets 와 같은 Deployments 이외의 컨트롤러 유형의 경우 사양에 Jaeger 에이전트 사이드카를 수동으로 정의할 수 있습니다.

다음 스니펫에서는 Jaeger 에이전트 사이드카의 컨테이너 섹션에 포함할 수 있는 수동 정의를 보여줍니다.

StatefulSet의 사이드카 정의 예

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: example-statefulset
  namespace: example-ns
  labels:
    app: example-app
spec:

    spec:
      containers:
        - name: example-app
          image: acme/myapp:myversion
          ports:
            - containerPort: 8080
              protocol: TCP
        - name: jaeger-agent
          image: registry.redhat.io/distributed-tracing/jaeger-agent-rhel7:<version>
           # The agent version must match the Operator version
          imagePullPolicy: IfNotPresent
          ports:
            - containerPort: 5775
              name: zk-compact-trft
              protocol: UDP
            - containerPort: 5778
              name: config-rest
              protocol: TCP
            - containerPort: 6831
              name: jg-compact-trft
              protocol: UDP
            - containerPort: 6832
              name: jg-binary-trft
              protocol: UDP
            - containerPort: 14271
              name: admin-http
              protocol: TCP
          args:
            - --reporter.grpc.host-port=dns:///jaeger-collector-headless.example-ns:14250
            - --reporter.type=grpc
Copy to Clipboard Toggle word wrap

그런 다음 localhost에서 기본 위치에서 에이전트에 액세스할 수 있습니다.

8.3. 분산 추적 플랫폼 업그레이드 (Jaeger)

주의

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 3.5는 Red Hat이 지원하는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)의 마지막 릴리스였습니다.

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)에 대한 지원은 2025년 11월 3일에 종료됩니다.

Red Hat OpenShift Distributed Tracing Platform Operator(Jaeger)는 2025년 11월 3일 redhat-operators 카탈로그에서 제거됩니다. 자세한 내용은 OpenShift에서 Red Hat 지식베이스 솔루션 Jaeger 사용 중단 및 제거를 참조하십시오.

분산 추적 수집 및 스토리지를 위해 OpenTelemetry Operator의 Red Hat 빌드 및 Tempo Operator로 마이그레이션해야 합니다. 자세한 내용은 Red Hat build of OpenTelemetry 설명서의 "Migrating", Red Hat build of OpenTelemetry 문서의 "설치", 분산 Tracing Platform 설명서의 "설치"를 참조하십시오.

OLM(Operator Lifecycle Manager)은 클러스터에서 Operator의 설치, 업그레이드, RBAC(역할 기반 액세스 제어)를 제어합니다. OLM은 OpenShift Container Platform에서 기본적으로 실행됩니다. 사용 가능한 Operator 및 설치된 Operator의 업그레이드에 대한 OLM 쿼리입니다.

업데이트 중에 Red Hat OpenShift Distributed Tracing Platform Operator는 관리형 분산 추적 플랫폼 인스턴스를 Operator와 연결된 버전으로 업그레이드합니다. Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator의 새 버전이 설치될 때마다 Operator에서 관리하는 모든 분산 추적 플랫폼(Jaeger) 애플리케이션 인스턴스가 Operator의 버전으로 업그레이드됩니다. 예를 들어 Operator를 1.10에서 1.11로 업그레이드한 후 Operator는 Distributed Tracing Platform (Jaeger) 인스턴스를 실행하고 1.11로 업그레이드합니다.

중요

OpenShift Elasticsearch Operator를 아직 업데이트하지 않은 경우 Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator를 업데이트하기 전에 해당 업데이트를 완료합니다.

8.4. 분산 추적 플랫폼 제거 (Jaeger)

주의

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger) 3.5는 Red Hat이 지원하는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)의 마지막 릴리스였습니다.

더 이상 지원되지 않는 Red Hat OpenShift Distributed Tracing Platform(Jaeger)에 대한 지원은 2025년 11월 3일에 종료됩니다.

Red Hat OpenShift Distributed Tracing Platform Operator(Jaeger)는 2025년 11월 3일 redhat-operators 카탈로그에서 제거됩니다. 자세한 내용은 OpenShift에서 Red Hat 지식베이스 솔루션 Jaeger 사용 중단 및 제거를 참조하십시오.

분산 추적 수집 및 스토리지를 위해 OpenTelemetry Operator의 Red Hat 빌드 및 Tempo Operator로 마이그레이션해야 합니다. 자세한 내용은 Red Hat build of OpenTelemetry 설명서의 "Migrating", Red Hat build of OpenTelemetry 문서의 "설치", 분산 Tracing Platform 설명서의 "설치"를 참조하십시오.

OpenShift Container Platform 클러스터에서 Red Hat OpenShift Distributed Tracing Platform을 제거하는 단계는 다음과 같습니다.

  1. Red Hat OpenShift Distributed Tracing Platform Pod를 종료합니다.
  2. Red Hat OpenShift Distributed Tracing Platform 인스턴스를 제거합니다.
  3. Red Hat OpenShift Distributed Tracing Platform (Jaeger) Operator를 제거합니다.
  4. OpenTelemetry Operator의 Red Hat 빌드를 제거합니다.

8.4.1. 웹 콘솔을 사용하여 분산 추적 플랫폼(Jaeger) 인스턴스 제거

웹 콘솔의 관리자 보기에서 분산 추적 플랫폼(Jaeger) 인스턴스를 제거할 수 있습니다.

주의

메모리 내 스토리지를 사용하는 인스턴스를 삭제하면 모든 데이터가 손실되지 않습니다. Red Hat OpenShift Distributed Tracing Platform (Jaeger) 인스턴스가 제거되면 Elasticsearch와 같은 영구 스토리지에 저장된 데이터는 삭제되지 않습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자로 웹 콘솔에 로그인되어 있습니다.

프로세스

  1. OpenShift Container Platform 웹 콘솔에 로그인합니다.
  2. Operators설치된 Operator로 이동합니다.
  3. 프로젝트 메뉴에서 Operator가 설치된 프로젝트의 이름을 선택합니다(예: openshift-operators ).
  4. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator를 클릭합니다.
  5. Jaeger 탭을 클릭합니다.
  6. 인스턴스 옆에 있는 옵션 메뉴 kebab 를 클릭하고 Jaeger 삭제 를 선택합니다.
  7. 확인 메시지에서 삭제를 클릭합니다.

8.4.2. CLI를 사용하여 분산 추적 플랫폼(Jaeger) 인스턴스 제거

명령줄에서 Jaeger(Distributed Tracing Platform) 인스턴스를 제거할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 클러스터 관리자가 활성 OpenShift CLI(oc) 세션입니다.

    작은 정보
    • OpenShift CLI(oc) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다.
    • oc login 을 실행합니다.

      $ oc login --username=<your_username>
      Copy to Clipboard Toggle word wrap

프로세스

  1. 다음 명령을 실행하여 OpenShift CLI(oc)로 로그인합니다.

    $ oc login --username=<NAMEOFUSER>
    Copy to Clipboard Toggle word wrap
  2. 분산 추적 플랫폼(Jaeger) 인스턴스를 표시하려면 다음 명령을 실행하세요.

    $ oc get deployments -n <jaeger-project>
    Copy to Clipboard Toggle word wrap

    예를 들면 다음과 같습니다.

    $ oc get deployments -n openshift-operators
    Copy to Clipboard Toggle word wrap

    Operator 이름에는 접미사 -operator 가 있습니다. 다음 예에서는 두 개의 Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator와 네 개의 Distributed Tracing Platform(Jaeger) 인스턴스를 보여줍니다.

    $ oc get deployments -n openshift-operators
    Copy to Clipboard Toggle word wrap

    다음과 유사한 출력이 표시됩니다.

    NAME                     READY   UP-TO-DATE   AVAILABLE   AGE
    elasticsearch-operator   1/1     1            1           93m
    jaeger-operator          1/1     1            1           49m
    jaeger-test              1/1     1            1           7m23s
    jaeger-test2             1/1     1            1           6m48s
    tracing1                 1/1     1            1           7m8s
    tracing2                 1/1     1            1           35m
    Copy to Clipboard Toggle word wrap
  3. Distributed Tracing Platform(Jaeger) 인스턴스를 제거하려면 다음 명령을 실행하세요.

    $ oc delete jaeger <deployment-name> -n <jaeger-project>
    Copy to Clipboard Toggle word wrap

    예를 들면 다음과 같습니다.

    $ oc delete jaeger tracing2 -n openshift-operators
    Copy to Clipboard Toggle word wrap
  4. 삭제를 확인하려면 oc get deployments 명령을 다시 실행합니다.

    $ oc get deployments -n <jaeger-project>
    Copy to Clipboard Toggle word wrap

    예를 들면 다음과 같습니다.

    $ oc get deployments -n openshift-operators
    Copy to Clipboard Toggle word wrap

    다음 예와 유사한 생성된 출력이 표시됩니다.

    NAME                     READY   UP-TO-DATE   AVAILABLE   AGE
    elasticsearch-operator   1/1     1            1           94m
    jaeger-operator          1/1     1            1           50m
    jaeger-test              1/1     1            1           8m14s
    jaeger-test2             1/1     1            1           7m39s
    tracing1                 1/1     1            1           7m59s
    Copy to Clipboard Toggle word wrap

8.4.3. Red Hat OpenShift Distributed Tracing Platform Operator 제거

프로세스

  1. Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator를 제거하려면 클러스터에서 Operator 삭제 의 지침을 따르세요.
  2. 선택 사항: Red Hat OpenShift Distributed Tracing Platform(Jaeger) Operator를 제거한 후 OpenShift Elasticsearch Operator를 제거합니다.

Legal Notice

Copyright © 2025 Red Hat

OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).

Modified versions must remove all Red Hat trademarks.

Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.

Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.

Linux® is the registered trademark of Linus Torvalds in the United States and other countries.

Java® is a registered trademark of Oracle and/or its affiliates.

XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.

MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.

Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.

The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

All other trademarks are the property of their respective owners.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat