3.2. 분산 추적 구성 및 배포
Red Hat OpenShift distributed tracing platform Operator는 분산 추적 플랫폼 리소스를 생성하고 배포할 때 사용할 아키텍처 및 구성 설정을 정의하는 CRD(사용자 정의 리소스 정의) 파일을 사용합니다. 기본 구성을 설치하거나 비즈니스 요구 사항에 맞게 파일을 수정할 수 있습니다.
Red Hat OpenShift distributed tracing 플랫폼에는 사전 정의된 배포 전략이 있습니다. 사용자 정의 리소스 파일에 배포 전략을 지정합니다. 분산 추적 플랫폼 인스턴스를 생성할 때 Operator는 이 구성 파일을 사용하여 배포에 필요한 오브젝트를 생성합니다.
배포 전략을 표시하는 Jaeger 사용자 정의 리소스 파일
apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
name: MyConfigFile
spec:
strategy: production 1
- 1
- Red Hat OpenShift distributed tracing platform Operator는 현재 다음과 같은 배포 전략을 지원합니다.
allInOne(기본값) - 이 전략은 개발, 테스트 및 데모 목적으로 설계되었습니다. 이는 프로덕션 사용을 목적으로 하지 않습니다. 기본 백엔드 구성 요소, 에이전트, 수집기 및 쿼리 서비스는 모두 기본적으로 메모리 내 스토리지를 사용하도록 구성된 단일 실행 파일로 패키지됩니다.
참고메모리 내 스토리지는 영구적이지 않습니다. 즉, 분산 추적 플랫폼 인스턴스가 종료, 재시작 또는 교체되면 추적 데이터가 손실됩니다. 각 Pod에 자체 메모리가 있으므로 메모리 내 스토리지를 확장할 수 없습니다. 영구 스토리지의 경우 Elasticsearch를 기본 스토리지로 사용하는
production
또는streaming
전략을 사용해야 합니다.- 프로덕션 - 프로덕션 전략은 장기적인 추적 데이터 저장과 더 확장 가능하고 가용성이 높은 아키텍처가 필요한 프로덕션 환경을 위한 것입니다. 따라서 각 백엔드 구성 요소는 별도로 배포됩니다. 에이전트는 조정된 애플리케이션에서 사이드카로 삽입될 수 있습니다. 쿼리 및 수집기 서비스는 지원되는 스토리지 유형(현재 Elasticsearch)으로 구성됩니다. 이러한 각 구성 요소의 여러 인스턴스는 성능 및 복원에 필요한 대로 프로비저닝할 수 있습니다.
스트리밍 - 스트리밍 전략은 수집기와 Elasticsearch 백엔드 스토리지 간에 효과적으로 적용되는 스트리밍 기능을 제공하여 프로덕션 전략을 보강하도록 설계되었습니다. 이를 통해 높은 로드 상황에서 백엔드 스토리지의 부담을 줄이고 다른 추적 후 처리 기능을 통해 스트리밍 플랫폼(AMQ Streams/ Kafka)에서 직접 실시간 데이터를 가져올 수 있습니다.
참고스트리밍 전략에는 AMQ Streams에 대한 추가 Red Hat 서브스크립션이 필요합니다.
streaming 배포 전략은 현재 IBM Z에서 지원되지 않습니다.
Red Hat OpenShift distributed tracing을 서비스 메시의 일부로 설치 및 사용하거나 독립형 구성 요소로 사용하는 방법은 다음 두 가지가 있습니다. Red Hat OpenShift Service Mesh의 일부로 분산 추적을 설치한 경우 ServiceMeshControlPlane 의 일부로 기본 구성을 수행할 수 있지만 완전히 제어하려면 Jaeger CR을 구성하고 ServiceMeshControlPlane에서 분산 추적 구성 파일을 참조해야 합니다.
3.2.1. 웹 콘솔에서 분산 추적 기본 전략 배포
CRD(사용자 정의 리소스 정의)는 Red Hat OpenShift 분산 추적 인스턴스를 배포할 때 사용되는 구성을 정의합니다. 기본 CR의 이름은 jaeger-all-in-one-inmemory
로 지정되며 기본 OpenShift Container Platform 설치에 성공적으로 설치할 수 있도록 최소한의 리소스로 구성됩니다. 이 기본 구성을 사용하여 AllInOne
배포 전략을 사용하는 Red Hat OpenShift 분산 추적 플랫폼 인스턴스를 생성하거나 사용자 정의 리소스 파일을 정의할 수 있습니다.
메모리 내 스토리지는 영구적이지 않습니다. Jaeger Pod가 종료, 재시작 또는 교체되면 추적 데이터가 손실됩니다. 영구 스토리지의 경우 Elasticsearch를 기본 스토리지로 사용하는 production
또는 streaming
전략을 사용해야 합니다.
전제 조건
- Red Hat OpenShift distributed tracing platform Operator가 설치되어 있습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. 새 프로젝트(예:
tracing-system
)를 생성합니다.참고Service Mesh의 일부로 설치하는 경우 분산 추적 리소스를
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다(예:istio-system
).-
홈
프로젝트로 이동합니다. - Create Project를 클릭합니다.
-
Name 필드에
tracing-system
을 입력합니다. - Create를 클릭합니다.
-
홈
-
Operators
설치된 Operator로 이동합니다. -
필요한 경우 프로젝트 메뉴에서
추적 시스템을
선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다. - Red Hat OpenShift distributed tracing platform Operator를 클릭합니다. 세부 정보 탭의 제공된 API 에서 Operator는 단일 링크를 제공합니다.
- Jaeger 에서 인스턴스 생성을 클릭합니다.
- Jaeger 생성 페이지에서 기본값을 사용하여 설치하려면 생성을 클릭하여 분산 추적 플랫폼 인스턴스를 생성합니다.
-
Jaegers 페이지에서 분산 추적 플랫폼 인스턴스의 이름을 클릭합니다(예:
jaeger-all-one-inmemory
). - Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
3.2.1.1. CLI에서 분산 추적 기본 전략 배포
명령줄에서 분산 추적 플랫폼의 인스턴스를 생성하려면 다음 절차를 따르십시오.
전제 조건
- Red Hat OpenShift distributed tracing platform Operator가 설치 및 검증되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
OpenShift Container Platform 버전과 일치하는 OpenShift CLI(
oc
)에 액세스할 수 있습니다. -
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
cluster-admin
역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
tracing-system
이라는 새 프로젝트를 생성합니다.$ oc new-project tracing-system
다음 텍스트가 포함된
jaeger.yaml
이라는 사용자 정의 리소스 파일을 생성합니다.예: jaeger-all-one.yaml
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-all-in-one-inmemory
다음 명령을 실행하여 분산 추적 플랫폼을 배포합니다.
$ oc create -n tracing-system -f jaeger.yaml
다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.
$ oc get pods -n tracing-system -w
설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.
NAME READY STATUS RESTARTS AGE jaeger-all-in-one-inmemory-cdff7897b-qhfdx 2/2 Running 0 24s
3.2.2. 웹 콘솔에서 분산 추적 프로덕션 전략 배포
프로덕션
배포 전략은 보다 확장 가능하고 가용성이 높은 아키텍처가 필요한 프로덕션 환경을 위한 것이며 추적 데이터의 장기 스토리지가 중요합니다.
전제 조건
- OpenShift Elasticsearch Operator가 설치되었습니다.
- Red Hat OpenShift distributed tracing platform Operator가 설치되어 있습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. 새 프로젝트(예:
tracing-system
)를 생성합니다.참고Service Mesh의 일부로 설치하는 경우 분산 추적 리소스를
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다(예:istio-system
).-
홈
프로젝트로 이동합니다. - Create Project를 클릭합니다.
-
Name 필드에
tracing-system
을 입력합니다. - Create를 클릭합니다.
-
홈
-
Operators
설치된 Operator로 이동합니다. -
필요한 경우 프로젝트 메뉴에서
추적 시스템을
선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다. - Red Hat OpenShift distributed tracing platform Operator를 클릭합니다. 개요 탭의 제공된 API에서 Operator는 단일 링크를 제공합니다.
- Jaeger 에서 인스턴스 생성을 클릭합니다.
Jaeger 생성 페이지에서 기본
all-in-one
YAML 텍스트를 프로덕션 YAML 구성으로 교체합니다. 예를 들면 다음과 같습니다.예 jaeger-production.yaml 파일을 Elasticsearch로
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-production namespace: spec: strategy: production ingress: security: oauth-proxy storage: type: elasticsearch elasticsearch: nodeCount: 3 redundancyPolicy: SingleRedundancy esIndexCleaner: enabled: true numberOfDays: 7 schedule: 55 23 * * * esRollover: schedule: '*/30 * * * *'
- 만들기를 클릭하여 분산 추적 플랫폼 인스턴스를 만듭니다.
-
Jaegers 페이지에서 분산 추적 플랫폼 인스턴스의 이름을 클릭합니다(예:
jaeger-prod-elasticsearch
). - Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 모든 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
3.2.2.1. CLI에서 분산 추적 프로덕션 전략 배포
명령줄에서 분산 추적 플랫폼의 인스턴스를 생성하려면 다음 절차를 따르십시오.
전제 조건
- OpenShift Elasticsearch Operator가 설치되었습니다.
- Red Hat OpenShift distributed tracing platform Operator가 설치되어 있습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
OpenShift Container Platform 버전과 일치하는 OpenShift CLI(
oc
)에 액세스할 수 있습니다. -
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
cluster-admin
역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
tracing-system
이라는 새 프로젝트를 생성합니다.$ oc new-project tracing-system
-
이전 프로세스의 예제 텍스트가 포함된
jaeger-production.yaml
이라는 사용자 정의 리소스 파일을 생성합니다. 다음 명령을 실행하여 분산 추적 플랫폼을 배포합니다.
$ oc create -n tracing-system -f jaeger-production.yaml
다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.
$ oc get pods -n tracing-system -w
설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.
NAME READY STATUS RESTARTS AGE elasticsearch-cdm-jaegersystemjaegerproduction-1-6676cf568gwhlw 2/2 Running 0 10m elasticsearch-cdm-jaegersystemjaegerproduction-2-bcd4c8bf5l6g6w 2/2 Running 0 10m elasticsearch-cdm-jaegersystemjaegerproduction-3-844d6d9694hhst 2/2 Running 0 10m jaeger-production-collector-94cd847d-jwjlj 1/1 Running 3 8m32s jaeger-production-query-5cbfbd499d-tv8zf 3/3 Running 3 8m32s
3.2.3. 웹 콘솔에서 분산 추적 스트리밍 전략 배포
streaming
배포 전략은 보다 확장 가능하고 가용성이 높은 아키텍처가 필요한 프로덕션 환경을 위해 고안되었으며 추적 데이터의 장기 스토리지가 중요합니다.
streaming
전략은 수집기와 Elasticsearch 스토리지 사이에 있는 스트리밍 기능을 제공합니다. 이렇게 하면 높은 로드 상황에서 스토리지의 부담을 줄이고 다른 추적 후 처리 기능을 통해 Kafka 스트리밍 플랫폼에서 직접 실시간 데이터를 가져올 수 있습니다.
스트리밍 전략에는 AMQ Streams에 대한 추가 Red Hat 서브스크립션이 필요합니다. AMQ Streams 서브스크립션이 없는 경우 영업 담당자에게 자세한 내용을 문의하십시오.
streaming 배포 전략은 현재 IBM Z에서 지원되지 않습니다.
전제 조건
- AMQ Streams Operator가 설치되었습니다. 버전 1.4.0 이상을 사용하는 경우 자체 프로비저닝을 사용할 수 있습니다. 그러지 않으면 Kafka 인스턴스를 생성해야 합니다.
- Red Hat OpenShift distributed tracing platform Operator가 설치되어 있습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. 새 프로젝트(예:
tracing-system
)를 생성합니다.참고Service Mesh의 일부로 설치하는 경우 분산 추적 리소스를
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다(예:istio-system
).-
홈
프로젝트로 이동합니다. - Create Project를 클릭합니다.
-
Name 필드에
tracing-system
을 입력합니다. - Create를 클릭합니다.
-
홈
-
Operators
설치된 Operator로 이동합니다. -
필요한 경우 프로젝트 메뉴에서
추적 시스템을
선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다. - Red Hat OpenShift distributed tracing platform Operator를 클릭합니다. 개요 탭의 제공된 API에서 Operator는 단일 링크를 제공합니다.
- Jaeger 에서 인스턴스 생성을 클릭합니다.
-
Jaeger 생성 페이지에서 기본
all-in-one
YAML 텍스트를 스트리밍 YAML 구성으로 교체합니다. 예를 들면 다음과 같습니다.
jaeger-streaming.yaml 파일 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-streaming spec: strategy: streaming collector: options: kafka: producer: topic: jaeger-spans #Note: If brokers are not defined,AMQStreams 1.4.0+ will self-provision Kafka. brokers: my-cluster-kafka-brokers.kafka:9092 storage: type: elasticsearch ingester: options: kafka: consumer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092
- 만들기를 클릭하여 분산 추적 플랫폼 인스턴스를 만듭니다.
-
Jaegers 페이지에서 분산 추적 플랫폼 인스턴스의 이름을 클릭합니다(예:
jaeger-streaming
). - Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 모든 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
3.2.3.1. CLI에서 분산 추적 스트리밍 전략 배포
명령줄에서 분산 추적 플랫폼의 인스턴스를 생성하려면 다음 절차를 따르십시오.
전제 조건
- AMQ Streams Operator가 설치되었습니다. 버전 1.4.0 이상을 사용하는 경우 자체 프로비저닝을 사용할 수 있습니다. 그러지 않으면 Kafka 인스턴스를 생성해야 합니다.
- Red Hat OpenShift distributed tracing platform Operator가 설치되어 있습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
OpenShift Container Platform 버전과 일치하는 OpenShift CLI(
oc
)에 액세스할 수 있습니다. -
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
cluster-admin
역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
tracing-system
이라는 새 프로젝트를 생성합니다.$ oc new-project tracing-system
-
이전 프로세스의 예제 텍스트가 포함된
jaeger-streaming.yaml
이라는 사용자 정의 리소스 파일을 생성합니다. 다음 명령을 실행하여 Jaeger를 배포합니다.
$ oc create -n tracing-system -f jaeger-streaming.yaml
다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.
$ oc get pods -n tracing-system -w
설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.
NAME READY STATUS RESTARTS AGE elasticsearch-cdm-jaegersystemjaegerstreaming-1-697b66d6fcztcnn 2/2 Running 0 5m40s elasticsearch-cdm-jaegersystemjaegerstreaming-2-5f4b95c78b9gckz 2/2 Running 0 5m37s elasticsearch-cdm-jaegersystemjaegerstreaming-3-7b6d964576nnz97 2/2 Running 0 5m5s jaeger-streaming-collector-6f6db7f99f-rtcfm 1/1 Running 0 80s jaeger-streaming-entity-operator-6b6d67cc99-4lm9q 3/3 Running 2 2m18s jaeger-streaming-ingester-7d479847f8-5h8kc 1/1 Running 0 80s jaeger-streaming-kafka-0 2/2 Running 0 3m1s jaeger-streaming-query-65bf5bb854-ncnc7 3/3 Running 0 80s jaeger-streaming-zookeeper-0 2/2 Running 0 3m39s
3.2.4. 배포 검증
3.2.4.1. Jaeger 콘솔에 액세스
Jaeger 콘솔에 액세스하려면 Red Hat OpenShift Service Mesh 또는 Red Hat OpenShift distributed tracing이 설치되어 있고 Red Hat OpenShift distributed tracing Platform이 설치되어 있어야 합니다.
설치 프로세스는 Jaeger 콘솔에 액세스하기 위한 경로를 생성합니다.
Jaeger 콘솔의 URL을 알고 있으면 직접 액세스할 수 있습니다. URL을 모르는 경우 다음 지침을 사용하십시오.
OpenShift 콘솔의 프로세스
-
OpenShift Container Platform 웹 콘솔에 cluster-admin 권한이 있는 사용자로 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우
dedicated-admin
역할의 계정이 있어야 합니다. -
네트워킹
경로로 이동합니다. 경로 페이지의 네임스페이스 메뉴에서 컨트롤 플레인 프로젝트 (예:
tracing-system
)를 선택합니다.Location 열에는 각 경로에 대한 연결된 주소가 표시됩니다.
-
필요한 경우 필터를 사용하여
jaeger
경로를 찾습니다. 경로 위치를 클릭하여 콘솔을 시작합니다. - OpenShift와 함께 로그인을 클릭합니다.
CLI의 프로세스
cluster-admin
역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우dedicated-admin
역할의 계정이 있어야 합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:6443
명령줄을 사용하여 경로 세부 정보를 쿼리하려면 다음 명령을 입력합니다. 이 예제에서
tracing-system
은 컨트롤 플레인 네임스페이스입니다.$ export JAEGER_URL=$(oc get route -n tracing-system jaeger -o jsonpath='{.spec.host}')
-
브라우저를 시작하고
https://<JAEGER_URL
> 으로 이동합니다. 여기서 <JAEGER_URL
>은 이전 단계에서 검색한 경로입니다. - OpenShift Container Platform 콘솔에 액세스하는 데 사용하는 것과 동일한 사용자 이름 및 암호를 사용하여 로그인합니다.
서비스 메시에 서비스를 추가하고 추적을 생성한 경우 필터를 사용하여 추적 데이터를 검색할 수 있습니다.
콘솔 설치를 검증하는 경우 표시할 추적 데이터가 없습니다.
3.2.5. 배포 사용자 정의
3.2.5.1. 배포 모범 사례
- Red Hat OpenShift distributed tracing 인스턴스 이름은 고유해야 합니다. Red Hat OpenShift distributed tracing 플랫폼 인스턴스가 여러 개 있고 사이드카 삽입 에이전트를 사용하려면 Red Hat OpenShift distributed tracing Platform 인스턴스에 고유한 이름이 있어야 하며 삽입 주석에서 추적 데이터가 보고되어야 하는 Red Hat OpenShift 분산 추적 플랫폼 인스턴스 이름을 명시적으로 지정해야 합니다.
다중 테넌트 구현과 테넌트가 네임스페이스로 구분된 경우 Red Hat OpenShift distributed tracing Platform 인스턴스를 각 테넌트 네임스페이스에 배포합니다.
- 다중 테넌트 설치 또는 Red Hat OpenShift Dedicated에서는 데몬 세트로 에이전트가 지원되지 않습니다. 사이드카로서의 에이전트는 이러한 사용 사례에 대해 지원되는 유일한 구성입니다.
-
Red Hat OpenShift Service Mesh의 일부로 분산 추적을 설치하는 경우 분산 추적 리소스를
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다.
영구 스토리지 구성에 대한 자세한 내용은 영구 스토리지 이해 및 선택한 스토리지 옵션에 대한 적절한 구성 항목을 참조하십시오.
3.2.5.2. 분산 추적 기본 구성 옵션
Jaeger CR(사용자 정의 리소스)은 분산 추적 플랫폼 리소스를 생성할 때 사용할 아키텍처 및 설정을 정의합니다. 이러한 매개변수를 수정하여 분산 추적 플랫폼 구현을 비즈니스 요구 사항에 맞게 사용자 지정할 수 있습니다.
Jaeger 일반 YAML 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: name spec: strategy: <deployment_strategy> allInOne: options: {} resources: {} agent: options: {} resources: {} collector: options: {} resources: {} sampling: options: {} storage: type: options: {} query: options: {} resources: {} ingester: options: {} resources: {} options: {}
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
| 오브젝트를 생성할 때 사용할 API 버전입니다. |
| |
|
| 생성할 Kubernetes 오브젝트를 정의합니다. |
|
|
| ||
OpenShift Container Platform은 |
| 개체의 이름입니다. | 분산 추적 플랫폼 인스턴스의 이름입니다. |
|
| 생성할 오브젝트의 사양입니다. |
분산 추적 플랫폼 인스턴스에 대한 모든 구성 매개변수를 포함합니다. 모든 Jaeger 구성 요소에 대한 공통 정의가 필요한 경우 |
해당 없음 |
| Jaeger 배포 전략 |
|
|
|
| |
| 에이전트를 정의하는 구성 옵션입니다. | ||
| Jaeger 수집기를 정의하는 구성 옵션입니다. | ||
| 추적을 위한 샘플링 전략을 정의하는 구성 옵션입니다. | ||
|
스토리지를 정의하는 구성 옵션입니다. 모든 스토리지 관련 옵션은 | ||
| 쿼리 서비스를 정의하는 구성 옵션입니다. | ||
| Ingester 서비스를 정의하는 구성 옵션입니다. |
다음 예제 YAML은 기본 설정을 사용하여 Red Hat OpenShift 분산 추적 플랫폼 배포를 생성하는 데 필요한 최소 크기입니다.
최소 필수 dist-tracing-all-in-one.yaml의 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-all-in-one-inmemory
3.2.5.3. Jaeger 수집기 구성 옵션
Jaeger 수집기는 추적기에서 캡처한 기간을 수신하고 프로덕션
전략을 사용할 때 영구 Elasticsearch 스토리지에 기록하거나 streaming
전략을 사용할 때 AMQ Streams에 기록하는 구성 요소입니다.
수집기는 상태 비저장이므로 Jaeger 수집기의 많은 인스턴스가 병렬로 실행될 수 있습니다. 수집기는 Elasticsearch 클러스터의 위치를 제외하고 거의 구성이 필요하지 않습니다.
매개변수 | 설명 | 값 |
---|---|---|
collector: replicas: | 생성할 수집기 복제본 수를 지정합니다. |
정수(예: |
매개변수 | 설명 | 값 |
---|---|---|
spec: collector: options: {} | Jaeger 수집기를 정의하는 구성 옵션입니다. | |
options: collector: num-workers: | 큐에서 가져온 작업자 수입니다. |
정수(예: |
options: collector: queue-size: | 수집기 큐의 크기입니다. |
정수(예: |
options: kafka: producer: topic: jaeger-spans |
| 생산자의 레이블입니다. |
options: kafka: producer: brokers: my-cluster-kafka-brokers.kafka:9092 | 메시지를 생성하기 위해 수집기에서 사용하는 Kafka 구성을 식별합니다. 브로커를 지정하지 않고 AMQ Streams 1.4.0 이상이 설치되어 있는 경우 Red Hat OpenShift distributed tracing Platform Operator가 Kafka를 자체적으로 프로비저닝합니다. | |
options: log-level: | 수집기의 로깅 수준입니다. |
가능한 값: |
3.2.5.4. 분산 추적 샘플링 구성 옵션
Red Hat OpenShift distributed tracing platform Operator는 원격 샘플러를 사용하도록 구성된 추적기에 제공될 샘플링 전략을 정의하는 데 사용할 수 있습니다.
모든 추적이 생성되지만 소수만 샘플링됩니다. 추적 샘플링은 추가 처리 및 스토리지의 추적을 나타냅니다.
샘플링 결정이 내려지기 때문에 Envoy 프록시에서 추적을 시작한 경우와 관련이 없습니다. Jaeger 샘플링 결정은 클라이언트를 사용하여 애플리케이션에서 추적을 시작할 때만 관련이 있습니다.
서비스에서 추적 컨텍스트가 없는 요청을 수신하면 클라이언트는 새 추적을 시작하고 임의의 추적 ID를 할당하고 현재 설치된 샘플링 전략에 따라 샘플링 결정을 내립니다. 샘플링 결정은 추적의 모든 후속 요청으로 전파되어 다른 서비스가 샘플링 결정을 다시 생성하지 않도록 합니다.
분산 추적 플랫폼 라이브러리는 다음 샘플을 지원합니다.
-
확률론 - 샘플러는 샘플링(
sampling.param
) 속성의 값과 동일한 샘플링의 확률로 임의 샘플링 결정을 내립니다. 예를 들어sampling.param=0.1
을 사용하면 추적 10개에서 약 1개씩 샘플링됩니다. -
속도 제한 - 샘플러는 누수된 버킷 속도 제한기를 사용하여 추적을 특정한 일정 속도로 샘플링합니다. 예를 들어,
sampling.param=2.0
을 사용하면 초당 2개의 추적 속도가 있는 요청을 샘플링합니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: sampling: options: {} default_strategy: service_strategy: | 추적을 위한 샘플링 전략을 정의하는 구성 옵션입니다. | 구성을 제공하지 않으면 수집기는 모든 서비스에 대해 0.001(0.1%) 확률로 기본 확률 샘플링 정책을 반환합니다. | |
default_strategy: type: service_strategy: type: | 사용할 샘플링 전략입니다. 위의 설명을 참조하십시오. |
유효한 값은 |
|
default_strategy: param: service_strategy: param: | 선택한 샘플링 전략에 대한 매개변수입니다. | 10진수 및 정수 값(0, .1, 1, 10) | 1 |
이 예에서는 추적 인스턴스가 샘플링될 가능성이 50%인 비율로 확률적인 기본 샘플링 전략을 정의합니다.
확률 샘플링 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: with-sampling spec: sampling: options: default_strategy: type: probabilistic param: 0.5 service_strategies: - service: alpha type: probabilistic param: 0.8 operation_strategies: - operation: op1 type: probabilistic param: 0.2 - operation: op2 type: probabilistic param: 0.4 - service: beta type: ratelimiting param: 5
사용자 제공 구성이 없는 경우 분산 추적 플랫폼은 다음 설정을 사용합니다.
기본 샘플링
spec: sampling: options: default_strategy: type: probabilistic param: 1
3.2.5.5. 분산 추적 스토리지 구성 옵션
spec:storage
에서 Collector, Ingester 및 쿼리 서비스에 대한 스토리지를 구성합니다. 이러한 각 구성 요소의 여러 인스턴스는 성능 및 복원에 필요한 대로 프로비저닝할 수 있습니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: storage: type: | 배포에 사용할 스토리지 유형입니다. |
|
|
storage: secretname: |
시크릿 이름(예: | 해당 없음 | |
storage: options: {} | 스토리지를 정의하는 구성 옵션입니다. |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
storage: esIndexCleaner: enabled: | Elasticsearch 스토리지를 사용하는 경우 기본적으로 인덱스에서 오래된 추적을 정리하는 작업이 생성됩니다. 이 매개변수는 인덱스 정리 작업을 활성화하거나 비활성화합니다. |
|
|
storage: esIndexCleaner: numberOfDays: | 인덱스를 삭제하기 전에 대기하는 날의 수입니다. | 정수 값 |
|
storage: esIndexCleaner: schedule: | Elasticsearch 인덱스를 정리하는 빈도에 대한 일정을 정의합니다. | Cron 표현식 | "55 23 * * *" |
3.2.5.5.1. Elasticsearch 인스턴스 자동 프로비저닝
Jaeger 사용자 정의 리소스를 배포할 때 Red Hat OpenShift distributed tracing platform Operator는 OpenShift Elasticsearch Operator를 사용하여 사용자 정의 리소스 파일의 스토리지
섹션에 제공된 구성을 기반으로 Elasticsearch 클러스터를 생성합니다. Red Hat OpenShift distributed tracing platform Operator는 다음 구성이 설정된 경우 Elasticsearch를 프로비저닝합니다.
-
spec.storage:type
이elasticsearch
로 설정되어 있습니다. -
spec.storage.elasticsearch.doNotProvision
를false
로 설정 -
spec.storage.options.es.server-urls
는 정의되지 않습니다. 즉 Red Hat Elasticsearch Operator에서 프로비저닝하지 않은 Elasticsearch 인스턴스에 대한 연결이 없습니다.
Elasticsearch를 프로비저닝할 때 Red Hat OpenShift distributed tracing Platform Operator는 Elasticsearch 사용자 정의 리소스 이름을
Jaeger 사용자 정의 리소스에서 spec.storage.elasticsearch.name
값으로 설정합니다. spec.storage.elasticsearch.name
에 대한 값을 지정하지 않으면 Operator는 elasticsearch
를 사용합니다.
제한 사항
- 네임스페이스당 자체 프로비저닝 Elasticsearch 인스턴스가 있는 하나의 분산 추적 플랫폼만 가질 수 있습니다. Elasticsearch 클러스터는 단일 분산 추적 플랫폼 인스턴스 전용입니다.
- 네임스페이스당 Elasticsearch가 하나만 있을 수 있습니다.
OpenShift Logging의 일부로 Elasticsearch를 이미 설치한 경우 Red Hat OpenShift distributed tracing platform Operator는 설치된 OpenShift Elasticsearch Operator를 사용하여 스토리지를 프로비저닝할 수 있습니다.
다음 구성 매개변수는 OpenShift Elasticsearch Operator를 사용하여 Red Hat OpenShift distributed tracing Platform Operator에서 생성한 인스턴스인 자체 프로비저닝 Elasticsearch 인스턴스에 대한 것입니다. 구성 파일의 spec:storage:elasticsearch
에서 자체 프로비저닝 Elasticsearch에 대한 구성 옵션을 지정합니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
elasticsearch: properties: doNotProvision: | 을 사용하여 Red Hat OpenShift distributed tracing Platform Operator에서 Elasticsearch 인스턴스를 프로비저닝할지 여부를 지정합니다. |
|
|
elasticsearch: properties: name: | Elasticsearch 인스턴스의 이름입니다. Red Hat OpenShift distributed tracing platform Operator는 이 매개변수에 지정된 Elasticsearch 인스턴스를 사용하여 Elasticsearch에 연결합니다. | string |
|
elasticsearch: nodeCount: | Elasticsearch 노드 수입니다. 고가용성의 경우 최소 3개의 노드를 사용합니다. “스플릿 브레인” 문제가 발생할 수 있으므로 2개의 노드를 사용하지 마십시오. | 정수 값입니다. 예를 들면 개념 증명 = 1, 최소 배포 =3입니다. | 3 |
elasticsearch: resources: requests: cpu: | 사용자 환경 구성에 따른 요청에 대한 중앙 처리 단위 수입니다. | 코어 또는 밀리코어(예: 200m, 0.5, 1)에 지정됩니다. 예를 들면 개념 증명 = 500m, 최소 배포 =1입니다. | 1 |
elasticsearch: resources: requests: memory: | 환경 구성에 따른 요청에 사용 가능한 메모리입니다. | 200Ki, 50Mi, 5Gi와 같이 바이트 단위로 지정됩니다. 예를 들면 개념 증명 = 1Gi, 최소 배포 = 16Gi*입니다. | 16Gi |
elasticsearch: resources: limits: cpu: | 사용자 환경 구성에 따른 중앙 처리 장치 수에 대한 제한입니다. | 코어 또는 밀리코어(예: 200m, 0.5, 1)에 지정됩니다. 예를 들면 개념 증명 = 500m, 최소 배포 =1입니다. | |
elasticsearch: resources: limits: memory: | 사용자 환경 구성에 따라 사용 가능한 메모리 제한입니다. | 200Ki, 50Mi, 5Gi와 같이 바이트 단위로 지정됩니다. 예를 들면 개념 증명 = 1Gi, 최소 배포 = 16Gi*입니다. | |
elasticsearch: redundancyPolicy: | 데이터 복제 정책은 Elasticsearch shard가 클러스터의 데이터 노드에 복제되는 방법을 정의합니다. 지정하지 않으면 Red Hat OpenShift distributed tracing platform Operator가 노드 수에 따라 가장 적절한 복제를 자동으로 결정합니다. |
| |
elasticsearch: useCertManagement: | 을 사용하여 분산 추적 플랫폼에서 Red Hat Elasticsearch Operator의 인증서 관리 기능을 사용해야 하는지 여부를 지정합니다. 이 기능은 OpenShift Container Platform 4.7에서 Red Hat OpenShift 5.2의 로깅 하위 시스템에 추가되었으며 새 Jaeger 배포에 권장되는 설정입니다. |
|
|
*각 Elasticsearch 노드는 더 낮은 메모리 설정으로 작동할 수 있지만 프로덕션 배포에는 권장되지 않습니다. 프로덕션 용도의 경우 기본적으로 각 Pod에 할당된 16Gi 미만이 있어야 하지만 Pod당 최대 64Gi까지 할당할 수도 있습니다. |
프로덕션 스토리지 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-prod spec: strategy: production storage: type: elasticsearch elasticsearch: nodeCount: 3 resources: requests: cpu: 1 memory: 16Gi limits: memory: 16Gi
영구 스토리지가 있는 스토리지 예:
apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
name: simple-prod
spec:
strategy: production
storage:
type: elasticsearch
elasticsearch:
nodeCount: 1
storage: 1
storageClassName: gp2
size: 5Gi
resources:
requests:
cpu: 200m
memory: 4Gi
limits:
memory: 4Gi
redundancyPolicy: ZeroRedundancy
- 1
- 영구 스토리지 구성. 이 경우 AWS
gp2
에5Gi
크기가 있습니다. 값을 지정하지 않으면 분산 추적 플랫폼은emptyDir
을 사용합니다. OpenShift Elasticsearch Operator는 분산 추적 플랫폼 인스턴스로 제거되지 않은PersistentVolumeClaim
및PersistentVolume
을 프로비저닝합니다. 동일한 이름과 네임스페이스를 사용하여 분산 추적 플랫폼 인스턴스를 생성하는 경우 동일한 볼륨을 마운트할 수 있습니다.
3.2.5.5.2. 기존 Elasticsearch 인스턴스에 연결
분산 추적이 있는 스토리지에 기존 Elasticsearch 클러스터를 사용할 수 있습니다. 외부 Elasticsearch 인스턴스라고도 하는 기존 Elasticsearch 클러스터는 Red Hat OpenShift distributed tracing Platform Operator 또는 Red Hat Elasticsearch Operator에 의해 설치되지 않은 인스턴스입니다.
Jaeger 사용자 정의 리소스를 배포할 때 다음 구성이 설정된 경우 Red Hat OpenShift distributed tracing platform Operator가 Elasticsearch를 프로비저닝하지 않습니다.
-
spec.storage.elasticsearch.doNotProvision
를true
로 설정 -
spec.storage.options.es.server-urls
has a value -
spec.storage.elasticsearch.name
에는 값이 있거나 Elasticsearch 인스턴스 이름이elasticsearch
인 경우.
Red Hat OpenShift distributed tracing platform Operator는 spec.storage.elasticsearch.name
에 지정된 Elasticsearch 인스턴스를 사용하여 Elasticsearch에 연결합니다.
제한 사항
- 분산 추적 플랫폼에서 OpenShift Container Platform 로깅 Elasticsearch 인스턴스를 공유하거나 재사용할 수 없습니다. Elasticsearch 클러스터는 단일 분산 추적 플랫폼 인스턴스 전용입니다.
Red Hat은 외부 Elasticsearch 인스턴스를 지원하지 않습니다. Customer Portal에서 테스트된 통합 매트릭스를 검토할 수 있습니다.
다음 구성 매개변수는 외부 Elasticsearch 인스턴스 라고도 하는 기존 Elasticsearch 인스턴스에 대한 것입니다. 이 경우 spec:storage:options:es
사용자 지정 리소스 파일에서 Elasticsearch에 대한 구성 옵션을 지정합니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: server-urls: | Elasticsearch 인스턴스의 URL입니다. | Elasticsearch 서버의 정규화된 도메인 이름입니다. | |
es: max-doc-count: |
Elasticsearch 쿼리에서 반환하는 최대 문서 수입니다. 이는 집계에도 적용됩니다. | 10000 | |
es: max-num-spans: |
[더 이상 사용되지 않음 - 향후 릴리스에서 제거되며 대신 | 10000 | |
es: max-span-age: | Elasticsearch에서 기간에 대한 최대 조회 수입니다. | 72h0m0s | |
es: sniffer: | Elasticsearch의 스니퍼 구성입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다. |
|
|
es: sniffer-tls-enabled: | Elasticsearch 클러스터를 스니핑할 때 TLS를 활성화하는 옵션입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성화되어 있습니다. |
|
|
es: timeout: | 쿼리에 사용되는 시간 제한입니다. 0으로 설정하면 시간 제한이 없습니다. | 0s | |
es: username: |
Elasticsearch에 필요한 사용자 이름입니다. 기본 인증은 지정된 경우 CA도 로드합니다. | ||
es: password: |
Elasticsearch에 필요한 암호입니다. | ||
es: version: | 주요 Elasticsearch 버전입니다. 지정하지 않으면 Elasticsearch에서 값을 자동으로 탐지합니다. | 0 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: num-replicas: | Elasticsearch의 인덱스당 복제본 수입니다. | 1 | |
es: num-shards: | Elasticsearch의 인덱스당 shard 수입니다. | 5 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: create-index-templates: |
|
|
|
es: index-prefix: | 분산 추적 플랫폼 인덱스에 대한 선택적 접두사입니다. 예를 들어 이 값을 "production"으로 설정하면 "production-tracing-*"이라는 인덱스가 생성됩니다. |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: bulk: actions: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 큐에 추가할 수 있는 요청 수입니다. | 1000 | |
es: bulk: flush-interval: |
다른 임계값에 관계없이 대규모 요청이 커밋된 후 | 200ms | |
es: bulk: size: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 대규모 요청이 수행할 수 있는 바이트 수입니다. | 5000000 | |
es: bulk: workers: | Elasticsearch에 대규모 요청을 수신하고 커밋할 수 있는 작업자 수입니다. | 1 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: tls: ca: | 원격 서버를 확인하는 데 사용되는 TLS 인증 기관(CA) 파일의 경로입니다. | 기본적으로 시스템 신뢰 저장소를 사용합니다. | |
es: tls: cert: | 이 프로세스를 원격 서버로 식별하는 데 사용되는 TLS 인증서 파일의 경로입니다. | ||
es: tls: enabled: | 원격 서버에 연결할 때 TLS(Transport Layer Security)를 활성화합니다. 기본적으로 비활성되어 있습니다. |
|
|
es: tls: key: | 이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 개인 키 파일의 경로입니다. | ||
es: tls: server-name: | 원격 서버의 인증서에서 예상 TLS 서버 이름을 재정의합니다. | ||
es: token-file: | 전달자 토큰이 포함된 파일의 경로입니다. 이 플래그는 지정된 경우 CA(인증 기관) 파일도 로드합니다. |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es-archive: bulk: actions: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 큐에 추가할 수 있는 요청 수입니다. | 0 | |
es-archive: bulk: flush-interval: |
다른 임계값에 관계없이 대규모 요청이 커밋된 후 | 0s | |
es-archive: bulk: size: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 대규모 요청이 수행할 수 있는 바이트 수입니다. | 0 | |
es-archive: bulk: workers: | Elasticsearch에 대규모 요청을 수신하고 커밋할 수 있는 작업자 수입니다. | 0 | |
es-archive: create-index-templates: |
|
|
|
es-archive: enabled: | 추가 스토리지를 활성화합니다. |
|
|
es-archive: index-prefix: | 분산 추적 플랫폼 인덱스에 대한 선택적 접두사입니다. 예를 들어 이 값을 "production"으로 설정하면 "production-tracing-*"이라는 인덱스가 생성됩니다. | ||
es-archive: max-doc-count: | Elasticsearch 쿼리에서 반환하는 최대 문서 수입니다. 이는 집계에도 적용됩니다. | 0 | |
es-archive: max-num-spans: |
[더 이상 사용되지 않음 - 향후 릴리스에서 제거되며 대신 | 0 | |
es-archive: max-span-age: | Elasticsearch에서 기간에 대한 최대 조회 수입니다. | 0s | |
es-archive: num-replicas: | Elasticsearch의 인덱스당 복제본 수입니다. | 0 | |
es-archive: num-shards: | Elasticsearch의 인덱스당 shard 수입니다. | 0 | |
es-archive: password: |
Elasticsearch에 필요한 암호입니다. | ||
es-archive: server-urls: |
Elasticsearch 서버의 쉼표로 구분된 목록입니다. 정규화된 URL로 지정해야 합니다(예: http://localhost:9200 | ||
es-archive: sniffer: | Elasticsearch의 스니퍼 구성입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다. |
|
|
es-archive: sniffer-tls-enabled: | Elasticsearch 클러스터를 스니핑할 때 TLS를 활성화하는 옵션입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다. |
|
|
es-archive: timeout: | 쿼리에 사용되는 시간 제한입니다. 0으로 설정하면 시간 제한이 없습니다. | 0s | |
es-archive: tls: ca: | 원격 서버를 확인하는 데 사용되는 TLS 인증 기관(CA) 파일의 경로입니다. | 기본적으로 시스템 신뢰 저장소를 사용합니다. | |
es-archive: tls: cert: | 이 프로세스를 원격 서버로 식별하는 데 사용되는 TLS 인증서 파일의 경로입니다. | ||
es-archive: tls: enabled: | 원격 서버에 연결할 때 TLS(Transport Layer Security)를 활성화합니다. 기본적으로 비활성되어 있습니다. |
|
|
es-archive: tls: key: | 이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 개인 키 파일의 경로입니다. | ||
es-archive: tls: server-name: | 원격 서버의 인증서에서 예상 TLS 서버 이름을 재정의합니다. | ||
es-archive: token-file: | 전달자 토큰이 포함된 파일의 경로입니다. 이 플래그는 지정된 경우 CA(인증 기관) 파일도 로드합니다. | ||
es-archive: username: |
Elasticsearch에 필요한 사용자 이름입니다. 기본 인증은 지정된 경우 CA도 로드합니다. | ||
es-archive: version: | 주요 Elasticsearch 버전입니다. 지정하지 않으면 Elasticsearch에서 값을 자동으로 탐지합니다. | 0 |
볼륨 마운트가 있는 스토리지 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-prod spec: strategy: production storage: type: elasticsearch options: es: server-urls: https://quickstart-es-http.default.svc:9200 index-prefix: my-prefix tls: ca: /es/certificates/ca.crt secretName: tracing-secret volumeMounts: - name: certificates mountPath: /es/certificates/ readOnly: true volumes: - name: certificates secret: secretName: quickstart-es-http-certs-public
다음 예는 시크릿에 저장된 볼륨 및 사용자/암호에서 마운트된 TLS CA 인증서가 포함된 외부 Elasticsearch 클러스터를 사용하는 Jaeger CR을 보여줍니다.
외부 Elasticsearch 예:
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-prod spec: strategy: production storage: type: elasticsearch options: es: server-urls: https://quickstart-es-http.default.svc:9200 1 index-prefix: my-prefix tls: 2 ca: /es/certificates/ca.crt secretName: tracing-secret 3 volumeMounts: 4 - name: certificates mountPath: /es/certificates/ readOnly: true volumes: - name: certificates secret: secretName: quickstart-es-http-certs-public
- 1
- 기본 네임스페이스에서 실행되는 Elasticsearch 서비스에 대한 URL입니다.
- 2
- TLS 구성입니다. 이 경우 CA 인증서만 해당하지만 상호 TLS를 사용하는 경우 es.tls.key 및 es.tls.cert를 포함할 수 있습니다.
- 3
- 환경 변수 ES_PASSWORD 및 ES_USERNAME을 정의하는 시크릿입니다. kubectl create secret generic tracing-secret --from-literal=ES_PASSWORD=changeme --from-literal=ES_USERNAME=elastic에서 생성됩니다.
- 4
- 모든 스토리지 구성 요소에 마운트되는 볼륨 마운트 및 볼륨입니다.
3.2.5.6. Elasticsearch로 인증서 관리
Red Hat Elasticsearch Operator를 사용하여 인증서를 생성하고 관리할 수 있습니다. Red Hat Elasticsearch Operator를 사용하여 인증서를 관리하면 여러 Jaeger 수집기가 포함된 단일 Elasticsearch 클러스터를 사용할 수도 있습니다.
Elasticsearch를 사용하여 인증서를 관리하는 것은 기술 프리뷰 기능 전용입니다. Technology Preview 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
버전 2.4부터 Red Hat OpenShift distributed tracing platform Operator는 Elasticsearch 사용자 정의 리소스에서 다음 주석을 사용하여 인증서 생성을 Red Hat Elasticsearch Operator에 위임합니다.
-
logging.openshift.io/elasticsearch-cert-management: "true"
-
logging.openshift.io/elasticsearch-cert.jaeger-<shared-es-node-name>: "user.jaeger"
-
logging.openshift.io/elasticsearch-cert.curator-<shared-es-node-name>: "system.logging.curator"
여기서 & lt;shared-es-node-name&
gt;은 Elasticsearch 노드의 이름입니다. 예를 들어 custom-es
라는 Elasticsearch 노드를 생성하는 경우 사용자 정의 리소스는 다음 예와 유사할 수 있습니다.
주석을 표시하는 Elasticsearch CR의 예
apiVersion: logging.openshift.io/v1 kind: Elasticsearch metadata: annotations: logging.openshift.io/elasticsearch-cert-management: "true" logging.openshift.io/elasticsearch-cert.jaeger-custom-es: "user.jaeger" logging.openshift.io/elasticsearch-cert.curator-custom-es: "system.logging.curator" name: custom-es spec: managementState: Managed nodeSpec: resources: limits: memory: 16Gi requests: cpu: 1 memory: 16Gi nodes: - nodeCount: 3 proxyResources: {} resources: {} roles: - master - client - data storage: {} redundancyPolicy: ZeroRedundancy
전제 조건
- OpenShift Container Platform 4.7
- logging subsystem for Red Hat OpenShift 5.2
-
Elasticsearch 노드와 Jaeger 인스턴스는 동일한 네임스페이스에 배포해야 합니다. 예:
tracing-system
.
Jaeger 사용자 정의 리소스에서 spec.storage.elasticsearch.useCertManagement
를 true
로 설정하여 인증서 관리를 활성화합니다.
useCertManagement
표시 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-prod spec: strategy: production storage: type: elasticsearch elasticsearch: name: custom-es doNotProvision: true useCertManagement: true
Red Hat OpenShift distributed tracing platform Operator는 Elasticsearch 사용자 정의 리소스 이름을
Elasticsearch 사용자 정의 리소스를 프로비저닝할 때 Jaeger 사용자 정의 리소스에서 spec.storage.elasticsearch.name
값으로 설정합니다.
인증서는 Red Hat Elasticsearch Operator 및 Red Hat OpenShift distributed tracing Platform Operator에서 인증서를 삽입합니다.
3.2.5.7. 쿼리 구성 옵션
쿼리는 스토리지에서 추적을 검색하고 사용자 인터페이스에서 표시하도록 호스팅하는 서비스입니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: query: replicas: | 생성할 쿼리 복제본 수를 지정합니다. |
예: 정수 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: query: options: {} | 쿼리 서비스를 정의하는 구성 옵션입니다. | ||
options: log-level: | 쿼리의 로깅 수준입니다. |
가능한 값: | |
options: query: base-path: |
모든 jaeger-query HTTP 경로의 기본 경로는 root 값이 아닌 값으로 설정할 수 있습니다(예: | /<path> |
샘플 쿼리 구성
apiVersion: jaegertracing.io/v1 kind: "Jaeger" metadata: name: "my-jaeger" spec: strategy: allInOne allInOne: options: log-level: debug query: base-path: /jaeger
3.2.5.8. Ingester 구성 옵션
Ingester는 Kafka 항목에서 읽고 Elasticsearch 스토리지 백엔드에 쓰는 서비스입니다. allInOne
또는 production
배포 전략을 사용하는 경우 Ingester 서비스를 구성할 필요가 없습니다.
매개변수 | 설명 | 값 |
---|---|---|
spec: ingester: options: {} | Ingester 서비스를 정의하는 구성 옵션입니다. | |
options: deadlockInterval: |
Ingester가 종료되기 전에 메시지를 기다려야 하는 간격(초 또는 분)을 지정합니다. 교착 상태 간격은 시스템 초기화 중에 메시지가 도착하지 않을 때 Ingester를 종료하지 않도록 기본적으로 ( |
분 및 초(예: |
options: kafka: consumer: topic: |
|
소비자의 레이블입니다. 예를 들면 |
options: kafka: consumer: brokers: | 메시지를 사용하려면 Ingester에서 사용하는 Kafka 구성을 식별합니다. |
브로커의 레이블은 예를 들면 |
options: log-level: | Ingester의 로깅 수준입니다. |
가능한 값: |
스트리밍 수집기 및 Ingester 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-streaming spec: strategy: streaming collector: options: kafka: producer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092 ingester: options: kafka: consumer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092 ingester: deadlockInterval: 5 storage: type: elasticsearch options: es: server-urls: http://elasticsearch:9200
3.2.6. 사이드카 삽입
Red Hat OpenShift distributed tracing 플랫폼은 애플리케이션 Pod 내의 프록시 사이드카를 사용하여 에이전트를 제공합니다. Red Hat OpenShift distributed tracing platform Operator는 에이전트 사이드카를 배포 워크로드에 삽입할 수 있습니다. 자동 사이드카 삽입을 활성화하거나 수동으로 관리할 수 있습니다.
3.2.6.1. 자동으로 사이드카 삽입
Red Hat OpenShift distributed tracing platform Operator는 Jaeger 에이전트 사이드카를 배포 워크로드에 삽입할 수 있습니다. 사이드카 자동 삽입을 사용하려면 sidecar.jaegertracing.io/inject
주석을 문자열 true
에 추가하거나 $ oc get jaegers
를 실행하여 반환된 분산 추적 플랫폼 인스턴스 이름에 추가합니다. true
를 지정하면 배포와 동일한 네임스페이스에 대한 단일 분산 추적 플랫폼 인스턴스만 있어야 합니다. 그러지 않으면 Operator에서 사용할 분산 추적 플랫폼 인스턴스를 결정할 수 없습니다. 배포의 특정 분산 추적 플랫폼 인스턴스 이름은 해당 네임스페이스에 적용된 true
보다 우선 순위가 높습니다.
다음 스니펫에서는 에이전트가 동일한 네임스페이스에서 사용 가능한 단일 분산 추적 플랫폼 인스턴스를 가리키는 사이드카를 삽입할 간단한 애플리케이션을 보여줍니다.
자동 사이드카 삽입 예
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp
annotations:
"sidecar.jaegertracing.io/inject": "true" 1
spec:
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- name: myapp
image: acme/myapp:myversion
- 1
- 문자열
true
또는 Jaeger 인스턴스 이름으로 설정합니다.
사이드카가 삽입되면 에이전트는 localhost
의 기본 위치에서 액세스할 수 있습니다.
3.2.6.2. 수동으로 사이드카 삽입
Red Hat OpenShift distributed tracing platform Operator는 Jaeger 에이전트 사이드카를 배포 워크로드에만 자동으로 삽입할 수 있습니다. StatefulSets' 및 'DaemonSets
같은 배포
이외의 컨트롤러 유형의 경우 사양에 Jaeger 에이전트 사이드카를 수동으로 정의할 수 있습니다.
다음 스니펫에서는 Jaeger 에이전트 사이드카의 컨테이너 섹션에 포함할 수 있는 수동 정의를 보여줍니다.
StatefulSet
의 사이드카 정의 예
apiVersion: apps/v1 kind: StatefulSet metadata: name: example-statefulset namespace: example-ns labels: app: example-app spec: spec: containers: - name: example-app image: acme/myapp:myversion ports: - containerPort: 8080 protocol: TCP - name: jaeger-agent image: registry.redhat.io/distributed-tracing/jaeger-agent-rhel7:<version> # The agent version must match the Operator version imagePullPolicy: IfNotPresent ports: - containerPort: 5775 name: zk-compact-trft protocol: UDP - containerPort: 5778 name: config-rest protocol: TCP - containerPort: 6831 name: jg-compact-trft protocol: UDP - containerPort: 6832 name: jg-binary-trft protocol: UDP - containerPort: 14271 name: admin-http protocol: TCP args: - --reporter.grpc.host-port=dns:///jaeger-collector-headless.example-ns:14250 - --reporter.type=grpc
그런 다음 에이전트는 localhost의 기본 위치에서 액세스할 수 있습니다.