분산 추적
OpenShift Container Platform에서 Network Observability Operator 구성 및 사용
초록
1장. Red Hat OpenShift distributed tracing Platform 릴리스 노트
1.1. 분산 추적 개요
서비스 소유자로서 분산 추적을 사용하여 서비스 아키텍처에 대한 정보를 수집하도록 서비스를 조정할 수 있습니다. Red Hat OpenShift 분산 추적 플랫폼을 사용하여 최신 클라우드 네이티브, 마이크로서비스 기반 애플리케이션의 구성 요소 간의 상호 작용을 모니터링, 네트워크 프로파일링 및 문제 해결에 사용할 수 있습니다.
분산 추적 플랫폼을 사용하면 다음 기능을 수행할 수 있습니다.
- 분산 트랜잭션 모니터링
- 성능 및 대기 시간 최적화
- 근본 원인 분석 수행
OpenTelemetry의 Red Hat 빌드 와 함께 Red Hat OpenShift distributed tracing platform(Tempo)을 사용할 수 있습니다.
지원되는 기능만 문서화됩니다. 문서화되지 않은 기능은 현재 지원되지 않습니다. 기능에 대한 지원이 필요한 경우 Red Hat 지원에 문의하십시오.
1.2. Red Hat OpenShift distributed tracing platform 3.4 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.2.1. CVE
이 릴리스에서는 다음 CVE가 수정되었습니다.
1.2.2. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform (Tempo) 3.4는 Tempo Operator 0.14.1 을 통해 제공됩니다.
Red Hat OpenShift distributed tracing platform (Tempo) 3.4는 오픈 소스 Grafana Tempo 2.6.1을 기반으로 합니다.
1.2.2.1. 새로운 기능 및 개선 사항
이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.
TempoStack 인스턴스의 Jaeger UI의 모니터 탭에서는 새로운 기본 메트릭 네임스페이스인
traces.span.metrics
를 사용합니다. 이번 업데이트 이전에는 Jaeger UI에서 빈 네임스페이스를 사용했습니다. 새로운traces.span.metrics
네임스페이스의 기본값은 OpenTelemetry Collector 0.113.0에서도 사용됩니다.TempoStack
사용자 지정 resouce:spec.template.queryFrontend.monitorTab.redMetricsNamespace: ""
에서 다음 필드를 사용하여 메트릭 네임스페이스에 대한 빈 값을 설정할 수 있습니다.주의이는 주요 변경 사항입니다. Red Hat OpenShift distributed tracing platform (Tempo) 및 Red Hat build of OpenTelemetry 3.4를 모두 사용하는 경우 Red Hat OpenShift distributed tracing Platform (Tempo) 3.4로 업그레이드하기 전에 OpenTelemetry 3.4로 업그레이드해야 합니다.
모든 구성 요소에 대해 하나의 시간 초과 값을 구성하기 위한
TempoStack
및TempoMonolithic
사용자 정의 리소스 정의의 신규 및 선택적spec.timeout
필드입니다. timeout 값은 기본적으로 30초,30
초로 설정됩니다.주의이는 주요 변경 사항입니다.
1.2.2.2. 버그 수정
이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패했습니다. 이번 업데이트를 통해 IBM Z(s390x
) 아키텍처에 분산 추적 플랫폼(Tempo)을 사용할 수 있습니다. (TRACING-3545) - 이번 업데이트 이전에는 개인 네트워크가 아닌 클러스터에서 분산 추적 플랫폼(Tempo)이 실패했습니다. 이번 업데이트를 통해 개인 네트워크가 아닌 클러스터에 분산 추적 플랫폼(Tempo)을 배포할 수 있습니다. (TRACING-4507)
이번 업데이트 이전에는 추적 수량 제한에 도달하여
tempo-query
로그에 504 게이트웨이 시간 초과 오류가 발생하여 Jaeger UI가 실패할 수 있었습니다. 이번 업데이트 후tempostack
또는tempomonolithic
사용자 정의 리소스에 두 개의 선택적 필드를 도입하여 문제가 해결됩니다.-
시간 제한을 구성하기 위한 새로운
spec.timeout
필드입니다. Jaeger UI의 쿼리 성능을 개선하기 위한 새로운
spec.template.queryFrontend.jaegerQuery.findTracesConcurrentRequests
필드입니다.작은 정보하나의 큐리어는 기본적으로 최대 20개의 동시 쿼리를 처리할 수 있습니다. querier 인스턴스를 확장하여 동시 쿼리 수를 추가로 늘릴 수 있습니다.
-
시간 제한을 구성하기 위한 새로운
1.2.3. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger) 3.4는 Red Hat OpenShift distributed tracing platform Operator 1.62.0 을 통해 제공됩니다.
Red Hat OpenShift distributed tracing platform (Jaeger) 3.4는 오픈 소스 Jaeger 릴리스 1.62.0을 기반으로 합니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.2.3.1. OpenShift Elasticsearch Operator 지원
Red Hat OpenShift distributed tracing platform (Jaeger) 3.4는 OpenShift Elasticsearch Operator 5.6, 5.7 및 5.8과 함께 사용할 수 있도록 지원됩니다.
1.2.3.2. 사용되지 않는 기능
Red Hat OpenShift 분산 추적 플랫폼 3.4에서는 Jaeger 및 Elasticsearch에 대한 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 심각하고 높은 심각도가 있는 CVE 및 버그에 대한 이러한 구성 요소 및 수정 사항에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다.
Red Hat OpenShift distributed tracing platform Operator 는 향후 릴리스에서 redhat-operators
카탈로그에서 제거될 예정입니다. 분산 추적 수집 및 스토리지를 위해 Tempo Operator 및 Red Hat build of OpenTelemetry 로 마이그레이션 해야 합니다.
1.2.3.3. 버그 수정
이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.
- 이번 업데이트 이전에는 502 - Bad Gateway 시간 초과 오류로 Jaeger UI에 실패할 수 있었습니다. 이번 업데이트 후 수신 주석에 시간 초과를 구성할 수 있습니다. (TRACING-4238)
1.2.3.4. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.3. Red Hat OpenShift distributed tracing platform 3.3.1 릴리스 노트
Red Hat OpenShift distributed tracing platform 3.3.1은 Red Hat OpenShift distributed tracing 플랫폼이 버그 수정과 함께 릴리스된 OpenTelemetry의 Red Hat 빌드와 번들되어 있기 때문에 변경 사항이 없는 유지 관리 릴리스입니다. https://docs.redhat.com/en/documentation/openshift_container_platform/4.16/html-single/red_hat_build_of_opentelemetry/#otel-rn
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.3.1. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
Red Hat OpenShift distributed tracing platform (Tempo) 3.3.1은 오픈 소스 Grafana Tempo 2.5.0을 기반으로 합니다.
1.3.1.1. 확인된 문제
현재 알려진 문제가 있습니다.
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.3.2. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Red Hat OpenShift distributed tracing platform(Jaeger) 3.3.1은 오픈 소스 Jaeger 릴리스 1.57.0을 기반으로 합니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.3.2.1. OpenShift Elasticsearch Operator 지원
OpenShift Elasticsearch Operator 5.6, 5.7 및 5.8과 함께 사용할 수 있도록 Red Hat OpenShift distributed tracing 플랫폼(Jaeger) 3.3.1이 지원됩니다.
1.3.2.2. 사용되지 않는 기능
Red Hat OpenShift distributed tracing platform 3.3.1에서는 Elasticsearch에 대한 Jaeger 및 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 심각하고 높은 심각도가 있는 CVE 및 버그에 대한 이러한 구성 요소 및 수정 사항에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다. Tempo Operator 및 OpenTelemetry의 Red Hat 빌드는 분산 추적 수집 및 스토리지에 권장되는 Operator입니다. 사용자는 앞으로 개선할 스택이므로 OpenTelemetry 및 Tempo 분산 추적 스택을 채택해야 합니다.
Red Hat OpenShift distributed tracing platform 3.3.1에서는 Jaeger 에이전트가 더 이상 사용되지 않으며 다음 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 Jaeger 에이전트에 대한 버그 수정 및 지원을 제공하지만 Jaeger 에이전트는 더 이상 개선 사항을 받지 않으며 제거됩니다. OpenTelemetry의 Red Hat 빌드에서 제공하는 OpenTelemetry 수집기는 추적 수집기 에이전트를 삽입하는 데 선호되는 Operator입니다.
1.3.2.3. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.4. Red Hat OpenShift distributed tracing platform 3.3 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.4.1. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
Red Hat OpenShift distributed tracing platform (Tempo) 3.3은 오픈 소스 Grafana Tempo 2.5.0을 기반으로 합니다.
1.4.1.1. 새로운 기능 및 개선 사항
이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.
- OpenShift OAuth 프록시를 사용하여 Jaeger UI 및 Jaeger API 보안 지원 (TRACING-4108)
- 멀티 테넌시가 비활성화될 때 OpenShift Container Platform에서 생성된 서비스 제공 인증서 사용을 지원합니다. (TRACING-3954)
- 멀티 테넌시가 활성화된 경우 OTLP/HTTP 프로토콜을 사용하여 수집 지원 (TRACING-4171)
- AWS S3 보안 토큰 인증 지원 (TRACING-4176)
- 인증서 자동 다시 로드를 지원합니다. (TRACING-4185)
- 서비스 이름을 쿼리에 사용할 수 있는 기간을 구성합니다. (TRACING-4214)
1.4.1.2. 버그 수정
이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.
- 이번 업데이트 이전에는 스토리지 인증서 이름이 점을 지원하지 않았습니다. 이번 업데이트를 통해 스토리지 인증서 이름에 점이 포함될 수 있습니다. (TRACING-4348)
- 이번 업데이트 이전에는 일부 사용자가 게이트웨이 경로에 액세스할 때 인증서를 선택해야 했습니다. 이번 업데이트를 통해 인증서를 선택하라는 메시지가 표시되지 않습니다. (TRACING-4431)
- 이번 업데이트 이전에는 게이트웨이 구성 요소를 확장할 수 없었습니다. 이번 업데이트를 통해 게이트웨이 구성 요소를 확장할 수 있습니다. (TRACING-4497)
-
이번 업데이트 이전에는 경로를 통해 액세스할 때 504 Gateway Time-out 오류로 Jaeger UI가 실패할 수 있습니다. 이번 업데이트를 통해 사용자는 대규모 데이터 세트를 쿼리할 때
haproxy.router.openshift.io/timeout: 3m
과 같이 시간 초과를 늘리기 위해 경로 주석을 지정할 수 있습니다. (TRACING-4511)
1.4.1.3. 확인된 문제
현재 알려진 문제가 있습니다.
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.4.2. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Red Hat OpenShift distributed tracing platform(Jaeger) 3.3은 오픈 소스 Jaeger 릴리스 1.57.0을 기반으로 합니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.4.2.1. OpenShift Elasticsearch Operator 지원
Red Hat OpenShift distributed tracing platform (Jaeger) 3.3은 OpenShift Elasticsearch Operator 5.6, 5.7 및 5.8과 함께 사용할 수 있도록 지원됩니다.
1.4.2.2. 사용되지 않는 기능
Red Hat OpenShift 분산 추적 플랫폼 3.3에서는 Jaeger 및 Elasticsearch에 대한 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 심각하고 높은 심각도가 있는 CVE 및 버그에 대한 이러한 구성 요소 및 수정 사항에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다.
Red Hat OpenShift distributed tracing platform Operator는 향후 릴리스에서 redhat-operators
카탈로그에서 제거됩니다. 사용자는 분산 추적 수집 및 스토리지를 위해 Tempo Operator 및 Red Hat build of OpenTelemetry 로 마이그레이션 해야 합니다.
1.4.2.3. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.5. Red Hat OpenShift distributed tracing platform 3.2.2 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.5.1. CVE
이 릴리스에서는 다음 CVE가 수정되었습니다.
1.5.2. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
1.5.2.1. 버그 수정
이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는 Operator가 서비스 계정에 대한 새
openshift.io/internal-registry-pull-secret-ref
주석을 조정하려고 하므로 OpenShift Container Platform 4.16에서 영구적으로 시크릿이 생성되어 루프가 발생했습니다. 이번 업데이트를 통해 Operator는 이 새 주석을 무시합니다. (TRACING-4434)
1.5.2.2. 확인된 문제
현재 알려진 문제가 있습니다.
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.5.3. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.5.3.1. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.6. Red Hat OpenShift distributed tracing platform 3.2.1 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.6.1. CVE
이번 릴리스에서는 CVE-2024-25062 가 수정되었습니다.
1.6.2. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
1.6.2.1. 확인된 문제
현재 알려진 문제가 있습니다.
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.6.3. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.6.3.1. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.7. Red Hat OpenShift distributed tracing platform 3.2 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.7.1. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
1.7.1.1. 기술 프리뷰 기능
이번 업데이트에서는 다음과 같은 기술 프리뷰 기능이 도입되었습니다.
- Tempo 모놀리식 배포 지원.
Tempo 모놀리식 배포는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
1.7.1.2. 새로운 기능 및 개선 사항
이번 업데이트에서는 다음과 같은 향상된 기능이 도입되었습니다.
- Red Hat OpenShift distributed tracing platform (Tempo) 3.2는 오픈 소스 Grafana Tempo 2.4.1을 기반으로 합니다.
- 구성 요소당 리소스 덮어쓰기 허용.
1.7.1.3. 버그 수정
이번 업데이트에서는 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는 Jaeger UI에 이전 15분 동안 추적을 보낸 서비스만 표시되었습니다. 이번 업데이트를 통해
spec.template.queryFrontend.jaegerQuery.servicesQueryDuration
이라는 필드를 사용하여 서비스 및 작업 이름의 가용성을 구성할 수 있습니다. (TRACING-3139) -
이번 업데이트 이전에는 대규모 추적을 검색한 결과 메모리 부족(OOM) 시
query-frontend
Pod가 중지될 수 있었습니다. 이번 업데이트를 통해 이 문제를 방지하기 위해 리소스 제한을 설정할 수 있습니다. (TRACING-4009)
1.7.1.4. 확인된 문제
현재 알려진 문제가 있습니다.
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.7.2. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.7.2.1. OpenShift Elasticsearch Operator 지원
Red Hat OpenShift distributed tracing platform (Jaeger) 3.2는 OpenShift Elasticsearch Operator 5.6, 5.7 및 5.8에서 사용할 수 있도록 지원됩니다.
1.7.2.2. 사용되지 않는 기능
Red Hat OpenShift 분산 추적 플랫폼 3.2에서는 Jaeger 및 Elasticsearch에 대한 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 심각하고 높은 심각도가 있는 CVE 및 버그에 대한 이러한 구성 요소 및 수정 사항에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다. Tempo Operator 및 OpenTelemetry의 Red Hat 빌드는 분산 추적 수집 및 스토리지에 권장되는 Operator입니다. 사용자는 앞으로 개선할 스택이므로 OpenTelemetry 및 Tempo 분산 추적 스택을 채택해야 합니다.
Red Hat OpenShift 분산 추적 플랫폼 3.2에서는 Jaeger 에이전트가 더 이상 사용되지 않으며 다음 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 Jaeger 에이전트에 대한 버그 수정 및 지원을 제공하지만 Jaeger 에이전트는 더 이상 개선 사항을 받지 않으며 제거됩니다. OpenTelemetry의 Red Hat 빌드에서 제공하는 OpenTelemetry 수집기는 추적 수집기 에이전트를 삽입하는 데 선호되는 Operator입니다.
1.7.2.3. 새로운 기능 및 개선 사항
이번 업데이트에서는 분산 추적 플랫폼(Jaeger)에 대해 다음과 같은 향상된 기능이 도입되었습니다.
- Red Hat OpenShift distributed tracing platform (Jaeger) 3.2는 오픈 소스 Jaeger 릴리스 1.57.0을 기반으로 합니다.
1.7.2.4. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.8. Red Hat OpenShift distributed tracing platform 3.1.1 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.8.1. CVE
이 릴리스에서는 CVE-2023-39326 이 수정되었습니다.
1.8.2. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
1.8.2.1. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Tempo Operator와 함께 사용하는 경우 Jaeger UI는 지난 15분 동안 추적을 보낸 서비스만 표시합니다. 지난 15분 동안 추적을 보내지 않은 서비스의 경우 추적은 여전히 저장되지만 Jaeger UI에 표시되지 않습니다. (TRACING-3139)
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.8.3. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.8.3.1. OpenShift Elasticsearch Operator 지원
Red Hat OpenShift distributed tracing platform (Jaeger) 3.1.1은 OpenShift Elasticsearch Operator 5.6, 5.7 및 5.8과 함께 사용할 수 있도록 지원됩니다.
1.8.3.2. 사용되지 않는 기능
Red Hat OpenShift distributed tracing platform 3.1.1, Jaeger 및 Elasticsearch에 대한 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 중요한 CVE 버그 수정 및 이러한 구성 요소에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다.
Red Hat OpenShift distributed tracing platform 3.1.1, Tempo는 OpenTelemetry의 Red Hat 빌드에서 제공하는 Tempo Operator 및 OpenTelemetry 수집기에서 제공하는 Tempo는 분산 추적 수집 및 스토리지에 권장되는 Operator입니다. 향후 개선될 스택이 되기 때문에 모든 사용자가 OpenTelemetry 및 Tempo 분산 추적 스택을 채택해야 합니다.
1.8.3.3. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.9. Red Hat OpenShift distributed tracing platform 3.1 릴리스 노트
이번 Red Hat OpenShift distributed tracing 플랫폼에는 Red Hat OpenShift distributed tracing platform (Tempo)과 더 이상 사용되지 않는 Red Hat OpenShift distributed tracing Platform (Jaeger)이 포함되어 있습니다.
1.9.1. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift distributed tracing platform(Tempo)은 Tempo Operator를 통해 제공됩니다.
1.9.1.1. 새로운 기능 및 개선 사항
이번 업데이트에서는 분산 추적 플랫폼(Tempo)에 대해 다음과 같은 향상된 기능이 도입되었습니다.
- Red Hat OpenShift distributed tracing platform (Tempo) 3.1은 오픈 소스 Grafana Tempo 2.3.1을 기반으로 합니다.
- 클러스터 전체 프록시 환경 지원
- TraceQL to Gateway 구성 요소 지원
1.9.1.2. 버그 수정
이번 업데이트에서는 분산 추적 플랫폼(Tempo)에 대해 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는 OpenShift Container Platform 4.15에서
monitorTab
을 사용하여 TempoStack 인스턴스를 생성할 때 필요한tempo-redmetrics-cluster-monitoring-view
ClusterRoleBinding이 생성되지 않았습니다. 이번 업데이트에서는 Operator가 임의의 네임스페이스에 배포될 때 모니터 탭에 대한 Operator RBAC를 수정하여 문제를 해결합니다. (TRACING-3786) -
이번 업데이트 이전에는 IPv6 네트워킹 스택만 사용하여 OpenShift Container Platform 클러스터에서 TempoStack 인스턴스를 생성할 때 compactor 및 ingestor Pod가
CrashLoopBackOff
상태에서 실행되어 여러 오류가 발생합니다. 이번 업데이트에서는 IPv6 클러스터를 지원합니다.(TRACING-3226)
1.9.1.3. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Tempo Operator와 함께 사용하는 경우 Jaeger UI는 지난 15분 동안 추적을 보낸 서비스만 표시합니다. 지난 15분 동안 추적을 보내지 않은 서비스의 경우 추적은 여전히 저장되지만 Jaeger UI에 표시되지 않습니다. (TRACING-3139)
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.9.2. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
Red Hat OpenShift distributed tracing platform (Jaeger)은 Red Hat OpenShift distributed tracing Platform Operator를 통해 제공됩니다.
Jaeger는 FIPS 검증 암호화 모듈을 사용하지 않습니다.
1.9.2.1. OpenShift Elasticsearch Operator 지원
Red Hat OpenShift distributed tracing platform (Jaeger) 3.1은 OpenShift Elasticsearch Operator 5.6, 5.7 및 5.8에서 사용할 수 있도록 지원됩니다.
1.9.2.2. 사용되지 않는 기능
Red Hat OpenShift distributed tracing platform 3.1에서는 Jaeger 및 Elasticsearch에 대한 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 중요한 CVE 버그 수정 및 이러한 구성 요소에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다.
Red Hat OpenShift distributed tracing platform 3.1에서 Tempo Operator 및 OpenTelemetry Collector가 제공하는 OpenTelemetry 수집기는 분산 추적 컬렉션 및 스토리지에 대해 권장되는 Operator입니다. 향후 개선될 스택이 되기 때문에 모든 사용자가 OpenTelemetry 및 Tempo 분산 추적 스택을 채택해야 합니다.
1.9.2.3. 새로운 기능 및 개선 사항
이번 업데이트에서는 분산 추적 플랫폼(Jaeger)에 대해 다음과 같은 향상된 기능이 도입되었습니다.
- Red Hat OpenShift distributed tracing platform (Jaeger) 3.1은 오픈 소스 Jaeger 릴리스 1.53.0을 기반으로 합니다.
1.9.2.4. 버그 수정
이번 업데이트에서는 분산 추적 플랫폼(Jaeger)에 대해 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는
jager-query
Pod의jaeger-agent
컨테이너의 연결 대상 URL을 OpenShift Container Platform 4.13의 다른 네임스페이스 URL로 덮어쓰었습니다. 이는jaeger-operator
의 사이드카 삽입 코드의 버그로 인해 결정적이지 않은jaeger-agent
주입으로 인해 발생했습니다. 이번 업데이트를 통해 Operator는 대상 배포와 동일한 네임스페이스에서 Jaeger 인스턴스에 우선순위를 지정합니다. (TRACING-3722)
1.9.2.5. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.10. Red Hat OpenShift distributed tracing platform 3.0 릴리스 노트
1.10.1. Red Hat OpenShift distributed tracing platform 3.0의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.51.0 |
Red Hat OpenShift 분산 추적 플랫폼 (Tempo) | Tempo | 2.3.0 |
1.10.2. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
1.10.2.1. 사용되지 않는 기능
Red Hat OpenShift distributed tracing platform 3.0에서 Jaeger 및 Elasticsearch 지원은 더 이상 사용되지 않으며 둘 다 향후 릴리스에서 제거될 예정입니다. Red Hat은 현재 릴리스 라이프사이클 동안 중요한 CVE 버그 수정 및 이러한 구성 요소에 대한 지원을 제공하지만 이러한 구성 요소는 더 이상 기능 개선 사항을 받지 않습니다.
Red Hat OpenShift distributed tracing platform 3.0에서 Tempo Operator 및 OpenTelemetry Collector가 제공하는 OpenTelemetry 수집기는 분산 추적 컬렉션 및 스토리지에 대해 권장되는 Operator입니다. 향후 개선될 스택이 되기 때문에 모든 사용자가 OpenTelemetry 및 Tempo 분산 추적 스택을 채택해야 합니다.
1.10.2.2. 새로운 기능 및 개선 사항
이번 업데이트에서는 분산 추적 플랫폼(Jaeger)에 대해 다음과 같은 향상된 기능이 도입되었습니다.
- ARM 아키텍처 지원
- 클러스터 전체 프록시 환경 지원
1.10.2.3. 버그 수정
이번 업데이트에서는 분산 추적 플랫폼(Jaeger)에 대해 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator에서
relatedImages
이외의 다른 이미지를 사용했습니다. 이로 인해oc adm catalog mirror
명령이relatedImages
에 지정된 이미지를 미러링하므로jaeger
Pod를 시작할 때 연결이 끊긴 네트워크 환경에서 ImagePullBackOff 오류가 발생했습니다. 이번 업데이트에서는oc adm catalog mirror
CLI 명령을 사용할 때 연결이 끊긴 환경을 지원합니다. (TRACING-3546)
1.10.2.4. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Apache Spark는 지원되지 않습니다.
- 현재 AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.10.3. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
1.10.3.1. 새로운 기능 및 개선 사항
이번 업데이트에서는 분산 추적 플랫폼(Tempo)에 대해 다음과 같은 향상된 기능이 도입되었습니다.
- ARM 아키텍처 지원
- 확장 요청 수, 기간 및 오류 수(RED) 메트릭을 지원합니다. 메트릭은 Tempo의 일부 또는 Observe 메뉴의 웹 콘솔에서 배포된 Jaeger 콘솔에서 시각화할 수 있습니다.
1.10.3.2. 버그 수정
이번 업데이트에서는 분산 추적 플랫폼(Tempo)에 대해 다음과 같은 버그 수정이 도입되었습니다.
-
이번 업데이트 이전에는 CA 인증서를 선택하는 옵션에도
TempoStack
CRD가 사용자 정의 CA 인증서를 허용하지 않았습니다. 이번 업데이트에서는 오브젝트 스토리지 연결에 대한 사용자 정의 TLS CA 옵션을 지원합니다. (TRACING-3462) -
이번 업데이트 이전에는 연결이 끊긴 클러스터에서 사용하기 위해 Red Hat OpenShift distributed tracing 플랫폼 Operator 이미지를 미러 레지스트리에 미러링할 때
tempo
,tempo-gateway
,opa-openshift
,tempo-query
의 관련 Operator 이미지가 미러링되지 않았습니다. 이번 업데이트에서는oc adm catalog mirror
CLI 명령을 사용할 때 연결이 끊긴 환경을 지원합니다. (TRACING-3523) - 이번 업데이트 이전에는 게이트웨이가 배포되지 않은 경우 Red Hat OpenShift distributed tracing 플랫폼의 쿼리 프런트 엔드 서비스가 내부 mTLS를 사용하고 있었습니다. 이로 인해 끝점 실패 오류가 발생했습니다. 이번 업데이트에서는 게이트웨이가 배포되지 않은 경우 mTLS가 수정되었습니다. (TRACING-3510)
1.10.3.3. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재 Tempo Operator와 함께 사용하는 경우 Jaeger UI는 지난 15분 동안 추적을 보낸 서비스만 표시합니다. 지난 15분 동안 추적을 보내지 않은 서비스의 경우 추적은 여전히 저장되지만 Jaeger UI에 표시되지 않습니다. (TRACING-3139)
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545)
1.11. Red Hat OpenShift distributed tracing platform 2.9.2 릴리스 노트
1.11.1. Red Hat OpenShift distributed tracing platform 2.9.2의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.47.0 |
Red Hat OpenShift 분산 추적 플랫폼 (Tempo) | Tempo | 2.1.1 |
1.11.2. CVE
이 릴리스에서는 CVE-2023-46234 가 수정되었습니다.
1.11.3. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
1.11.3.1. 확인된 문제
현재 알려진 문제가 있습니다.
- Apache Spark가 지원되지 않습니다.
- AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.11.4. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift 분산 추적 플랫폼(Tempo)은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
1.11.4.1. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재는 오브젝트 스토리지 연결에 대한 사용자 정의 TLS CA 옵션이 구현되지 않습니다. (TRACING-3462)
- 현재 Tempo Operator와 함께 사용하는 경우 Jaeger UI는 지난 15분 동안 추적을 보낸 서비스만 표시합니다. 지난 15분 동안 추적을 보내지 않은 서비스의 경우 추적은 여전히 저장되지만 Jaeger UI에 표시되지 않습니다. (TRACING-3139)
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545) 현재 게이트웨이가 배포되지 않은 경우 Tempo 쿼리 프런트 엔드 서비스는 내부 mTLS를 사용하지 않아야 합니다. 이 문제는 Jaeger 쿼리 API에 영향을 미치지 않습니다. 해결방법은 mTLS를 비활성화하는 것입니다. (TRACING-3510)
해결방법
다음과 같이 mTLS를 비활성화합니다.
다음 명령을 실행하여 편집할 Tempo Operator ConfigMap을 엽니다.
$ oc edit configmap tempo-operator-manager-config -n openshift-tempo-operator 1
- 1
- Tempo Operator가 설치된 프로젝트입니다.
YAML 파일을 업데이트하여 Operator 구성에서 mTLS를 비활성화합니다.
data: controller_manager_config.yaml: | featureGates: httpEncryption: false grpcEncryption: false builtInCertManagement: enabled: false
다음 명령을 실행하여 Tempo Operator Pod를 다시 시작합니다.
$ oc rollout restart deployment.apps/tempo-operator-controller -n openshift-tempo-operator
제한된 환경에서 Tempo Operator를 실행하기 위한 이미지가 누락되어 있습니다. Red Hat OpenShift 분산 추적 플랫폼 (Tempo) CSV에 피연산자 이미지에 대한 참조가 누락되어 있습니다. (TRACING-3523)
해결방법
미러링 툴에 Tempo Operator 관련 이미지를 추가하여 이미지를 레지스트리에 미러링합니다.
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 archiveSize: 20 storageConfig: local: path: /home/user/images mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.13 packages: - name: tempo-product channels: - name: stable additionalImages: - name: registry.redhat.io/rhosdt/tempo-rhel8@sha256:e4295f837066efb05bcc5897f31eb2bdbd81684a8c59d6f9498dd3590c62c12a - name: registry.redhat.io/rhosdt/tempo-gateway-rhel8@sha256:b62f5cedfeb5907b638f14ca6aaeea50f41642980a8a6f87b7061e88d90fac23 - name: registry.redhat.io/rhosdt/tempo-gateway-opa-rhel8@sha256:8cd134deca47d6817b26566e272e6c3f75367653d589f5c90855c59b2fab01e9 - name: registry.redhat.io/rhosdt/tempo-query-rhel8@sha256:0da43034f440b8258a48a0697ba643b5643d48b615cdb882ac7f4f1f80aad08e
1.12. Red Hat OpenShift 분산 추적 플랫폼 2.9.1 릴리스 노트
1.12.1. Red Hat OpenShift 분산 추적 플랫폼 2.9.1의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.47.0 |
Red Hat OpenShift 분산 추적 플랫폼 (Tempo) | Tempo | 2.1.1 |
1.12.2. CVE
이 릴리스에서는 CVE-2023-44487 이 수정되었습니다.
1.12.3. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
1.12.3.1. 확인된 문제
현재 알려진 문제가 있습니다.
- Apache Spark가 지원되지 않습니다.
- AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.12.4. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift 분산 추적 플랫폼(Tempo)은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
1.12.4.1. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재는 오브젝트 스토리지 연결에 대한 사용자 정의 TLS CA 옵션이 구현되지 않습니다. (TRACING-3462)
- 현재 Tempo Operator와 함께 사용하는 경우 Jaeger UI는 지난 15분 동안 추적을 보낸 서비스만 표시합니다. 지난 15분 동안 추적을 보내지 않은 서비스의 경우 추적은 여전히 저장되지만 Jaeger UI에 표시되지 않습니다. (TRACING-3139)
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545) 현재 게이트웨이가 배포되지 않은 경우 Tempo 쿼리 프런트 엔드 서비스는 내부 mTLS를 사용하지 않아야 합니다. 이 문제는 Jaeger 쿼리 API에 영향을 미치지 않습니다. 해결방법은 mTLS를 비활성화하는 것입니다. (TRACING-3510)
해결방법
다음과 같이 mTLS를 비활성화합니다.
다음 명령을 실행하여 편집할 Tempo Operator ConfigMap을 엽니다.
$ oc edit configmap tempo-operator-manager-config -n openshift-tempo-operator 1
- 1
- Tempo Operator가 설치된 프로젝트입니다.
YAML 파일을 업데이트하여 Operator 구성에서 mTLS를 비활성화합니다.
data: controller_manager_config.yaml: | featureGates: httpEncryption: false grpcEncryption: false builtInCertManagement: enabled: false
다음 명령을 실행하여 Tempo Operator Pod를 다시 시작합니다.
$ oc rollout restart deployment.apps/tempo-operator-controller -n openshift-tempo-operator
제한된 환경에서 Tempo Operator를 실행하기 위한 이미지가 누락되어 있습니다. Red Hat OpenShift 분산 추적 플랫폼 (Tempo) CSV에 피연산자 이미지에 대한 참조가 누락되어 있습니다. (TRACING-3523)
해결방법
미러링 툴에 Tempo Operator 관련 이미지를 추가하여 이미지를 레지스트리에 미러링합니다.
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 archiveSize: 20 storageConfig: local: path: /home/user/images mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.13 packages: - name: tempo-product channels: - name: stable additionalImages: - name: registry.redhat.io/rhosdt/tempo-rhel8@sha256:e4295f837066efb05bcc5897f31eb2bdbd81684a8c59d6f9498dd3590c62c12a - name: registry.redhat.io/rhosdt/tempo-gateway-rhel8@sha256:b62f5cedfeb5907b638f14ca6aaeea50f41642980a8a6f87b7061e88d90fac23 - name: registry.redhat.io/rhosdt/tempo-gateway-opa-rhel8@sha256:8cd134deca47d6817b26566e272e6c3f75367653d589f5c90855c59b2fab01e9 - name: registry.redhat.io/rhosdt/tempo-query-rhel8@sha256:0da43034f440b8258a48a0697ba643b5643d48b615cdb882ac7f4f1f80aad08e
1.13. Red Hat OpenShift distributed tracing platform 2.9 릴리스 노트
1.13.1. Red Hat OpenShift 분산 추적 플랫폼 2.9의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.47.0 |
Red Hat OpenShift 분산 추적 플랫폼 (Tempo) | Tempo | 2.1.1 |
1.13.2. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)
1.13.2.1. 버그 수정
-
이번 업데이트 이전에는
jaeger-query
배포에서 누락된 gRPC 포트로 인해 연결이 거부되었습니다. 이 문제로 인해transport: Error while dialing: dial tcp :16685: connect: connection refused
오류 메시지가 발생했습니다. 이번 업데이트를 통해 Jaeger 쿼리 gRPC 포트(16685)가 Jaeger 쿼리 서비스에 성공적으로 노출됩니다. (TRACING-3322) -
이번 업데이트 이전에는
jaeger-production-query
에 대해 잘못된 포트가 노출되어 연결이 거부되었습니다. 이번 업데이트를 통해 Jaeger 쿼리 gRPC 포트(16685)를 Jaeger 쿼리 배포에 노출하여 문제가 해결되었습니다. (TRACING-2968) -
이번 업데이트 이전에는 연결이 끊긴 환경의 단일 노드 OpenShift 클러스터에 Service Mesh를 배포할 때 Jaeger Pod는 종종
Pending
상태가 되었습니다. 이번 업데이트를 통해 문제가 해결되었습니다. (TRACING-3312) -
이번 업데이트 이전에는
reason: OOMKilled
오류 메시지로 인해 Jaeger Operator Pod가 기본 메모리 값으로 다시 시작되었습니다. 이번 업데이트를 통해 이 문제는 리소스 제한을 제거하여 해결되었습니다. (TRACING-3173)
1.13.2.2. 확인된 문제
현재 알려진 문제가 있습니다.
- Apache Spark가 지원되지 않습니다.
- AMQ/Kafka를 통한 스트리밍 배포는 IBM Z 및 IBM Power 아키텍처에서 지원되지 않습니다.
1.13.3. Red Hat OpenShift 분산 추적 플랫폼 (Tempo)
Red Hat OpenShift 분산 추적 플랫폼(Tempo)은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
1.13.3.1. 새로운 기능 및 개선 사항
이번 릴리스에서는 분산 추적 플랫폼(Tempo)에 대해 다음과 같은 향상된 기능이 도입되었습니다.
- TempoStack 인스턴스 및 Tempo Operator의 업그레이드, 모니터링 및 경고를 활성화하는 Operator 완성 수준 IV, Deep Insights를 지원합니다.
- 게이트웨이의 Ingress 및 경로 구성을 추가합니다.
-
TempoStack
사용자 정의 리소스에서managed
및unmanaged
상태를 지원합니다. - Jaeger Thrift 바이너리, Jaeger Thrift 컴팩트, Jaeger gRPC 및 Zipkin에서 다음과 같은 추가 수집 프로토콜을 노출합니다. 게이트웨이가 활성화되면 OTLP(OpenTelemetry 프로토콜) gRPC만 활성화됩니다.
- 쿼리 프런트 엔드 서비스에 Jaeger 쿼리 gRPC 끝점을 노출합니다.
- 게이트웨이 인증 및 권한 부여 없이 멀티 테넌시를 지원합니다.
1.13.3.2. 버그 수정
- 이번 업데이트 이전에는 Tempo Operator가 연결이 끊긴 환경과 호환되지 않았습니다. 이번 업데이트를 통해 Tempo Operator는 연결이 끊긴 환경을 지원합니다. (TRACING-3145)
- 이번 업데이트 이전에는 OpenShift Container Platform에서 TLS가 있는 Tempo Operator가 시작되지 않았습니다. 이번 업데이트를 통해 Tempo 구성 요소 간에 mTLS 통신이 활성화되고 Operand가 성공적으로 시작되고 Jaeger UI에 액세스할 수 있습니다. (TRACING-3091)
-
이번 업데이트 이전에는 Tempo Operator의 리소스 제한으로 인해
reason: OOMKilled
와 같은 오류 메시지가 발생했습니다. 이번 업데이트를 통해 이러한 오류를 방지하기 위해 Tempo Operator의 리소스 제한이 제거됩니다. (TRACING-3204)
1.13.3.3. 확인된 문제
현재 알려진 문제가 있습니다.
- 현재는 오브젝트 스토리지 연결에 대한 사용자 정의 TLS CA 옵션이 구현되지 않습니다. (TRACING-3462)
- 현재 Tempo Operator와 함께 사용하는 경우 Jaeger UI는 지난 15분 동안 추적을 보낸 서비스만 표시합니다. 지난 15분 동안 추적을 보내지 않은 서비스의 경우 추적은 여전히 저장되지만 Jaeger UI에 표시되지 않습니다. (TRACING-3139)
-
현재 IBM Z(
s390x
) 아키텍처에서 분산 추적 플랫폼(Tempo)이 실패합니다. (TRACING-3545) 현재 게이트웨이가 배포되지 않은 경우 Tempo 쿼리 프런트 엔드 서비스는 내부 mTLS를 사용하지 않아야 합니다. 이 문제는 Jaeger 쿼리 API에 영향을 미치지 않습니다. 해결방법은 mTLS를 비활성화하는 것입니다. (TRACING-3510)
해결방법
다음과 같이 mTLS를 비활성화합니다.
다음 명령을 실행하여 편집할 Tempo Operator ConfigMap을 엽니다.
$ oc edit configmap tempo-operator-manager-config -n openshift-tempo-operator 1
- 1
- Tempo Operator가 설치된 프로젝트입니다.
YAML 파일을 업데이트하여 Operator 구성에서 mTLS를 비활성화합니다.
data: controller_manager_config.yaml: | featureGates: httpEncryption: false grpcEncryption: false builtInCertManagement: enabled: false
다음 명령을 실행하여 Tempo Operator Pod를 다시 시작합니다.
$ oc rollout restart deployment.apps/tempo-operator-controller -n openshift-tempo-operator
제한된 환경에서 Tempo Operator를 실행하기 위한 이미지가 누락되어 있습니다. Red Hat OpenShift 분산 추적 플랫폼 (Tempo) CSV에 피연산자 이미지에 대한 참조가 누락되어 있습니다. (TRACING-3523)
해결방법
미러링 툴에 Tempo Operator 관련 이미지를 추가하여 이미지를 레지스트리에 미러링합니다.
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 archiveSize: 20 storageConfig: local: path: /home/user/images mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.13 packages: - name: tempo-product channels: - name: stable additionalImages: - name: registry.redhat.io/rhosdt/tempo-rhel8@sha256:e4295f837066efb05bcc5897f31eb2bdbd81684a8c59d6f9498dd3590c62c12a - name: registry.redhat.io/rhosdt/tempo-gateway-rhel8@sha256:b62f5cedfeb5907b638f14ca6aaeea50f41642980a8a6f87b7061e88d90fac23 - name: registry.redhat.io/rhosdt/tempo-gateway-opa-rhel8@sha256:8cd134deca47d6817b26566e272e6c3f75367653d589f5c90855c59b2fab01e9 - name: registry.redhat.io/rhosdt/tempo-query-rhel8@sha256:0da43034f440b8258a48a0697ba643b5643d48b615cdb882ac7f4f1f80aad08e
1.14. Red Hat OpenShift 분산 추적 플랫폼 2.8 릴리스 노트
1.14.1. Red Hat OpenShift 분산 추적 플랫폼 2.8의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.42 |
Red Hat OpenShift 분산 추적 플랫폼 (Tempo) | Tempo | 0.1.0 |
1.14.2. 기술 프리뷰 기능
이번 릴리스에서는 Red Hat OpenShift distributed tracing Platform의 기술 프리뷰 기능으로 Red Hat OpenShift 분산 추적 플랫폼 (Tempo)을 지원합니다.
Red Hat OpenShift 분산 추적 플랫폼(Tempo)은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
이 기능은 Red Hat OpenShift 분산 추적 플랫폼 (Tempo) 버전 0.1.0 및 업스트림 분산 추적 플랫폼(Tempo) 구성 요소 중 2.0.1을 사용합니다.
ElasticSearch 대신 S3 호환 스토리지를 사용할 수 있도록 분산 추적 플랫폼(Tempo)을 사용하여 Jaeger를 교체할 수 있습니다. Jaeger 대신 분산 추적 플랫폼(Tempo)을 사용하는 대부분의 사용자는 분산 추적 플랫폼(Tempo)이 Jaeger와 동일한 수집 및 쿼리 프로토콜을 지원하고 동일한 사용자 인터페이스를 사용하므로 기능의 차이를 알 수 없습니다.
이 기술 프리뷰 기능을 활성화하는 경우 현재 구현의 다음 제한 사항에 유의하십시오.
- 분산 추적 플랫폼(Tempo)은 현재 연결이 끊긴 설치를 지원하지 않습니다. (TRACING-3145)
- 분산 추적 플랫폼(Tempo)과 함께 Jaeger UI(사용자 인터페이스)를 사용하는 경우 Jaeger UI는 지난 15분 내에 추적을 보낸 서비스만 나열합니다. 지난 15분 이내에 추적을 전송하지 않은 서비스의 경우 Jaeger UI에 표시되지 않아도 해당 추적은 계속 저장됩니다. (TRACING-3139)
Tempo Operator에 대한 확장된 지원은 Red Hat OpenShift distributed tracing 플랫폼의 향후 릴리스에 대해 계획되어 있습니다. 가능한 추가 기능에는 TLS 인증, 멀티 테넌시 및 다중 클러스터 지원이 포함될 수 있습니다. Tempo Operator에 대한 자세한 내용은 Tempo 커뮤니티 설명서 를 참조하십시오.
1.14.3. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.15. Red Hat OpenShift 분산 추적 플랫폼 2.7 릴리스 노트
1.15.1. Red Hat OpenShift 분산 추적 플랫폼 2.7의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.39 |
1.15.2. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.16. Red Hat OpenShift 분산 추적 플랫폼 2.6 릴리스 노트
1.16.1. Red Hat OpenShift 분산 추적 플랫폼 2.6의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.38 |
1.16.2. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.17. Red Hat OpenShift 분산 추적 플랫폼 2.5 릴리스 노트
1.17.1. Red Hat OpenShift 분산 추적 플랫폼 2.5의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.36 |
1.17.2. 새로운 기능 및 개선 사항
이번 릴리스에서는 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator에 OTLP(OpenTelemetry Protocol) 수집이 지원됩니다. Operator에서 OTLP 포트를 자동으로 활성화합니다.
- OTLP gRPC 프로토콜용 4317 포트입니다.
- OTLP HTTP 프로토콜용 4318 포트입니다.
이 릴리스에서는 OpenTelemetry Operator의 Red Hat 빌드에 Kubernetes 리소스 속성 수집 지원도 추가되었습니다.
1.17.3. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.18. Red Hat OpenShift 분산 추적 플랫폼 2.4 릴리스 노트
1.18.1. Red Hat OpenShift 분산 추적 플랫폼 2.4의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.34.1 |
1.18.2. 새로운 기능 및 개선 사항
이번 릴리스에서는 OpenShift Elasticsearch Operator를 사용하여 자동 프로비저닝 인증서 지원이 추가되었습니다.
Red Hat OpenShift distributed tracing Platform (Jaeger) Operator를 사용하여 설치 중에 OpenShift Elasticsearch Operator를 호출하여 자체 프로비저닝을 수행합니다.
+
Red Hat OpenShift distributed tracing platform 2.4로 업그레이드할 때 Operator는 Elasticsearch 인스턴스를 다시 생성합니다. 이 인스턴스는 5~10분 정도 걸릴 수 있습니다. 분산 추적이 중단되고 해당 기간에 사용할 수 없습니다.
1.18.3. 기술 프리뷰 기능
먼저 Elasticsearch 인스턴스 및 인증서를 생성한 다음 인증서를 사용하도록 분산 추적 플랫폼(Jaeger)을 구성하는 것은 이 릴리스의 기술 프리뷰 입니다.
1.18.4. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.19. Red Hat OpenShift 분산 추적 플랫폼 2.3 릴리스 노트
1.19.1. Red Hat OpenShift 분산 추적 플랫폼 2.3.1의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.30.2 |
1.19.2. Red Hat OpenShift 분산 추적 플랫폼 2.3.0의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.30.1 |
1.19.3. 새로운 기능 및 개선 사항
이번 릴리스에서는 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 기본적으로 openshift-distributed-tracing
네임스페이스에 설치됩니다. 이번 업데이트 이전에는 기본 설치가 openshift-operators
네임스페이스에 있었습니다.
1.19.4. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.20. Red Hat OpenShift 분산 추적 플랫폼 2.2 릴리스 노트
1.20.1. 기술 프리뷰 기능
2.1 릴리스에 포함된 지원되지 않는 OpenTelemetry 수집기 구성 요소가 제거됩니다.
1.20.2. 버그 수정
이번 Red Hat OpenShift 분산 추적 플랫폼은 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 해결합니다.
1.21. Red Hat OpenShift 분산 추적 플랫폼 2.1 릴리스 노트
1.21.1. Red Hat OpenShift distributed tracing platform 2.1의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.29.1 |
1.21.2. 기술 프리뷰 기능
이번 릴리스에서는 OpenTelemetry 사용자 정의 리소스 파일에서 인증서를 구성하는 방법에 대한 주요 변경 사항이 추가되었습니다. 이번 업데이트를 통해 다음 예와 같이
ca_file
이 사용자 정의 리소스의tls
아래에서 이동합니다.OpenTelemetry 버전 0.33의 CA 파일 구성
spec: mode: deployment config: | exporters: jaeger: endpoint: jaeger-production-collector-headless.tracing-system.svc:14250 ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt"
OpenTelemetry 버전 0.41.1의 CA 파일 구성
spec: mode: deployment config: | exporters: jaeger: endpoint: jaeger-production-collector-headless.tracing-system.svc:14250 tls: ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt"
1.21.3. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.22. Red Hat OpenShift 분산 추적 플랫폼 2.0 릴리스 노트
1.22.1. Red Hat OpenShift distributed tracing platform 2.0의 구성 요소 버전
Operator | 구성 요소 | 버전 |
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) | Jaeger | 1.28.0 |
1.22.2. 새로운 기능 및 개선 사항
이 릴리스에는 다음과 같은 새로운 기능 및 개선 사항이 도입되었습니다.
- Red Hat OpenShift distributed tracing 플랫폼으로 Red Hat OpenShift Jaeger를 리브랜드합니다.
-
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 Jaeger 1.28로 업데이트합니다. 앞으로 Red Hat OpenShift 분산 추적 플랫폼은
stable
한 Operator 채널만 지원합니다. 개별 릴리스의 채널은 더 이상 지원되지 않습니다. - 쿼리 서비스에 OTLP(OpenTelemetry Protocol)에 대한 지원을 추가합니다.
- OperatorHub에 표시되는 새로운 분산 추적 아이콘을 도입합니다.
- 이름 변경 및 새 기능을 지원하기 위해 문서에 롤링 업데이트가 포함되어 있습니다.
1.22.3. 기술 프리뷰 기능
이번 릴리스에서는 OpenTelemetry Operator의 Red Hat 빌드를 사용하여 설치하는 기술 프리뷰로 OpenTelemetry가 추가되었습니다. Red Hat build of OpenTelemetry는 OpenTelemetry API 및 계측을 기반으로 합니다. Red Hat build of OpenTelemetry에는 OpenTelemetry Operator 및 수집기가 포함되어 있습니다. 수집기를 사용하여 OpenTelemetry 또는 Jaeger 프로토콜에서 추적을 수신하고 추적 데이터를 Red Hat OpenShift 분산 추적 플랫폼에 보낼 수 있습니다. 현재 수집기의 다른 기능은 지원되지 않습니다. OpenTelemetry Collector를 사용하면 개발자가 벤더와 무관한 API를 사용하여 코드를 조정할 수 있으며 벤더 종속을 방지하고 관찰 가능성 툴링의 에코시스템 확장을 활성화할 수 있습니다.
1.22.4. 버그 수정
이 릴리스에서는 CVE(Common Vulnerabilities and Exposures) 및 버그 수정을 처리합니다.
1.23. 지원 요청
이 문서에 설명된 절차 또는 일반적으로 OpenShift Container Platform에 문제가 발생하는 경우 Red Hat 고객 포털에 액세스하십시오.
고객 포털에서 다음을 수행할 수 있습니다.
- Red Hat 제품과 관련된 기사 및 솔루션에 대한 Red Hat 지식베이스를 검색하거나 살펴볼 수 있습니다.
- Red Hat 지원에 대한 지원 케이스 제출할 수 있습니다.
- 다른 제품 설명서에 액세스 가능합니다.
클러스터 문제를 식별하기 위해 OpenShift Cluster Manager 에서 Insights를 사용할 수 있습니다. Insights는 문제에 대한 세부 정보 및 문제 해결 방법에 대한 정보를 제공합니다.
이 문서를 개선하기 위한 제안이 있거나 오류를 발견한 경우 가장 관련 문서 구성 요소에 대해 Jira 문제를 제출합니다. 섹션 이름 및 OpenShift Container Platform 버전과 같은 구체적인 정보를 제공합니다.
1.24. 보다 포괄적 수용을 위한 오픈 소스 용어 교체
Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 용어를 교체하기 위해 최선을 다하고 있습니다. 먼저 마스터(master), 슬레이브(slave), 블랙리스트(blacklist), 화이트리스트(whitelist) 등 네 가지 용어를 교체하고 있습니다. 이러한 변경 작업은 작업 범위가 크므로 향후 여러 릴리스에 걸쳐 점차 구현할 예정입니다. 자세한 내용은 CTO Chris Wright의 메시지를 참조하십시오.
2장. 분산 추적 아키텍처
2.1. 분산 추적 아키텍처
사용자가 애플리케이션에서 작업을 수행할 때마다 응답을 생성하기 위해 참여하도록 다양한 서비스를 필요로 할 수 있는 아키텍처에 의해 요청이 실행됩니다. Red Hat OpenShift 분산 추적 플랫폼을 사용하면 애플리케이션을 구성하는 다양한 마이크로 서비스를 통해 요청 경로를 기록하는 분산 추적을 수행할 수 있습니다.
분산 추적은 분산 트랜잭션에 있는 전체 이벤트 체인을 이해하기 위해 일반적으로 다양한 프로세스 또는 호스트에서 실행되는 다양한 작업 단위에 대한 정보를 결합하는 데 사용되는 기술입니다. 개발자는 분산 추적을 사용하여 대규모 마이크로 서비스 아키텍처에서 호출 흐름을 시각화할 수 있습니다. 직렬화, 병렬 처리 및 대기 시간 소스를 이해하는 데 유용합니다.
Red Hat OpenShift 분산 추적 플랫폼은 마이크로 서비스의 전체 스택에서 개별 요청 실행을 기록하고 이를 추적으로 제공합니다. 추적은 시스템을 통한 데이터/실행 경로입니다. 엔드 투 엔드 추적은 하나 이상의 기간으로 구성됩니다.
기간은 작업 이름, 작업 시작 시간, 기간 및 잠재적으로 태그 및 로그가 있는 Red Hat OpenShift 분산 추적 플랫폼의 논리적 작업 단위를 나타냅니다. 기간은 중첩되어 인과 관계를 모델링하도록 주문될 수 있습니다.
2.1.1. 분산 추적 개요
서비스 소유자로서 분산 추적을 사용하여 서비스 아키텍처에 대한 정보를 수집하도록 서비스를 조정할 수 있습니다. Red Hat OpenShift 분산 추적 플랫폼을 사용하여 최신 클라우드 네이티브, 마이크로서비스 기반 애플리케이션의 구성 요소 간의 상호 작용을 모니터링, 네트워크 프로파일링 및 문제 해결에 사용할 수 있습니다.
분산 추적 플랫폼을 사용하면 다음 기능을 수행할 수 있습니다.
- 분산 트랜잭션 모니터링
- 성능 및 대기 시간 최적화
- 근본 원인 분석 수행
2.1.2. Red Hat OpenShift 분산 추적 플랫폼 기능
Red Hat OpenShift 분산 추적 플랫폼은 다음과 같은 기능을 제공합니다.
- Kiali와의 통합 - 올바르게 구성된 경우 Kiali 콘솔에서 분산 추적 플랫폼 데이터를 볼 수 있습니다.
- 높은 확장성 - 분산 추적 플랫폼 백엔드는 단일 장애 지점이 없으며 비즈니스 요구 사항에 따라 확장할 수 있도록 설계되었습니다.
- 분산 컨텍스트 전파 - 다양한 구성 요소의 데이터를 함께 연결하여 완전한 엔드 투 엔드 추적을 만들 수 있습니다.
- Zipkin과의 역호환성 - Red Hat OpenShift 분산 추적 플랫폼에는 Zipkin의 드롭인 대체 기능으로 사용할 수 있는 API가 있지만 Red Hat은 이 릴리스에서 Zipkin 호환성을 지원하지 않습니다.
2.1.3. Red Hat OpenShift 분산 추적 플랫폼 아키텍처
Red Hat OpenShift 분산 추적 플랫폼은 함께 작동하여 추적 데이터를 수집, 저장 및 표시하는 여러 구성 요소로 구성됩니다.
Red Hat OpenShift 분산 추적 플랫폼 (Tempo) - 이 구성 요소는 오픈 소스 Grafana Tempo 프로젝트를 기반으로 합니다.
- 게이트웨이는 인증, 권한 부여 및 요청을 배포 또는 쿼리 프런트 엔드 서비스로 처리합니다.
-
배포자 - 배포자는 Jaeger, OpenTelemetry 및 Zipkin을 비롯한 여러 형식으로 기간을 허용합니다. 이 경로는
traceID
를 해시하고 분산 일관된 해시 링을 사용하여 Ingesters로 구성됩니다. - Ingester - Ingester는 추적을 블록으로 배치하고, bloom 필터와 인덱스를 생성한 다음 모두 백엔드로 플러시합니다.
- 쿼리 프런트 엔드 - 쿼리 프런트 엔드는 들어오는 쿼리에 대한 검색 공간을 분할합니다. 그런 다음 검색 쿼리가 Queriers로 전송됩니다. 쿼리 프런트 엔드 배포는 Tempo 쿼리 사이드카를 통해 Jaeger UI를 노출합니다.
- Querier - Querier는 Ingesters 또는 백엔드 스토리지에서 요청된 추적 ID를 찾을 책임이 있습니다. 매개변수에 따라 Ingesters를 쿼리하고 백엔드에서 오브젝트 스토리지의 검색 블록으로 Ingesters를 가져올 수 있습니다.
- Cryo stator - 백엔드 스토리지로 또는 백엔드 스토리지에서 차단하여 총 블록 수를 줄입니다.
Red Hat build of OpenTelemetry - 이 구성 요소는 오픈 소스 OpenTelemetry 프로젝트를 기반으로 합니다.
- OpenTelemetry Collector - OpenTelemetry 수집기는 원격 분석 데이터를 수신, 처리 및 내보내는 벤더와 무관한 방법입니다. OpenTelemetry 수집기는 오픈 소스 관찰 기능 데이터 형식(예: Jaeger 및 Prometheus)을 지원하여 하나 이상의 오픈 소스 또는 상용 백엔드로 전송합니다. 수집기는 원격 분석 데이터를 내보내는 기본 위치 조정 라이브러리입니다.
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) - 이 구성 요소는 오픈 소스 Jaeger 프로젝트를 기반으로 합니다.
- 클라이언트 (Jaeger 클라이언트, Tracer, Reporter, 조정된 애플리케이션, 클라이언트 라이브러리)- 분산 추적 플랫폼(Jaeger) 클라이언트는 OpenTracing API의 언어별 구현입니다. 수동으로 또는 이미 OpenTracing과 통합된 Camel(Fuse), Spring Boot(RHOAR), MicroProfile(RHOAR/T©tail), Wildfly(EAP) 등의 다양한 기존 오픈 소스 프레임워크를 사용하여 분산 추적에 대해 애플리케이션을 조정하는 데 사용할 수 있습니다.
- 에이전트 (Jaeger agent, Server Queue, Processor Workers) - 분산 추적 플랫폼(Jaeger) 에이전트는 UDP(User Datagram Protocol)를 통해 전송되는 기간을 수신 대기하는 네트워크 데몬입니다. 에이전트는 조정된 애플리케이션과 동일한 호스트에 배치되어야 합니다. 일반적으로 Kubernetes와 같은 컨테이너 환경에서 사이드카를 보유하여 수행됩니다.
- Jaeger 수집기 (Collector, Queue, Workers) - Jaeger 에이전트와 유사하게 Jaeger 수집기는 기간을 수신하여 처리를 위해 내부 큐에 배치합니다. 이를 통해 Jaeger 수집기는 기간이 스토리지로 이동할 때까지 기다리지 않고 클라이언트/에이전트로 즉시 돌아갈 수 있습니다.
- 스토리지(데이터 저장소) - 수집기에는 영구 스토리지 백엔드가 필요합니다. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)에는 스토리지 범위를 위한 플러그형 메커니즘이 있습니다. Red Hat OpenShift distributed tracing platform(Jaeger)은 Elasticsearch 스토리지를 지원합니다.
- 쿼리(쿼리 서비스) - 쿼리는 스토리지에서 추적을 검색하는 서비스입니다.
- Ingester (Ingester Service) - Red Hat OpenShift 분산 추적 플랫폼은 수집기와 실제 Elasticsearch 백업 스토리지 간의 버퍼로 Apache Kafka를 사용할 수 있습니다. Ingester는 Kafka에서 데이터를 읽고 Elasticsearch 스토리지 백엔드에 쓰는 서비스입니다.
- Jaeger 콘솔 - Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) 사용자 인터페이스를 사용하면 분산 추적 데이터를 시각화할 수 있습니다. 검색 페이지에서 추적을 찾고 개별 추적을 구성하는 기간의 세부 사항을 확인할 수 있습니다.
2.1.4. 추가 리소스
3장. 분산 추적 플랫폼(Tempo)
3.1. 설치
분산 추적 플랫폼(Tempo)을 설치하려면 Tempo Operator를 설치하고 사용 사례에 가장 적합한 배포 유형을 선택해야 합니다.
- 마이크로 서비스 모드의 경우 전용 OpenShift 프로젝트에 TempoStack 인스턴스를 배포합니다.
- 모놀리식 모드의 경우 전용 OpenShift 프로젝트에 TempoMonolithic 인스턴스를 배포합니다.
오브젝트 스토리지를 사용하려면 TempoStack 또는 TempoMonolithic 인스턴스를 배포하기 전에 지원되는 오브젝트 저장소를 설정하고 오브젝트 저장소 인증 정보에 대한 시크릿을 생성해야 합니다.
3.1.1. Tempo Operator 설치
웹 콘솔 또는 명령줄을 사용하여 Tempo Operator를 설치할 수 있습니다.
3.1.1.1. 웹 콘솔을 사용하여 Tempo Operator 설치
웹 콘솔의 관리자 보기에서 Tempo Operator를 설치할 수 있습니다.
사전 요구 사항
-
cluster-admin
역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다. -
Red Hat OpenShift Dedicated의 경우
dedicated-admin
역할의 계정을 사용하여 로그인해야 합니다. 지원되는 공급자가 필요한 오브젝트 스토리지 설정 완료: Red Hat OpenShift Data Foundation,MinIO,Amazon S3,Azure Blob Storage,Google Cloud Storage. 자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
주의개체 스토리지는 필수이며 분산 추적 플랫폼(Tempo)에 포함되지 않습니다. 임시(Distributed tracing platform)를 설치하기 전에 지원되는 공급자가 오브젝트 스토리지를 선택하고 설정해야 합니다.
프로세스
-
Operators → OperatorHub 로 이동하여
Tempo Operator
를 검색합니다. Red Hat에서 제공하는 Tempo Operator 를 선택합니다.
중요다음 선택 사항은 이 Operator의 기본 사전 설정 사항입니다.
- 업데이트 채널 → stable
- 설치 모드 → 클러스터의 모든 네임스페이스
- 설치된 네임스페이스 → openshift-tempo-operator
- 업데이트 승인 → 자동
- 이 네임스페이스에서 Operator 권장 클러스터 모니터링 활성화 확인란을 선택합니다.
- 설치 → 설치 → Operator 보기를 선택합니다.
검증
- 설치된 Operator 페이지의 세부 정보 탭에서 ClusterServiceVersion 세부 정보에서 설치 상태가 Succeeded인지 확인합니다.
3.1.1.2. CLI를 사용하여 Tempo Operator 설치
명령줄에서 Tempo Operator를 설치할 수 있습니다.
사전 요구 사항
cluster-admin
역할의 클러스터 관리자가 활성 OpenShift CLI(oc
) 세션입니다.작은 정보-
OpenShift CLI(
oc
) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다. oc login
을 실행합니다.$ oc login --username=<your_username>
-
OpenShift CLI(
지원되는 공급자가 필요한 오브젝트 스토리지 설정 완료: Red Hat OpenShift Data Foundation,MinIO,Amazon S3,Azure Blob Storage,Google Cloud Storage. 자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
주의개체 스토리지는 필수이며 분산 추적 플랫폼(Tempo)에 포함되지 않습니다. 임시(Distributed tracing platform)를 설치하기 전에 지원되는 공급자가 오브젝트 스토리지를 선택하고 설정해야 합니다.
프로세스
다음 명령을 실행하여 Tempo Operator에 대한 프로젝트를 생성합니다.
$ oc apply -f - << EOF apiVersion: project.openshift.io/v1 kind: Project metadata: labels: kubernetes.io/metadata.name: openshift-tempo-operator openshift.io/cluster-monitoring: "true" name: openshift-tempo-operator EOF
다음 명령을 실행하여 Operator group을 생성합니다.
$ oc apply -f - << EOF apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: openshift-tempo-operator namespace: openshift-tempo-operator spec: upgradeStrategy: Default EOF
다음 명령을 실행하여 서브스크립션을 생성합니다.
$ oc apply -f - << EOF apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: tempo-product namespace: openshift-tempo-operator spec: channel: stable installPlanApproval: Automatic name: tempo-product source: redhat-operators sourceNamespace: openshift-marketplace EOF
검증
다음 명령을 실행하여 Operator 상태를 확인합니다.
$ oc get csv -n openshift-tempo-operator
3.1.2. TempoStack 인스턴스 설치
웹 콘솔 또는 명령줄을 사용하여 TempoStack 인스턴스를 설치할 수 있습니다.
3.1.2.1. 웹 콘솔을 사용하여 TempoStack 인스턴스 설치
웹 콘솔의 관리자 보기에서 TempoStack 인스턴스를 설치할 수 있습니다.
사전 요구 사항
-
cluster-admin
역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다. -
Red Hat OpenShift Dedicated의 경우
dedicated-admin
역할의 계정을 사용하여 로그인해야 합니다. 지원되는 공급자가 필요한 오브젝트 스토리지 설정 완료: Red Hat OpenShift Data Foundation,MinIO,Amazon S3,Azure Blob Storage,Google Cloud Storage. 자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
주의개체 스토리지는 필수이며 분산 추적 플랫폼(Tempo)에 포함되지 않습니다. 임시(Distributed tracing platform)를 설치하기 전에 지원되는 공급자가 오브젝트 스토리지를 선택하고 설정해야 합니다.
프로세스
- 홈 → 프로젝트 → 프로젝트 생성 으로 이동하여 후속 단계에서 생성할 TempoStack 인스턴스에 대해 선택한 프로젝트를 생성합니다.
워크로드 → 시크릿 → 생성 → YAML 로 이동하여 TempoStack 인스턴스에 대해 생성한 프로젝트에서 오브젝트 스토리지 버킷에 대한 시크릿을 생성합니다. 자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
Amazon S3 및 MinIO 스토리지의 시크릿 예
apiVersion: v1 kind: Secret metadata: name: minio-test stringData: endpoint: http://minio.minio.svc:9000 bucket: tempo access_key_id: tempo access_key_secret: <secret> type: Opaque
TempoStack 인스턴스를 생성합니다.
참고동일한 클러스터의 별도의 프로젝트에서 여러 TempoStack 인스턴스를 생성할 수 있습니다.
- Operator → 설치된 Operator 로 이동합니다.
- TempoStack → TempoStack → YAML 보기를 선택합니다.
YAML 보기에서
TempoStack
사용자 정의 리소스(CR)를 사용자 지정합니다.apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: sample namespace: <project_of_tempostack_instance> spec: storageSize: <value>Gi 1 storage: secret: 2 name: <secret_name> 3 type: <secret_provider> 4 tls: 5 enabled: true caName: <ca_certificate_configmap_name> 6 template: queryFrontend: jaegerQuery: enabled: true ingress: route: termination: edge type: route resources: 7 total: limits: memory: <value>Gi cpu: <value>m
- 1
- Tempo WAL에 대한 영구 볼륨 클레임의 크기입니다. 기본값은
10Gi
입니다. - 2
- 사전 요구 사항 중 하나로 설정된 오브젝트 스토리지의 2단계에서 생성한 시크릿입니다.
- 3
- 시크릿
메타데이터
의이름
값입니다. - 4
- 허용되는 값은 Azure Blob Storage에
azure
, Google Cloud Storage용gcs
, Amazon S3, MinIO 또는 Red Hat OpenShift Data Foundation의 경우s3
입니다. - 5
- 선택 사항입니다.
- 6
- 선택사항: CA 인증서가 포함된
ConfigMap
오브젝트의 이름입니다. - 7
- 선택 사항입니다.
AWS S3 및 MinIO 스토리지에 대한
TempoStack
CR의 예apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: simplest namespace: <project_of_tempostack_instance> spec: storageSize: 1Gi storage: 1 secret: name: minio-test type: s3 resources: total: limits: memory: 2Gi cpu: 2000m template: queryFrontend: jaegerQuery: 2 enabled: true ingress: route: termination: edge type: route
- 생성을 선택합니다.
검증
- 프로젝트: 드롭다운 목록을 사용하여 TempoStack 인스턴스의 프로젝트를 선택합니다.
- Operator → 설치된 Operator로 이동하여 TempoStack 인스턴스의 상태가 Condition: Ready 인지 확인합니다.
- 워크로드 → Pod 로 이동하여 TempoStack 인스턴스의 모든 구성 요소 Pod가 실행 중인지 확인합니다.
Tempo 콘솔에 액세스합니다.
-
네트워킹 → 경로 및 Ctrl+F 로 이동하여
tempo
를 검색합니다. 위치 열에서 URL을 열어 Tempo 콘솔에 액세스합니다.
참고Tempo 콘솔은 처음에 Tempo 콘솔 설치 후 추적 데이터를 표시하지 않습니다.
-
네트워킹 → 경로 및 Ctrl+F 로 이동하여
3.1.2.2. CLI를 사용하여 TempoStack 인스턴스 설치
명령줄에서 TempoStack 인스턴스를 설치할 수 있습니다.
사전 요구 사항
cluster-admin
역할의 클러스터 관리자가 활성 OpenShift CLI(oc
) 세션입니다.작은 정보-
OpenShift CLI(
oc
) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다. oc login
명령을 실행합니다.$ oc login --username=<your_username>
-
OpenShift CLI(
지원되는 공급자가 필요한 오브젝트 스토리지 설정 완료: Red Hat OpenShift Data Foundation,MinIO,Amazon S3,Azure Blob Storage,Google Cloud Storage. 자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
주의개체 스토리지는 필수이며 분산 추적 플랫폼(Tempo)에 포함되지 않습니다. 임시(Distributed tracing platform)를 설치하기 전에 지원되는 공급자가 오브젝트 스토리지를 선택하고 설정해야 합니다.
프로세스
다음 명령을 실행하여 후속 단계에서 생성할 TempoStack 인스턴스에 대해 선택한 프로젝트를 생성합니다.
$ oc apply -f - << EOF apiVersion: project.openshift.io/v1 kind: Project metadata: name: <project_of_tempostack_instance> EOF
TempoStack 인스턴스에 대해 생성한 프로젝트에서 다음 명령을 실행하여 오브젝트 스토리지 버킷에 대한 시크릿을 생성합니다.
$ oc apply -f - << EOF <object_storage_secret> EOF
자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
Amazon S3 및 MinIO 스토리지의 시크릿 예
apiVersion: v1 kind: Secret metadata: name: minio-test stringData: endpoint: http://minio.minio.svc:9000 bucket: tempo access_key_id: tempo access_key_secret: <secret> type: Opaque
생성한 프로젝트에 TempoStack 인스턴스를 생성합니다.
참고동일한 클러스터의 별도의 프로젝트에서 여러 TempoStack 인스턴스를 생성할 수 있습니다.
TempoStack
CR(사용자 정의 리소스)을 사용자 정의합니다.apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: sample namespace: <project_of_tempostack_instance> spec: storageSize: <value>Gi 1 storage: secret: 2 name: <secret_name> 3 type: <secret_provider> 4 tls: 5 enabled: true caName: <ca_certificate_configmap_name> 6 template: queryFrontend: jaegerQuery: enabled: true ingress: route: termination: edge type: route resources: 7 total: limits: memory: <value>Gi cpu: <value>m
- 1
- Tempo WAL에 대한 영구 볼륨 클레임의 크기입니다. 기본값은
10Gi
입니다. - 2
- 사전 요구 사항 중 하나로 설정된 오브젝트 스토리지의 2단계에서 생성한 시크릿입니다.
- 3
- 시크릿
메타데이터
의이름
값입니다. - 4
- 허용되는 값은 Azure Blob Storage에
azure
, Google Cloud Storage용gcs
, Amazon S3, MinIO 또는 Red Hat OpenShift Data Foundation의 경우s3
입니다. - 5
- 선택 사항입니다.
- 6
- 선택사항: CA 인증서가 포함된
ConfigMap
오브젝트의 이름입니다. - 7
- 선택 사항입니다.
AWS S3 및 MinIO 스토리지에 대한
TempoStack
CR의 예apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: simplest namespace: <project_of_tempostack_instance> spec: storageSize: 1Gi storage: 1 secret: name: minio-test type: s3 resources: total: limits: memory: 2Gi cpu: 2000m template: queryFrontend: jaegerQuery: 2 enabled: true ingress: route: termination: edge type: route
다음 명령을 실행하여 사용자 지정된 CR을 적용합니다.
$ oc apply -f - << EOF <tempostack_cr> EOF
검증
다음 명령을 실행하여 모든 TempoStack
components
의status
가Running
이고conditions
가type: Ready
인지 확인합니다.$ oc get tempostacks.tempo.grafana.com simplest -o yaml
다음 명령을 실행하여 모든 TempoStack 구성 요소 Pod가 실행 중인지 확인합니다.
$ oc get pods
Tempo 콘솔에 액세스합니다.
다음 명령을 실행하여 경로 세부 정보를 쿼리합니다.
$ oc get route
웹 브라우저에서
https://<route_from_previous_step>
을 엽니다.참고Tempo 콘솔은 처음에 Tempo 콘솔 설치 후 추적 데이터를 표시하지 않습니다.
3.1.3. TempoMonolithic 인스턴스 설치
TempoMonolithic 인스턴스는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
웹 콘솔 또는 명령줄을 사용하여 TempoMonolithic 인스턴스를 설치할 수 있습니다.
TempoMonolithic
CR(사용자 정의 리소스)은 모놀리식 모드로 Tempo 배포를 생성합니다. Tempo 배포의 모든 구성 요소(예: compactor, distributor, ingester, querier, 쿼리 프런트 엔드)는 단일 컨테이너에 포함됩니다.
TempoMonolithic 인스턴스는 메모리 내 스토리지, 영구 볼륨 또는 오브젝트 스토리지에 추적을 저장할 수 있도록 지원합니다.
모놀리식 모드의 템포 배포는 소규모 배포, 시연, 테스트 및 Red Hat OpenShift distributed tracing Platform(Jaeger) all-in-one 배포의 마이그레이션 경로로 선호됩니다.
Tempo의 모놀리식 배포는 수평으로 확장되지 않습니다. 수평 확장이 필요한 경우 마이크로 서비스의 Tempo 배포에 TempoStack
CR을 사용합니다.
3.1.3.1. 웹 콘솔을 사용하여 TempoMonolithic 인스턴스 설치
TempoMonolithic 인스턴스는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
웹 콘솔의 관리자 보기에서 TempoMonolithic 인스턴스를 설치할 수 있습니다.
사전 요구 사항
-
cluster-admin
역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다. -
Red Hat OpenShift Dedicated의 경우
dedicated-admin
역할의 계정을 사용하여 로그인해야 합니다.
프로세스
- 홈 → 프로젝트 → 프로젝트 생성 으로 이동하여 후속 단계에서 생성할 TempoMonolithic 인스턴스에 대해 선택한 프로젝트를 만듭니다.
추적을 저장하는 데 사용할 지원되는 스토리지 유형(메모리 스토리지, 영구 볼륨 또는 오브젝트 스토리지)을 결정합니다.
중요오브젝트 스토리지는 분산 추적 플랫폼(Tempo)에 포함되지 않으며 Red Hat OpenShift Data Foundation,MinIO,Amazon S3,Azure Blob Storage 또는 Google Cloud Storage 에서 지원되는 공급자의 오브젝트 저장소를 설정해야 합니다.
또한 오브젝트 스토리지를 선택하려면 TempoMonolithic 인스턴스를 위해 생성한 프로젝트에서 오브젝트 스토리지 버킷에 대한 시크릿을 생성해야 합니다. 워크로드 → 시크릿 → 생성 → YAML에서 이 작업을 수행할 수 있습니다.
자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
Amazon S3 및 MinIO 스토리지의 시크릿 예
apiVersion: v1 kind: Secret metadata: name: minio-test stringData: endpoint: http://minio.minio.svc:9000 bucket: tempo access_key_id: tempo access_key_secret: <secret> type: Opaque
TempoMonolithic 인스턴스를 생성합니다.
참고동일한 클러스터의 별도의 프로젝트에서 여러 TempoMonolithic 인스턴스를 생성할 수 있습니다.
- Operator → 설치된 Operator 로 이동합니다.
- TempoMonolithic →Temp oMonolithic → YAML 보기를 선택합니다.
YAML 보기에서
TempoMonolithic
사용자 정의 리소스(CR)를 사용자 지정합니다.다음
TempoMonolithic
CR은 OTLP/gRPC 및 OTLP/HTTP를 통한 추적 수집으로 TempoMonolithic 배포를 생성하여 지원되는 스토리지 유형에 추적을 저장하고 경로를 통해 Jaeger UI를 노출합니다.apiVersion: tempo.grafana.com/v1alpha1 kind: TempoMonolithic metadata: name: <metadata_name> namespace: <project_of_tempomonolithic_instance> spec: storage: traces: backend: <supported_storage_type> 1 size: <value>Gi 2 s3: 3 secret: <secret_name> 4 tls: 5 enabled: true caName: <ca_certificate_configmap_name> 6 jaegerui: enabled: true 7 route: enabled: true 8 resources: 9 total: limits: memory: <value>Gi cpu: <value>m
- 1
- 추적을 저장하기 위한 스토리지 유형: 메모리 내 스토리지, 영구 볼륨 또는 오브젝트 스토리지. 영구 볼륨의 값은
pv
입니다. 오브젝트 스토리지에 허용되는 값은 사용된 오브젝트 저장소 유형에 따라s3
,gcs
또는azure
입니다. 기본값은tmpfs
in-memory
스토리지의 메모리입니다. 이는 Pod가 종료될 때 데이터가 유지되지 않기 때문에 개발, 테스트, 시연 및 개념 증명 환경에만 적합합니다. - 2
- 메모리 내 스토리지의 경우 기본값은
2Gi
인tmpfs
볼륨의 크기를 의미합니다. 영구 볼륨의 경우 이는 영구 볼륨 클레임의 크기입니다. 여기서 기본값은10Gi
입니다. 오브젝트 스토리지의 경우 Tempo WAL의 영구 볼륨 클레임 크기를 의미합니다. 기본값은10Gi
입니다. - 3
- 선택 사항: 오브젝트 스토리지의 경우 오브젝트 스토리지의 유형입니다. 허용되는 값은 사용된 오브젝트 저장소 유형에 따라
s3
,gcs
및azure
입니다. - 4
- 선택 사항: 오브젝트 스토리지의 경우 스토리지 시크릿의
메타데이터에
있는이름의
값입니다. 스토리지 시크릿은 TempoMonolithic 인스턴스와 동일한 네임스페이스에 있어야 하며 "표 1"에 지정된 필드를 포함해야 합니다. "오브젝트 스토리지 설정" 섹션의 필수 시크릿 매개변수입니다. - 5
- 선택 사항입니다.
- 6
- 선택사항: CA 인증서가 포함된
ConfigMap
오브젝트의 이름입니다. - 7
- Jaeger UI를 활성화합니다.
- 8
- Jaeger UI에 대한 경로 생성을 활성화합니다.
- 9
- 선택 사항입니다.
- 생성을 선택합니다.
검증
- Project: 드롭다운 목록을 사용하여 TempoMonolithic 인스턴스의 프로젝트를 선택합니다.
- Operator → 설치된 Operator로 이동하여 TempoMonolithic 인스턴스의 상태가 Condition: Ready 인지 확인합니다.
- 워크로드 → Pod 로 이동하여 TempoMonolithic 인스턴스의 Pod가 실행 중인지 확인합니다.
Jaeger UI에 액세스합니다.
네트워킹 → 경로 및 Ctrl+F 로 이동하여
jaegerui
를 검색합니다.참고Jaeger UI는
tempo-<metadata_name_of_TempoMonolithic_CR>-jaegerui
경로를 사용합니다.- 위치 열에서 URL을 열어 Jaeger UI에 액세스합니다.
TempoMonolithic 인스턴스의 Pod가 준비되면 클러스터 내부의
tempo-<metadata_name_of_TempoMonolithic_CR>:4317
(OTLP/gRPC) 및tempo-<metadata_name_of_TempoMonolithic_CR>:4318
(OTLP/HTTP) 끝점으로 추적을 보낼 수 있습니다.Tempo API는 클러스터 내부의
tempo-<metadata_name_of_TempoMonolithic_CR>:3200
끝점에서 사용할 수 있습니다.
3.1.3.2. CLI를 사용하여 TempoMonolithic 인스턴스 설치
TempoMonolithic 인스턴스는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
명령줄에서 TempoMonolithic 인스턴스를 설치할 수 있습니다.
사전 요구 사항
cluster-admin
역할의 클러스터 관리자가 활성 OpenShift CLI(oc
) 세션입니다.작은 정보-
OpenShift CLI(
oc
) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다. oc login
명령을 실행합니다.$ oc login --username=<your_username>
-
OpenShift CLI(
프로세스
다음 명령을 실행하여 후속 단계에서 생성할 TempoMonolithic 인스턴스에 대해 선택한 프로젝트를 생성합니다.
$ oc apply -f - << EOF apiVersion: project.openshift.io/v1 kind: Project metadata: name: <project_of_tempomonolithic_instance> EOF
추적을 저장하는 데 사용할 지원되는 스토리지 유형(메모리 스토리지, 영구 볼륨 또는 오브젝트 스토리지)을 결정합니다.
중요오브젝트 스토리지는 분산 추적 플랫폼(Tempo)에 포함되지 않으며 Red Hat OpenShift Data Foundation,MinIO,Amazon S3,Azure Blob Storage 또는 Google Cloud Storage 에서 지원되는 공급자의 오브젝트 저장소를 설정해야 합니다.
또한 오브젝트 스토리지를 선택하려면 TempoMonolithic 인스턴스를 위해 생성한 프로젝트에서 오브젝트 스토리지 버킷에 대한 시크릿을 생성해야 합니다. 다음 명령을 실행하여 이 작업을 수행할 수 있습니다.
$ oc apply -f - << EOF <object_storage_secret> EOF
자세한 내용은 "오브젝트 스토리지 설정"을 참조하십시오.
Amazon S3 및 MinIO 스토리지의 시크릿 예
apiVersion: v1 kind: Secret metadata: name: minio-test stringData: endpoint: http://minio.minio.svc:9000 bucket: tempo access_key_id: tempo access_key_secret: <secret> type: Opaque
사용자가 만든 프로젝트에 TempoMonolithic 인스턴스를 만듭니다.
작은 정보동일한 클러스터의 별도의 프로젝트에서 여러 TempoMonolithic 인스턴스를 생성할 수 있습니다.
TempoMonolithic
사용자 정의 리소스(CR)를 사용자 지정합니다.다음
TempoMonolithic
CR은 OTLP/gRPC 및 OTLP/HTTP를 통한 추적 수집으로 TempoMonolithic 배포를 생성하여 지원되는 스토리지 유형에 추적을 저장하고 경로를 통해 Jaeger UI를 노출합니다.apiVersion: tempo.grafana.com/v1alpha1 kind: TempoMonolithic metadata: name: <metadata_name> namespace: <project_of_tempomonolithic_instance> spec: storage: traces: backend: <supported_storage_type> 1 size: <value>Gi 2 s3: 3 secret: <secret_name> 4 tls: 5 enabled: true caName: <ca_certificate_configmap_name> 6 jaegerui: enabled: true 7 route: enabled: true 8 resources: 9 total: limits: memory: <value>Gi cpu: <value>m
- 1
- 추적을 저장하기 위한 스토리지 유형: 메모리 내 스토리지, 영구 볼륨 또는 오브젝트 스토리지. 영구 볼륨의 값은
pv
입니다. 오브젝트 스토리지에 허용되는 값은 사용된 오브젝트 저장소 유형에 따라s3
,gcs
또는azure
입니다. 기본값은tmpfs
in-memory
스토리지의 메모리입니다. 이는 Pod가 종료될 때 데이터가 유지되지 않기 때문에 개발, 테스트, 시연 및 개념 증명 환경에만 적합합니다. - 2
- 메모리 내 스토리지의 경우 기본값은
2Gi
인tmpfs
볼륨의 크기를 의미합니다. 영구 볼륨의 경우 이는 영구 볼륨 클레임의 크기입니다. 여기서 기본값은10Gi
입니다. 오브젝트 스토리지의 경우 Tempo WAL의 영구 볼륨 클레임 크기를 의미합니다. 기본값은10Gi
입니다. - 3
- 선택 사항: 오브젝트 스토리지의 경우 오브젝트 스토리지의 유형입니다. 허용되는 값은 사용된 오브젝트 저장소 유형에 따라
s3
,gcs
및azure
입니다. - 4
- 선택 사항: 오브젝트 스토리지의 경우 스토리지 시크릿의
메타데이터에
있는이름의
값입니다. 스토리지 시크릿은 TempoMonolithic 인스턴스와 동일한 네임스페이스에 있어야 하며 "표 1"에 지정된 필드를 포함해야 합니다. "오브젝트 스토리지 설정" 섹션의 필수 시크릿 매개변수입니다. - 5
- 선택 사항입니다.
- 6
- 선택사항: CA 인증서가 포함된
ConfigMap
오브젝트의 이름입니다. - 7
- Jaeger UI를 활성화합니다.
- 8
- Jaeger UI에 대한 경로 생성을 활성화합니다.
- 9
- 선택 사항입니다.
다음 명령을 실행하여 사용자 지정된 CR을 적용합니다.
$ oc apply -f - << EOF <tempomonolithic_cr> EOF
검증
다음 명령을 실행하여 모든 TempoMonolithic
구성 요소의
상태가
Running
이고조건이
type: Ready
인지 확인합니다.$ oc get tempomonolithic.tempo.grafana.com <metadata_name_of_tempomonolithic_cr> -o yaml
다음 명령을 실행하여 TempoMonolithic 인스턴스의 포드가 실행 중인지 확인합니다.
$ oc get pods
Jaeger UI에 액세스합니다.
다음 명령을 실행하여
tempo-<metadata_name_of_tempomonolithic_cr>-jaegerui
경로에 대한 경로 세부 정보를 쿼리합니다.$ oc get route
-
웹 브라우저에서
https://<route_from_previous_step>
을 엽니다.
TempoMonolithic 인스턴스의 Pod가 준비되면 클러스터 내부의
tempo-<metadata_name_of_tempomonolithic_cr>:4317
(OTLP/gRPC) 및tempo-<metadata_name_of_tempomonolithic_cr>:4318
(OTLP/HTTP) 끝점에 추적을 보낼 수 있습니다.Tempo API는 클러스터 내부의
tempo-<metadata_name_of_tempomonolithic_cr>:3200
끝점에서 사용할 수 있습니다.
3.1.4. 오브젝트 스토리지 설정
지원되는 오브젝트 스토리지를 설정할 때 다음 구성 매개변수를 사용할 수 있습니다.
스토리지 공급자 |
---|
시크릿 매개변수 |
|
MinIO |
MinIO Operator 를 참조하십시오.
|
Amazon S3 |
|
Amazon S3 with Security Token Service (STS) |
|
Microsoft Azure Blob Storage |
|
GCP(Google Cloud Platform)의 Google Cloud Storage |
|
3.1.4.1. 보안 토큰 서비스를 사용하여 Amazon S3 스토리지 설정
AWS CLI(명령줄 인터페이스)를 사용하여 STS(Security Token Service)를 사용하여 Amazon S3 스토리지를 설정할 수 있습니다.
보안 토큰 서비스를 사용하는 Amazon S3 스토리지는 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
사전 요구 사항
- 최신 버전의 AWS CLI가 설치되어 있습니다.
프로세스
- AWS S3 버킷을 생성합니다.
TempoStack 인스턴스의 서비스 계정으로 다음 단계에서 생성된 AWS IAM 역할에 대한 신뢰 관계를 설정할 AWS IAM 정책에 대해 다음
trust.json
파일을 생성합니다.{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Federated": "arn:aws:iam::${<aws_account_id>}:oidc-provider/${<oidc_provider>}" 1 }, "Action": "sts:AssumeRoleWithWebIdentity", "Condition": { "StringEquals": { "${OIDC_PROVIDER}:sub": [ "system:serviceaccount:${<openshift_project_for_tempostack>}:tempo-${<tempostack_cr_name>}" 2 "system:serviceaccount:${<openshift_project_for_tempostack>}:tempo-${<tempostack_cr_name>}-query-frontend" ] } } } ] }
생성한
trust.json
정책 파일을 연결하여 AWS IAM 역할을 생성합니다.$ aws iam create-role \ --role-name "tempo-s3-access" \ --assume-role-policy-document "file:///tmp/trust.json" \ --query Role.Arn \ --output text
AWS IAM 정책을 생성된 역할에 연결합니다.
$ aws iam attach-role-policy \ --role-name "tempo-s3-access" \ --policy-arn "arn:aws:iam::aws:policy/AmazonS3FullAccess"
OpenShift Container Platform에서 다음과 같이 키를 사용하여 오브젝트 스토리지 보안을 생성합니다.
apiVersion: v1 kind: Secret metadata: name: minio-test stringData: bucket: <s3_bucket_name> region: <s3_region> role_arn: <s3_role_arn> type: Opaque
3.1.5. 추가 리소스
3.2. 구성
Tempo Operator는 분산 추적 플랫폼(Tempo) 리소스를 생성하고 배포하기 위한 아키텍처 및 구성 설정을 정의하는 CRD(사용자 정의 리소스 정의) 파일을 사용합니다. 기본 구성을 설치하거나 파일을 수정할 수 있습니다.
3.2.1. 백엔드 스토리지 구성
백엔드 스토리지 구성에 대한 자세한 내용은 선택한 스토리지 옵션에 대한 영구 스토리지 및 관련 구성 섹션을 참조하십시오.
3.2.2. TempoStack 구성 매개변수 소개
TempoStack
CR(사용자 정의 리소스)은 분산 추적 플랫폼(Tempo) 리소스를 생성하기 위한 아키텍처 및 설정을 정의합니다. 이러한 매개변수를 수정하여 비즈니스 요구에 맞게 구현을 사용자 지정할 수 있습니다.
TempoStack
CR 예
apiVersion: tempo.grafana.com/v1alpha1 1 kind: TempoStack 2 metadata: 3 name: <name> 4 spec: 5 storage: {} 6 resources: {} 7 replicationFactor: 1 8 retention: {} 9 template: distributor: {} 10 ingester: {} 11 compactor: {} 12 querier: {} 13 queryFrontend: {} 14 gateway: {} 15 limits: 16 global: ingestion: {} 17 query: {} 18 observability: 19 grafana: {} metrics: {} tracing: {} search: {} 20 managementState: managed 21
- 1
- 오브젝트를 생성할 때 사용할 API 버전입니다.
- 2
- 생성할 Kubernetes 오브젝트를 정의합니다.
- 3
name
문자열,UID
및 선택적namespace
를 포함하여 오브젝트를 고유하게 식별하는 데이터입니다. OpenShift Container Platform은UID
를 자동으로 생성하고 오브젝트가 생성된 프로젝트의 이름으로namespace
를 완료합니다.- 4
- TempoStack 인스턴스의 이름입니다.
- 5
- TempoStack 인스턴스의 모든 구성 매개 변수를 포함합니다. 모든 Tempo 구성 요소에 대한 공통 정의가 필요한 경우
spec
섹션에 정의합니다. 정의가 개별 구성 요소와 관련된 경우spec.template.<component> 섹션에
배치합니다. - 6
- 스토리지는 인스턴스 배포 시 지정됩니다. 인스턴스의 스토리지 옵션에 대한 자세한 내용은 설치 페이지를 참조하십시오.
- 7
- Tempo 컨테이너의 컴퓨팅 리소스를 정의합니다.
- 8
- 범위를 수락하기 전에 배포자의 데이터를 승인해야 하는 수집자 수에 대한 정수 값입니다.
- 9
- 추적 보존을 위한 구성 옵션입니다.
- 10
- Tempo
배포자
구성 요소에 대한 구성 옵션입니다. - 11
- Tempo
ingester
구성 요소에 대한 구성 옵션입니다. - 12
- Tempo
compactor
구성 요소에 대한 구성 옵션입니다. - 13
- Tempo
querier
구성 요소에 대한 구성 옵션입니다. - 14
- Tempo
query-frontend
구성 요소에 대한 구성 옵션입니다. - 15
- Tempo
게이트웨이
구성 요소에 대한 구성 옵션입니다. - 16
- 수집 및 쿼리 속도를 제한합니다.
- 17
- ingestion rate limits를 정의합니다.
- 18
- 쿼리 속도 제한을 정의합니다.
- 19
- Telemetry 데이터를 처리하도록 피연산자를 구성합니다.
- 20
- 검색 기능을 구성합니다.
- 21
- Operator에서 이 CR을 관리할지 여부를 정의합니다. 기본값은
managed
입니다.
3.2.3. 쿼리 구성 옵션
분산 추적 플랫폼(Tempo)의 두 구성 요소인 querier 및 쿼리 프런트 엔드는 쿼리를 관리합니다. 이러한 두 구성 요소를 모두 구성할 수 있습니다.
querier 구성 요소는 ingesters 또는 백엔드 스토리지에서 요청된 추적 ID를 찾습니다. set 매개변수에 따라 querier 구성 요소는 ingesters 및 pull bloom 또는 인덱스를 백엔드에서 오브젝트 스토리지의 검색 블록으로 쿼리할 수 있습니다. querier 구성 요소는 GET /querier/api/traces/<trace_id
>에서 HTTP 끝점을 노출하지만 직접 사용할 수는 없습니다. 쿼리를 쿼리 프런트 엔드로 보내야 합니다.
매개변수 | 설명 | 값 |
---|---|---|
| 노드 선택 제약 조건의 간단한 형식입니다. | 유형: 오브젝트 |
| 구성 요소에 대해 생성할 복제본 수입니다. | 유형: 정수; 형식: int32 |
| 구성 요소별 Pod 허용 오차입니다. | 유형: array |
쿼리 프런트 엔드 구성 요소는 들어오는 쿼리의 검색 공간을 분할합니다. 쿼리 프런트 엔드는 간단한 HTTP 끝점을 통해 추적을 노출합니다. GET /api/traces/<trace_id
> . 내부적으로 쿼리 프런트 엔드 구성 요소는 blockID
공간을 구성 가능한 수의 shard로 분할한 다음 이러한 요청을 대기열에 넣습니다. querier 구성 요소는 스트리밍 gRPC 연결을 통해 쿼리 프런트 엔드 구성 요소에 연결하여 이러한 분할된 쿼리를 처리합니다.
매개변수 | 설명 | 값 |
---|---|---|
| 쿼리 프런트 엔드 구성 요소입니다. | 유형: 오브젝트 |
| 노드 선택 제약 조건의 간단한 형식입니다. | 유형: 오브젝트 |
| 쿼리 프런트 엔드 구성 요소에 대해 생성할 복제본 수입니다. | 유형: 정수; 형식: int32 |
| 쿼리 프런트 엔드 구성 요소와 관련된 Pod 허용 오차입니다. | 유형: array |
| Jaeger 쿼리 구성 요소와 관련된 옵션입니다. | 유형: 오브젝트 |
|
| 유형: 부울 |
| Jaeger 쿼리 수신에 대한 옵션입니다. | 유형: 오브젝트 |
| ingress 오브젝트의 주석입니다. | 유형: 오브젝트 |
| ingress 오브젝트의 호스트 이름입니다. | 유형: 문자열 |
| IngressClass 클러스터 리소스의 이름입니다. 이 수신 리소스를 제공하는 수신 컨트롤러를 정의합니다. | 유형: 문자열 |
| OpenShift 경로에 대한 옵션입니다. | 유형: 오브젝트 |
|
종료 유형입니다. 기본값은 | type: string (enum: insecure, edge, passthrough, reencrypt) |
|
Jaeger 쿼리 UI의 수신 유형입니다. 지원되는 유형은 | 유형: 문자열(um: ingress, route) |
| 모니터 탭 구성입니다. | 유형: 오브젝트 |
|
Jaeger 콘솔에서 모니터 탭을 활성화합니다. | 유형: 부울 |
|
범위 속도, 오류 및 기간(RED) 메트릭이 포함된 Prometheus 인스턴스의 끝점입니다. 예: | 유형: 문자열 |
TempoStack
CR의 쿼리 프런트 엔드 구성의 예
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: simplest spec: storage: secret: name: minio type: s3 storageSize: 200M resources: total: limits: memory: 2Gi cpu: 2000m template: queryFrontend: jaegerQuery: enabled: true ingress: route: termination: edge type: route
3.2.4. Jaeger UI의 모니터 탭 구성
추적 데이터에는 풍부한 정보가 포함되어 있으며, 이 데이터는 조정된 언어 및 프레임워크 전반에서 정규화됩니다. 따라서 추적에서 요청 속도, 오류 및 기간(RED) 지표를 추출할 수 있습니다. 메트릭은 모니터 탭의 Jaeger 콘솔에서 시각화할 수 있습니다.
지표는 사용자 워크로드 모니터링 스택에 배포된 Prometheus에 의해 수집기에서 스크랩되는 OpenTelemetry 수집기의 범위에서 파생됩니다. Jaeger UI는 Prometheus 끝점에서 이러한 지표를 쿼리하고 시각화합니다.
3.2.4.1. OpenTelemetry 수집기 구성
OpenTelemetry 수집기에는 추적에서 메트릭을 파생하고 Prometheus 형식으로 메트릭을 내보내는 spanmetrics
커넥터의 구성이 필요합니다.
OpenTelemetry Collector 사용자 정의 리소스 범위 RED
kind: OpenTelemetryCollector apiVersion: opentelemetry.io/v1alpha1 metadata: name: otel spec: mode: deployment observability: metrics: enableMetrics: true 1 config: | connectors: spanmetrics: 2 metrics_flush_interval: 15s receivers: otlp: 3 protocols: grpc: http: exporters: prometheus: 4 endpoint: 0.0.0.0:8889 add_metric_suffixes: false resource_to_telemetry_conversion: enabled: true # by default resource attributes are dropped otlp: endpoint: "tempo-simplest-distributor:4317" tls: insecure: true service: pipelines: traces: receivers: [otlp] exporters: [otlp, spanmetrics] 5 metrics: receivers: [spanmetrics] 6 exporters: [prometheus]
3.2.4.2. tempo 구성
TempoStack
사용자 정의 리소스는 다음을 지정해야 합니다. Monitor 탭이 활성화되어 있고 Prometheus 끝점은 사용자 정의 모니터링 스택의 데이터를 쿼리하기 위해 Thanos querier 서비스로 설정됩니다.
활성화된 Monitor 탭이 있는 TempoStack 사용자 정의 리소스
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: redmetrics spec: storage: secret: name: minio-test type: s3 storageSize: 1Gi template: gateway: enabled: false queryFrontend: jaegerQuery: enabled: true monitorTab: enabled: true 1 prometheusEndpoint: https://thanos-querier.openshift-monitoring.svc.cluster.local:9091 2 ingress: type: route
3.2.4.3. RED 메트릭 및 경고 규칙 범위
spanmetrics
커넥터로 생성된 메트릭은 경고 규칙과 함께 사용할 수 있습니다. 예를 들어 느린 서비스에 대한 경고 또는 서비스 수준 목표(SLO)를 정의하는 경우 커넥터는 duration_bucket
히스토그램 및 호출
카운터 메트릭을 생성합니다. 이러한 지표에는 서비스, API 이름, 작업 유형 및 기타 속성을 식별하는 레이블이 있습니다.
레이블 | 설명 | 값 |
---|---|---|
|
|
|
| 작업 이름입니다. |
|
| 서버, 클라이언트, 메시징 또는 내부 작업을 식별합니다. |
|
프런트 엔드 서비스의 2000ms 내에서 95%의 요청을 처리하지 않을 때 SLO에 대한 경고 규칙을 정의하는 PrometheusRule
CR의 예
apiVersion: monitoring.coreos.com/v1
kind: PrometheusRule
metadata:
name: span-red
spec:
groups:
- name: server-side-latency
rules:
- alert: SpanREDFrontendAPIRequestLatency
expr: histogram_quantile(0.95, sum(rate(duration_bucket{service_name="frontend", span_kind="SPAN_KIND_SERVER"}[5m])) by (le, service_name, span_name)) > 2000 1
labels:
severity: Warning
annotations:
summary: "High request latency on {{$labels.service_name}} and {{$labels.span_name}}"
description: "{{$labels.instance}} has 95th request latency above 2s (current value: {{$value}}s)"
- 1
- 프런트 엔드 서버 응답 시간 값의 95%가 2000ms 미만인지 확인하기 위한 표현식입니다. 시간 범위
([5m]
)는 스크랩 간격의 4배 이상이고 메트릭의 변경 사항을 수용할 수 있을 만큼 길어야 합니다.
3.2.5. 수신자 TLS 구성
TempoStack 또는 TempoMonolithic 인스턴스의 사용자 정의 리소스는 사용자 제공 인증서 또는 OpenShift의 서비스 제공 인증서를 사용하여 수신자의 TLS 구성을 지원합니다.
3.2.5.1. TempoStack 인스턴스에 대한 수신자 TLS 구성
시크릿에 TLS 인증서를 제공하거나 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.
시크릿에 TLS 인증서를 제공하려면
TempoStack
사용자 정의 리소스에서 구성합니다.참고이 기능은 활성화된 Tempo Gateway에서 지원되지 않습니다.
수신자의 경우 TLS 및 시크릿에서 사용자 제공 인증서 사용
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack # ... spec: # ... template: distributor: tls: enabled: true 1 certName: <tls_secret> 2 caName: <ca_name> 3 # ...
또는 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.
참고이 기능에서는 mTLS(mutual TLS Authentication)가 지원되지 않습니다.
OpenShift Container Platform에서 생성된 수신자 및 서비스 제공 인증서를 사용하는 경우 TLS
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack # ... spec: # ... template: distributor: tls: enabled: true 1 # ...
- 1
- Tempo Cryostat에서 TLS에 대한 충분한 구성입니다.
추가 리소스
3.2.5.2. TempoMonolithic 인스턴스에 대한 수신자 TLS 구성
시크릿에 TLS 인증서를 제공하거나 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.
시크릿에 TLS 인증서를 제공하려면
TempoMonolithic
사용자 정의 리소스에서 구성합니다.참고이 기능은 활성화된 Tempo Gateway에서 지원되지 않습니다.
수신자의 경우 TLS 및 시크릿에서 사용자 제공 인증서 사용
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoMonolithic # ... spec: # ... ingestion: otlp: grpc: tls: enabled: true 1 certName: <tls_secret> 2 caName: <ca_name> 3 # ...
또는 OpenShift Container Platform에서 생성한 서비스 제공 인증서를 사용할 수 있습니다.
참고이 기능에서는 mTLS(mutual TLS Authentication)가 지원되지 않습니다.
OpenShift Container Platform에서 생성된 수신자 및 서비스 제공 인증서를 사용하는 경우 TLS
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoMonolithic # ... spec: # ... ingestion: otlp: grpc: tls: enabled: true http: tls: enabled: true 1 # ...
- 1
- Tempo Cryostat에서 TLS에 대한 최소 구성입니다.
추가 리소스
3.2.6. 멀티 테넌시
인증 및 권한 부여를 사용하는 멀티 테넌시는 Tempo Gateway 서비스에 제공됩니다. 인증에서는 OpenShift OAuth 및 Kubernetes TokenReview
API를 사용합니다. 권한 부여는 Kubernetes SubjectAccessReview
API를 사용합니다.
Tempo Gateway 서비스는 OTLP/gRPC를 통해서만 추적의 수집을 지원합니다. OTLP/HTTP는 지원되지 않습니다.
두 개의 테넌트 dev
및 prod
가 있는 샘플 Tempo CR
apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: simplest namespace: chainsaw-multitenancy spec: storage: secret: name: minio type: s3 storageSize: 1Gi resources: total: limits: memory: 2Gi cpu: 2000m tenants: mode: openshift 1 authentication: 2 - tenantName: dev 3 tenantId: "1610b0c3-c509-4592-a256-a1871353dbfa" 4 - tenantName: prod tenantId: "1610b0c3-c509-4592-a256-a1871353dbfb" template: gateway: enabled: true 5 queryFrontend: jaegerQuery: enabled: true
권한 부여 구성은 Kubernetes RBAC(역할 기반 액세스 제어)의 ClusterRole
및 ClusterRoleBinding
을 사용합니다. 기본적으로 사용자는 읽기 또는 쓰기 권한이 없습니다.
인증된 사용자가 dev
및 prod
테넌트의 추적 데이터를 읽을 수 있는 읽기 RBAC 구성 샘플
apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: tempostack-traces-reader rules: - apiGroups: - 'tempo.grafana.com' resources: 1 - dev - prod resourceNames: - traces verbs: - 'get' 2 --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: tempostack-traces-reader roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: tempostack-traces-reader subjects: - kind: Group apiGroup: rbac.authorization.k8s.io name: system:authenticated 3
otel-collector
서비스 계정에서 dev
테넌트의 추적 데이터를 쓸 수 있는 쓰기 RBAC 구성 샘플
apiVersion: v1 kind: ServiceAccount metadata: name: otel-collector 1 namespace: otel --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: tempostack-traces-write rules: - apiGroups: - 'tempo.grafana.com' resources: 2 - dev resourceNames: - traces verbs: - 'create' 3 --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: tempostack-traces roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: tempostack-traces-write subjects: - kind: ServiceAccount name: otel-collector namespace: otel
RBAC와 함께 서비스 계정을 사용하여 데이터를 작성하는 OpenTelemetry 수집기에서 추적 데이터를 Tempo 인스턴스로 보낼 수 있습니다.
샘플 OpenTelemetry CR 구성
apiVersion: opentelemetry.io/v1alpha1 kind: OpenTelemetryCollector metadata: name: cluster-collector namespace: tracing-system spec: mode: deployment serviceAccount: otel-collector config: | extensions: bearertokenauth: filename: "/var/run/secrets/kubernetes.io/serviceaccount/token" exporters: otlp/dev: 1 endpoint: tempo-simplest-gateway.tempo.svc.cluster.local:8090 tls: insecure: false ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt" auth: authenticator: bearertokenauth headers: X-Scope-OrgID: "dev" otlphttp/dev: 2 endpoint: https://tempo-simplest-gateway.chainsaw-multitenancy.svc.cluster.local:8080/api/traces/v1/dev tls: insecure: false ca_file: "/var/run/secrets/kubernetes.io/serviceaccount/service-ca.crt" auth: authenticator: bearertokenauth headers: X-Scope-OrgID: "dev" service: extensions: [bearertokenauth] pipelines: traces: exporters: [otlp/dev] 3
3.2.7. 테인트 및 톨러레이션 사용
전용 노드에서 TempoStack Pod를 예약하려면 OpenShift 4의 nodeSelector 및 허용 오차를 사용하여 인프라 노드에 다른 TempoStack 구성 요소를 배포하는 방법을 참조하십시오.
3.2.8. 모니터링 및 경고 구성
Tempo Operator는 배포자, ingester 등과 같은 각 TempoStack 구성 요소에 대한 모니터링 및 경고를 지원하며 Operator 자체에 대한 업그레이드 및 운영 메트릭을 노출합니다.
3.2.8.1. TempoStack 메트릭 및 경고 구성
TempoStack 인스턴스의 메트릭 및 경고를 활성화할 수 있습니다.
사전 요구 사항
- 클러스터에서 사용자 정의 프로젝트에 대한 모니터링이 활성화됩니다.
프로세스
TempoStack 인스턴스의 메트릭을 활성화하려면
spec.observability.metrics.createServiceMonitors
필드를true
로 설정합니다.apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: <name> spec: observability: metrics: createServiceMonitors: true
TempoStack 인스턴스에 대한 경고를 활성화하려면
spec.observability.metrics.createPrometheusRules
필드를true
로 설정합니다.apiVersion: tempo.grafana.com/v1alpha1 kind: TempoStack metadata: name: <name> spec: observability: metrics: createPrometheusRules: true
검증
웹 콘솔의 관리자 보기를 사용하여 구성이 성공했는지 확인할 수 있습니다.
-
모니터링 → 대상으로 이동하여 소스: 사용자에 대해 필터링한 다음
tempo-<instance_name>-<component>
형식의 서비스 모니터링의 상태가 Up 인지 확인합니다. - 경고가 올바르게 설정되었는지 확인하려면 모니터링 → 경고 → 경고 규칙으로 이동하여 소스: 사용자 에 대해 필터링한 다음 TempoStack 인스턴스 구성 요소에 대한 경고 규칙을 사용할 수 있는지 확인합니다.
추가 리소스
3.2.8.2. Tempo Operator 지표 및 경고 구성
웹 콘솔에서 Tempo Operator를 설치할 때 이 네임스페이스에서 Operator 권장 클러스터 모니터링 활성화 확인란을 선택하여 Tempo Operator의 메트릭 및 경고를 생성할 수 있습니다.
설치 중에 확인란을 선택하지 않은 경우 Tempo Operator를 설치한 후에도 메트릭 및 경고를 수동으로 활성화할 수 있습니다.
프로세스
-
Tempo Operator가 설치된 프로젝트에서
openshift.io/cluster-monitoring: "true"
레이블을 추가합니다. 기본값은openshift-tempo-operator
입니다.
검증
웹 콘솔의 관리자 보기를 사용하여 구성이 성공했는지 확인할 수 있습니다.
-
모니터링 → 대상으로 이동하여 소스: 플랫폼을 필터링한 다음 Up 상태가 있어야 하는
tempo-operator
를 검색합니다. - 경고가 올바르게 설정되었는지 확인하려면 모니터링 → 경고 → 경고 규칙으로 이동하여 소스: 플랫폼에 대한 필터링 및 Tempo Operator의 경고 규칙을 찾습니다.
3.3. 문제 해결
다양한 문제 해결 방법을 사용하여 TempoStack 또는 TempoMonolithic 인스턴스에서 문제를 진단하고 해결할 수 있습니다.
3.3.1. 명령줄에서 진단 데이터 수집
지원 케이스를 제출할 때는 클러스터에 대한 진단 정보를 Red Hat 지원에 포함하는 것이 좋습니다. oc adm must-gather
툴을 사용하여 TempoStack
또는 TempoMonolithic
)과 같은 다양한 유형의 리소스 및 Deployment
,Pod
또는 ConfigMap
과 같은 생성된 리소스를 수집할 수 있습니다. oc adm must-gather
툴에서는 이 데이터를 수집하는 새 Pod를 생성합니다.
프로세스
수집된 데이터를 저장하려는 디렉터리에서
oc adm must-gather
명령을 실행하여 데이터를 수집합니다.$ oc adm must-gather --image=ghcr.io/grafana/tempo-operator/must-gather -- \ /usr/bin/must-gather --operator-namespace <operator_namespace> 1
- 1
- Operator가 설치된 기본 네임스페이스는
openshift-tempo-operator
입니다.
검증
- 새 디렉터리가 생성되고 수집된 데이터를 포함하는지 확인합니다.
3.4. 업그레이드
버전 업그레이드의 경우 Tempo Operator는 OLM(Operator Lifecycle Manager)을 사용하여 클러스터에서 Operator의 설치, 업그레이드, RBAC(역할 기반 액세스 제어)를 제어합니다.
OLM은 기본적으로 OpenShift Container Platform에서 실행됩니다. 사용 가능한 Operator 및 설치된 Operator의 업그레이드에 대한 OLM 쿼리입니다.
Tempo Operator가 새 버전으로 업그레이드되면 이를 관리하는 TempoStack 인스턴스를 검사하고 Operator의 새 버전에 해당하는 버전으로 업그레이드합니다.
3.4.1. 추가 리소스
3.5. 제거 중
OpenShift Container Platform 클러스터에서 Red Hat OpenShift 분산 추적 플랫폼 (Tempo)을 제거하는 단계는 다음과 같습니다.
- 모든 분산 추적 플랫폼(Tempo) Pod를 종료합니다.
- TempoStack 인스턴스를 제거합니다.
- Tempo Operator를 제거합니다.
3.5.1. 웹 콘솔을 사용하여 제거
웹 콘솔의 관리자 보기에서 TempoStack 인스턴스를 제거할 수 있습니다.
사전 요구 사항
-
cluster-admin
역할을 사용하여 클러스터 관리자로 OpenShift Container Platform 웹 콘솔에 로그인되어 있습니다. -
Red Hat OpenShift Dedicated의 경우
dedicated-admin
역할의 계정을 사용하여 로그인해야 합니다.
프로세스
- Operator → 설치된 Operator → Tempo Operator → TempoStack으로 이동합니다.
- TempoStack 인스턴스를 제거하려면 →Tempo Stack 삭제 → 삭제를 선택합니다.
- 선택 사항: Tempo Operator를 제거합니다.
3.5.2. CLI를 사용하여 제거
명령줄에서 TempoStack 인스턴스를 제거할 수 있습니다.
사전 요구 사항
cluster-admin
역할의 클러스터 관리자가 활성 OpenShift CLI(oc
) 세션입니다.작은 정보-
OpenShift CLI(
oc
) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다. oc login
을 실행합니다.$ oc login --username=<your_username>
-
OpenShift CLI(
프로세스
다음 명령을 실행하여 TempoStack 인스턴스의 이름을 가져옵니다.
$ oc get deployments -n <project_of_tempostack_instance>
다음 명령을 실행하여 TempoStack 인스턴스를 제거합니다.
$ oc delete tempo <tempostack_instance_name> -n <project_of_tempostack_instance>
- 선택 사항: Tempo Operator를 제거합니다.
검증
다음 명령을 실행하여 성공적으로 제거되었음을 나타내는 TempoStack 인스턴스가 출력에 없는지 확인합니다.
$ oc get deployments -n <project_of_tempostack_instance>
3.5.3. 추가 리소스
4장. 분산 추적 플랫폼(Jaeger)
4.1. 설치
Red Hat OpenShift distributed tracing platform(Jaeger)은 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
다음 두 가지 방법 중 하나로 OpenShift Container Platform에 Red Hat OpenShift 분산 추적 플랫폼을 설치할 수 있습니다.
-
Red Hat OpenShift 분산 추적 플랫폼을 Red Hat OpenShift Service Mesh의 일부로 설치할 수 있습니다. 분산 추적은 기본적으로 Service Mesh 설치에 포함됩니다. Red Hat OpenShift distributed tracing 플랫폼을 서비스 메시의 일부로 설치하려면 Red Hat Service Mesh 설치 지침을 따르십시오. 서비스 메시, 즉
ServiceMeshControlPlane
및 Red Hat OpenShift distributed tracing 플랫폼 리소스가 동일한 네임스페이스에 있어야 하는 동일한 네임스페이스에 Red Hat OpenShift distributed tracing 플랫폼을 설치해야 합니다. - 서비스 메시를 설치하지 않으려면 Red Hat OpenShift 분산 추적 플랫폼 Operator를 사용하여 자체적으로 분산 추적 플랫폼을 설치할 수 있습니다. 서비스 메시 없이 Red Hat OpenShift 분산 추적 플랫폼을 설치하려면 다음 지침을 사용하십시오.
4.1.1. 사전 요구 사항
Red Hat OpenShift 분산 추적 플랫폼을 설치하려면 설치 활동을 검토하고 사전 요구 사항을 충족해야 합니다.
- Red Hat 계정에 유효한 OpenShift Container Platform 서브스크립션이 있어야 합니다. 서브스크립션이 없는 경우 영업 담당자에게 자세한 내용을 문의하십시오.
- OpenShift Container Platform 4.16 개요 를 검토하십시오.
Install OpenShift Container Platform 4.16.
-
OpenShift Container Platform 버전과 일치하는
oc
CLI 툴 버전을 설치하고 경로에 추가합니다. -
cluster-admin
역할이 있는 계정.
4.1.2. Red Hat OpenShift 분산 추적 플랫폼 설치 개요
Red Hat OpenShift 분산 추적 플랫폼을 설치하는 단계는 다음과 같습니다.
- 문서를 검토하고 배포 전략을 확인합니다.
- 배포 전략에 영구 스토리지가 필요한 경우 OperatorHub를 통해 OpenShift Elasticsearch Operator를 설치합니다.
- OperatorHub를 통해 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 설치합니다.
- 사용자 정의 리소스 YAML 파일을 수정하여 배포 전략을 지원합니다.
- OpenShift Container Platform 환경에 하나 이상의 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 인스턴스를 배포합니다.
4.1.3. OpenShift Elasticsearch Operator 설치
기본 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 배포에서는 Red Hat OpenShift distributed tracing 플랫폼을 평가하거나 시연을 제공하거나 테스트 환경에서 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger)을 사용하도록 설계되었기 때문에 메모리 내 스토리지를 사용합니다. 프로덕션에서 Red Hat OpenShift 분산 추적 플랫폼(Jaeger)을 사용하려면 영구 스토리지 옵션을 설치하고 구성해야 합니다(이 경우 Elasticsearch).
사전 요구 사항
- OpenShift Container Platform 웹 콘솔에 액세스할 수 있습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다. Red Hat OpenShift Dedicated를 사용하는 경우dedicated-admin
역할의 계정이 있어야 합니다.
Operator의 커뮤니티 버전은 설치하지 마십시오. 커뮤니티 Operator는 지원되지 않습니다.
이미 OpenShift Elasticsearch Operator를 OpenShift 로깅의 일부로 설치한 경우 OpenShift Elasticsearch Operator를 다시 설치할 필요가 없습니다. Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 설치된 OpenShift Elasticsearch Operator를 사용하여 Elasticsearch 인스턴스를 생성합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우dedicated-admin
역할의 계정이 있어야 합니다. - Operators → OperatorHub로 이동합니다.
- Elasticsearch를 필터 상자에 입력하여 OpenShift Elasticsearch Operator를 찾습니다.
- Red Hat에서 제공하는 OpenShift Elasticsearch Operator를 클릭하여 Operator에 대한 정보를 표시합니다.
- 설치를 클릭합니다.
- Operator 설치 페이지에서 stable 업데이트 채널을 선택합니다. 이렇게 하면 새 버전이 릴리스되면 Operator가 자동으로 업데이트됩니다.
클러스터의 기본 모든 네임스페이스(기본값)를 허용합니다. 이렇게 하면 기본
openshift-operators-redhat
프로젝트에 Operator가 설치되고 클러스터의 모든 프로젝트에서 Operator를 사용할 수 있습니다.참고Elasticsearch 설치에는 OpenShift Elasticsearch Operator의 openshift-operators-redhat 네임스페이스가 필요합니다. 다른 Red Hat OpenShift 분산 추적 플랫폼 Operator는
openshift-operators
네임스페이스에 설치됩니다.기본 자동 승인 전략을 수락합니다. 기본값을 수락하면 새 버전의 이 Operator가 사용 가능할 때 OLM(Operator Lifecycle Manager)은 개입 없이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다. 수동 업데이트를 선택하면 최신 버전의 Operator가 사용 가능할 때 OLM이 업데이트 요청을 작성합니다. 클러스터 관리자는 Operator를 새 버전으로 업데이트하려면 OLM 업데이트 요청을 수동으로 승인해야 합니다.
참고수동 승인 전략을 사용하려면 적절한 인증 정보를 가진 사용자가 Operator 설치 및 서브스크립션 프로세스를 승인해야 합니다.
- 설치를 클릭합니다.
-
설치된 Operator 페이지에서
openshift-operators-redhat
프로젝트를 선택합니다. 계속하기 전에 OpenShift Elasticsearch Operator의 InstallSucceeded 상태가 될 때까지 기다립니다.
4.1.4. Red Hat OpenShift 분산 추적 platform Operator 설치
OperatorHub 를 통해 Red Hat OpenShift distributed tracing Platform Operator를 설치할 수 있습니다.
기본적으로 Operator는 openshift-operators
프로젝트에 설치됩니다.
사전 요구 사항
- OpenShift Container Platform 웹 콘솔에 액세스할 수 있습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다. Red Hat OpenShift Dedicated를 사용하는 경우dedicated-admin
역할의 계정이 있어야 합니다. - 영구 스토리지가 필요한 경우 Red Hat OpenShift distributed tracing Platform Operator를 설치하기 전에 OpenShift Elasticsearch Operator를 설치해야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우dedicated-admin
역할의 계정이 있어야 합니다. - Operators → OperatorHub로 이동합니다.
- 검색 필드에 분산 추적 플랫폼을 입력하여 Red Hat OpenShift distributed tracing Platform Operator를 검색합니다.
- Red Hat에서 제공하는 Red Hat OpenShift distributed tracing platform Operator를 선택하여 Operator에 대한 정보를 표시합니다.
- 설치를 클릭합니다.
- Operator 설치 페이지의 업데이트 채널 의 경우 stable 을 선택하여 새 버전이 릴리스되면 Operator를 자동으로 업데이트합니다.
-
클러스터의 기본 모든 네임스페이스(기본값)를 허용합니다. 이렇게 하면 기본
openshift-operators
프로젝트에서 Operator가 설치되고 클러스터의 모든 프로젝트에서 Operator를 사용할 수 있습니다. 기본 자동 승인 전략을 수락합니다.
참고이 기본값을 수락하면 새 버전의 Operator를 사용할 수 있게 되면 OLM(Operator Lifecycle Manager)이 이 Operator의 실행 중인 인스턴스를 자동으로 업그레이드합니다.
수동 업데이트를 선택하면 새 버전의 Operator를 사용할 수 있게 되면 OLM에서 업데이트 요청을 생성합니다. Operator를 새 버전으로 업데이트하려면 업데이트 요청을 클러스터 관리자로 수동으로 승인해야 합니다. 수동 승인 전략을 사용하려면 클러스터 관리자가 Operator 설치 및 서브스크립션을 수동으로 승인해야 합니다.
- 설치를 클릭합니다.
- Operators → 설치된 Operator로 이동합니다.
-
설치된 Operator 페이지에서
openshift-operators
프로젝트를 선택합니다. 계속하기 전에 Red Hat OpenShift distributed tracing Platform Operator의 Succeeded 상태를 기다립니다.
4.2. 구성
Red Hat OpenShift distributed tracing platform(Jaeger)은 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 분산 추적 플랫폼(Jaeger) 리소스를 생성하고 배포할 때 사용할 아키텍처 및 구성 설정을 정의하는 CRD(사용자 정의 리소스 정의) 파일을 사용합니다. 기본 구성을 설치하거나 파일을 수정할 수 있습니다.
Red Hat OpenShift Service Mesh의 일부로 분산 추적 플랫폼을 설치한 경우 ServiceMeshControlPlane 의 일부로 기본 구성을 수행할 수 있지만 완전한 제어를 위해서는 Jaeger CR을 구성한 다음 ServiceMeshControlPlane에서 분산 추적 구성 파일을 참조해야 합니다.
Red Hat OpenShift 분산 추적 플랫폼(Jaeger)에는 사전 정의된 배포 전략이 있습니다. 사용자 정의 리소스 파일에 배포 전략을 지정합니다. 분산 추적 플랫폼(Jaeger) 인스턴스를 생성할 때 Operator는 이 구성 파일을 사용하여 배포에 필요한 오브젝트를 생성합니다.
배포 전략을 표시하는 Jaeger 사용자 정의 리소스 파일
apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
name: MyConfigFile
spec:
strategy: production 1
- 1
- 배포 전략.
4.2.1. 지원되는 배포 전략
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator는 현재 다음과 같은 배포 전략을 지원합니다.
allInOne
- 이 전략은 개발, 테스트 및 데모 목적으로 사용되며 프로덕션 용도로는 사용되지 않습니다. 기본 백엔드 구성 요소인 에이전트, 수집기 및 쿼리 서비스는 기본적으로 메모리 내 스토리지를 사용하도록 구성된 단일 실행 파일로 패키지됩니다.
참고메모리 내 스토리지는 영구적이지 않습니다. 즉, 분산 추적 플랫폼(Jaeger) 인스턴스가 종료, 재시작 또는 교체되면 추적 데이터가 손실됩니다. 각 Pod에 자체 메모리가 있으므로 메모리 내 스토리지를 확장할 수 없습니다. 영구 스토리지의 경우 Elasticsearch를 기본 스토리지로 사용하는
production
또는streaming
전략을 사용해야 합니다.Production
- 프로덕션 전략은 장기적인 추적 데이터 저장과 더 확장 가능하고 가용성이 높은 아키텍처가 필요한 프로덕션 환경을 위한 것입니다. 따라서 각 백엔드 구성 요소는 별도로 배포됩니다. 에이전트는 조정된 애플리케이션에서 사이드카로 삽입될 수 있습니다. 쿼리 및 수집기 서비스는 지원되는 스토리지 유형(현재 Elasticsearch)으로 구성됩니다. 이러한 각 구성 요소의 여러 인스턴스는 성능 및 복원에 필요한 대로 프로비저닝할 수 있습니다.
streaming
스트리밍 전략은 수집기와 Elasticsearch 백엔드 스토리지 간에 효과적으로 적용되는 스트리밍 기능을 제공하여 프로덕션 전략을 보강하도록 설계되었습니다. 이를 통해 높은 로드 상황에서 백엔드 스토리지의 부담을 줄이고 다른 추적 후 처리 기능을 통해 스트리밍 플랫폼(AMQ Streams/ Kafka)에서 직접 실시간 데이터를 가져올 수 있습니다.
참고- 스트리밍 전략에는 AMQ Streams에 대한 추가 Red Hat 서브스크립션이 필요합니다.
- 스트리밍 배포 전략은 현재 IBM Z®에서 지원되지 않습니다.
4.2.2. 웹 콘솔에서 분산 추적 플랫폼 기본 전략 배포
CRD(사용자 정의 리소스 정의)는 Red Hat OpenShift 분산 추적 플랫폼의 인스턴스를 배포할 때 사용되는 구성을 정의합니다. 기본 CR 이름은 jaeger-all-in-one-inmemory
로 지정되어 기본 OpenShift Container Platform 설치에 성공적으로 설치할 수 있도록 최소한의 리소스로 구성됩니다. 이 기본 구성을 사용하여 AllInOne
배포 전략을 사용하는 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하거나 자체 사용자 지정 리소스 파일을 정의할 수 있습니다.
메모리 내 스토리지는 영구적이지 않습니다. Jaeger Pod가 종료, 재시작 또는 교체되면 추적 데이터가 손실됩니다. 영구 스토리지의 경우 Elasticsearch를 기본 스토리지로 사용하는 production
또는 streaming
전략을 사용해야 합니다.
사전 요구 사항
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 설치되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. 새 프로젝트를 생성합니다(예:
tracing-system
).참고Service Mesh의 일부로 설치하는 경우 분산 추적 플랫폼 리소스는
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다(예:istio-system
).- 홈 → 프로젝트로 이동합니다.
- 프로젝트 만들기를 클릭합니다.
-
이름 필드에
tracing-system
을 입력합니다. - 생성을 클릭합니다.
- Operators → 설치된 Operator로 이동합니다.
-
필요한 경우 프로젝트 메뉴에서
tracing-system
을 선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다. - Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 클릭합니다. 세부 정보 탭의 제공된 API 에서 Operator는 단일 링크를 제공합니다.
- Jaeger 에서 인스턴스 생성을 클릭합니다.
- Jaeger 생성 페이지에서 기본값을 사용하여 설치하려면 생성을 클릭하여 분산 추적 플랫폼(Jaeger) 인스턴스를 생성합니다.
-
Jaegers 페이지에서 분산 추적 플랫폼(Jaeger) 인스턴스의 이름을 클릭합니다(예:
jaeger-all-one-in-inmemory
). - Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
4.2.2.1. CLI에서 분산 추적 플랫폼 기본 전략 배포
명령줄에서 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하려면 다음 절차를 따르십시오.
사전 요구 사항
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 설치 및 검증되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
OpenShift Container Platform 버전과 일치하는 OpenShift CLI(
oc
)에 액세스할 수 있습니다. -
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
다음 명령을 실행하여
cluster-admin
역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
다음 명령을 실행하여
tracing-system
이라는 새 프로젝트를 생성합니다.$ oc new-project tracing-system
다음 텍스트가 포함된
jaeger.yaml
이라는 사용자 정의 리소스 파일을 생성합니다.예: jaeger-all-one.yaml
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-all-in-one-inmemory
다음 명령을 실행하여 분산 추적 플랫폼(Jaeger)을 배포합니다.
$ oc create -n tracing-system -f jaeger.yaml
다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.
$ oc get pods -n tracing-system -w
설치 프로세스가 완료되면 출력은 다음 예와 유사합니다.
NAME READY STATUS RESTARTS AGE jaeger-all-in-one-inmemory-cdff7897b-qhfdx 2/2 Running 0 24s
4.2.3. 웹 콘솔에서 분산 추적 플랫폼 프로덕션 전략 배포
production
배포 전략은 보다 확장 가능하고 가용성이 높은 아키텍처가 필요하고 추적 데이터의 장기 스토리지가 중요한 프로덕션 환경을 위한 것입니다.
사전 요구 사항
- OpenShift Elasticsearch Operator가 설치되었습니다.
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 설치되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. 새 프로젝트를 생성합니다(예:
tracing-system
).참고Service Mesh의 일부로 설치하는 경우 분산 추적 플랫폼 리소스는
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다(예:istio-system
).- 홈 → 프로젝트로 이동합니다.
- 프로젝트 만들기를 클릭합니다.
-
이름 필드에
tracing-system
을 입력합니다. - 생성을 클릭합니다.
- Operators → 설치된 Operator로 이동합니다.
-
필요한 경우 프로젝트 메뉴에서
tracing-system
을 선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다. - Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 클릭합니다. 개요 탭의 제공된 API에서 Operator는 단일 링크를 제공합니다.
- Jaeger 에서 인스턴스 생성을 클릭합니다.
Jaeger 생성 페이지에서 기본
all-in-one
YAML 텍스트를 프로덕션 YAML 구성으로 교체합니다. 예를 들면 다음과 같습니다.예 jaeger-production.yaml 파일을 Elasticsearch로
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-production namespace: spec: strategy: production ingress: security: oauth-proxy storage: type: elasticsearch elasticsearch: nodeCount: 3 redundancyPolicy: SingleRedundancy esIndexCleaner: enabled: true numberOfDays: 7 schedule: 55 23 * * * esRollover: schedule: '*/30 * * * *'
- 생성 을 클릭하여 분산 추적 플랫폼(Jaeger) 인스턴스를 생성합니다.
-
Jaegers 페이지에서 분산 추적 플랫폼(Jaeger) 인스턴스의 이름을 클릭합니다(예:
jaeger-prod-elasticsearch
). - Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 모든 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
4.2.3.1. CLI에서 분산 추적 플랫폼 프로덕션 전략 배포
명령줄에서 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하려면 다음 절차를 따르십시오.
사전 요구 사항
- OpenShift Elasticsearch Operator가 설치되었습니다.
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 설치되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
OpenShift Container Platform 버전과 일치하는 OpenShift CLI(
oc
)에 액세스할 수 있습니다. -
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
다음 명령을 실행하여
cluster-admin
역할의 사용자로 OpenShift CLI(oc
)에 로그인합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
다음 명령을 실행하여
tracing-system
이라는 새 프로젝트를 생성합니다.$ oc new-project tracing-system
-
이전 프로세스의 예제 텍스트가 포함된
jaeger-production.yaml
이라는 사용자 정의 리소스 파일을 생성합니다. 다음 명령을 실행하여 분산 추적 플랫폼(Jaeger)을 배포합니다.
$ oc create -n tracing-system -f jaeger-production.yaml
다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.
$ oc get pods -n tracing-system -w
설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.
NAME READY STATUS RESTARTS AGE elasticsearch-cdm-jaegersystemjaegerproduction-1-6676cf568gwhlw 2/2 Running 0 10m elasticsearch-cdm-jaegersystemjaegerproduction-2-bcd4c8bf5l6g6w 2/2 Running 0 10m elasticsearch-cdm-jaegersystemjaegerproduction-3-844d6d9694hhst 2/2 Running 0 10m jaeger-production-collector-94cd847d-jwjlj 1/1 Running 3 8m32s jaeger-production-query-5cbfbd499d-tv8zf 3/3 Running 3 8m32s
4.2.4. 웹 콘솔에서 분산 추적 플랫폼 스트리밍 전략 배포
streaming
배포 전략은 보다 확장 가능하고 가용성이 높은 아키텍처가 필요하고 추적 데이터의 장기 스토리지가 중요한 프로덕션 환경을 위한 것입니다.
streaming
전략은 Collector와 Elasticsearch 스토리지 사이에 있는 스트리밍 기능을 제공합니다. 이렇게 하면 높은 로드 상황에서 스토리지의 부담을 줄이고 다른 추적 후 처리 기능을 통해 Kafka 스트리밍 플랫폼에서 직접 실시간 데이터를 활용할 수 있습니다.
스트리밍 전략에는 AMQ Streams에 대한 추가 Red Hat 서브스크립션이 필요합니다. AMQ Streams 서브스크립션이 없는 경우 영업 담당자에게 자세한 내용을 문의하십시오.
스트리밍 배포 전략은 현재 IBM Z®에서 지원되지 않습니다.
사전 요구 사항
- AMQ Streams Operator가 설치되었습니다. 버전 1.4.0 이상을 사용하는 경우 자체 프로비저닝을 사용할 수 있습니다. 그렇지 않으면 Kafka 인스턴스를 생성해야 합니다.
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 설치되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
-
cluster-admin
역할의 사용자로 OpenShift Container Platform 웹 콘솔에 로그인합니다. 새 프로젝트를 생성합니다(예:
tracing-system
).참고Service Mesh의 일부로 설치하는 경우 분산 추적 플랫폼 리소스는
ServiceMeshControlPlane
리소스와 동일한 네임스페이스에 설치해야 합니다(예:istio-system
).- 홈 → 프로젝트로 이동합니다.
- 프로젝트 만들기를 클릭합니다.
-
이름 필드에
tracing-system
을 입력합니다. - 생성을 클릭합니다.
- Operators → 설치된 Operator로 이동합니다.
-
필요한 경우 프로젝트 메뉴에서
tracing-system
을 선택합니다. Operator가 새 프로젝트에 복사될 때까지 몇 분 정도 기다려야 할 수 있습니다. - Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 클릭합니다. 개요 탭의 제공된 API에서 Operator는 단일 링크를 제공합니다.
- Jaeger 에서 인스턴스 생성을 클릭합니다.
Jaeger 생성 페이지에서 기본
all-in-one
YAML 텍스트를 스트리밍 YAML 구성으로 교체합니다. 예를 들면 다음과 같습니다.jaeger-streaming.yaml 파일 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-streaming spec: strategy: streaming collector: options: kafka: producer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092 1 storage: type: elasticsearch ingester: options: kafka: consumer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092
- 1
- 브로커가 정의되지 않은 경우 AMQStreams 1.4.0+ 자체 프로비저닝 Kafka입니다.
- 생성 을 클릭하여 분산 추적 플랫폼(Jaeger) 인스턴스를 생성합니다.
-
Jaegers 페이지에서 분산 추적 플랫폼(Jaeger) 인스턴스의 이름을 클릭합니다(예:
jaeger-streaming
). - Jaeger 세부 정보 페이지에서 리소스 탭을 클릭합니다. 계속하기 전에 모든 Pod 상태가 "실행 중"이 될 때까지 기다립니다.
4.2.4.1. CLI에서 분산 추적 플랫폼 스트리밍 전략 배포
명령줄에서 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하려면 다음 절차를 따르십시오.
사전 요구 사항
- AMQ Streams Operator가 설치되었습니다. 버전 1.4.0 이상을 사용하는 경우 자체 프로비저닝을 사용할 수 있습니다. 그렇지 않으면 Kafka 인스턴스를 생성해야 합니다.
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 설치되었습니다.
- 배포를 사용자 지정하는 방법에 대한 지침을 검토했습니다.
-
OpenShift Container Platform 버전과 일치하는 OpenShift CLI(
oc
)에 액세스할 수 있습니다. -
cluster-admin
역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
프로세스
다음 명령을 실행하여
cluster-admin
역할의 사용자로 OpenShift CLI(oc
)에 로그인합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:8443
다음 명령을 실행하여
tracing-system
이라는 새 프로젝트를 생성합니다.$ oc new-project tracing-system
-
이전 프로세스의 예제 텍스트가 포함된
jaeger-streaming.yaml
이라는 사용자 정의 리소스 파일을 생성합니다. 다음 명령을 실행하여 Jaeger를 배포합니다.
$ oc create -n tracing-system -f jaeger-streaming.yaml
다음 명령을 실행하여 설치 프로세스 중에 Pod의 진행 상황을 확인합니다.
$ oc get pods -n tracing-system -w
설치 프로세스가 완료되면 다음 예와 유사한 출력이 표시됩니다.
NAME READY STATUS RESTARTS AGE elasticsearch-cdm-jaegersystemjaegerstreaming-1-697b66d6fcztcnn 2/2 Running 0 5m40s elasticsearch-cdm-jaegersystemjaegerstreaming-2-5f4b95c78b9gckz 2/2 Running 0 5m37s elasticsearch-cdm-jaegersystemjaegerstreaming-3-7b6d964576nnz97 2/2 Running 0 5m5s jaeger-streaming-collector-6f6db7f99f-rtcfm 1/1 Running 0 80s jaeger-streaming-entity-operator-6b6d67cc99-4lm9q 3/3 Running 2 2m18s jaeger-streaming-ingester-7d479847f8-5h8kc 1/1 Running 0 80s jaeger-streaming-kafka-0 2/2 Running 0 3m1s jaeger-streaming-query-65bf5bb854-ncnc7 3/3 Running 0 80s jaeger-streaming-zookeeper-0 2/2 Running 0 3m39s
4.2.5. 배포 검증
4.2.5.1. Jaeger 콘솔에 액세스
Jaeger 콘솔에 액세스하려면 Red Hat OpenShift Service Mesh 또는 Red Hat OpenShift 분산 추적 플랫폼이 설치되어 있어야 하며 Red Hat OpenShift 분산 추적 플랫폼(Jaeger)이 설치, 구성 및 배포되어야 합니다.
설치 프로세스는 Jaeger 콘솔에 액세스하기 위한 경로를 생성합니다.
Jaeger 콘솔의 URL을 알고 있으면 직접 액세스할 수 있습니다. URL을 모르는 경우 다음 지침을 사용합니다.
웹 콘솔의 절차
-
OpenShift Container Platform 웹 콘솔에 cluster-admin 권한이 있는 사용자로 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우
dedicated-admin
역할의 계정이 있어야 합니다. - 네트워킹 → 경로로 이동합니다.
경로 페이지의 네임스페이스 메뉴에서 컨트롤 플레인 프로젝트(예:
tracing-system
)를 선택합니다.위치 열에는 각 경로에 연결된 주소가 표시됩니다.
-
필요한 경우 필터를 사용하여
jaeger
경로를 찾습니다. 콘솔을 시작하려면 경로 위치를 클릭합니다. - OpenShift를 사용하여 로그인을 클릭합니다.
CLI의 프로세스
다음 명령을 실행하여
cluster-admin
역할의 사용자로 OpenShift Container Platform CLI에 로그인합니다. Red Hat OpenShift Dedicated를 사용하는 경우dedicated-admin
역할의 계정이 있어야 합니다.$ oc login --username=<NAMEOFUSER> https://<HOSTNAME>:6443
명령줄을 사용하여 경로 세부 정보를 쿼리하려면 다음 명령을 입력합니다. 이 예에서
tracing-system
은 컨트롤 플레인 네임스페이스입니다.$ export JAEGER_URL=$(oc get route -n tracing-system jaeger -o jsonpath='{.spec.host}')
-
브라우저를 시작하고
https://<JAEGER_URL>
로 이동합니다. 여기서<JAEGER_URL>
은 이전 단계에서 발견한 경로입니다. - OpenShift Container Platform 콘솔에 액세스하는 데 사용하는 것과 동일한 사용자 이름 및 암호를 사용하여 로그인합니다.
서비스 메시에 서비스를 추가하고 추적을 생성한 경우 필터를 사용하고 추적 찾기 버튼을 사용하여 추적 데이터를 검색할 수 있습니다.
콘솔 설치를 검증하는 경우 표시할 추적 데이터가 없습니다.
4.2.6. 배포 사용자 정의
4.2.6.1. 배포 모범 사례
- Red Hat OpenShift 분산 추적 플랫폼 인스턴스 이름은 고유해야 합니다. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) 인스턴스를 여러 개 보유하고 있고 사이드카 삽입 에이전트를 사용하고자 하는 경우 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 인스턴스에 고유한 이름이 있어야 하며 injection 주석은 추적 데이터를 보고해야 하는 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 인스턴스 이름을 명시적으로 지정해야 합니다.
- 다중 테넌트 구현과 테넌트가 네임스페이스로 구분된 경우 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 인스턴스를 각 테넌트 네임스페이스에 배포합니다.
영구 스토리지 구성에 대한 자세한 내용은 영구 스토리지 및 선택한 스토리지 옵션에 대한 적절한 구성 주제 이해 를 참조하십시오.
4.2.6.2. 분산 추적 기본 구성 옵션
Jaeger CR(사용자 정의 리소스)은 분산 추적 플랫폼(Jaeger) 리소스를 생성할 때 사용할 아키텍처 및 설정을 정의합니다. 이러한 매개변수를 수정하여 비즈니스 요구에 맞게 분산 추적 플랫폼(Jaeger) 구현을 사용자 지정할 수 있습니다.
Jaeger CR의 일반 YAML 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: name spec: strategy: <deployment_strategy> allInOne: options: {} resources: {} agent: options: {} resources: {} collector: options: {} resources: {} sampling: options: {} storage: type: options: {} query: options: {} resources: {} ingester: options: {} resources: {} options: {}
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
| 오브젝트를 생성할 때 사용할 API 버전입니다. |
|
|
| 생성할 Kubernetes 오브젝트를 정의합니다. |
| |
|
|
OpenShift Container Platform은 | |
| 오브젝트의 이름입니다. | 분산 추적 플랫폼(Jaeger) 인스턴스의 이름입니다. |
|
| 생성할 오브젝트의 사양입니다. |
분산 추적 플랫폼(Jaeger) 인스턴스에 대한 모든 구성 매개변수를 포함합니다. 모든 Jaeger 구성 요소에 대한 공통 정의가 필요한 경우 | 해당 없음 |
| Jaeger 배포 전략 |
|
|
|
| ||
| 에이전트를 정의하는 구성 옵션입니다. | ||
| Jaeger 수집기를 정의하는 구성 옵션입니다. | ||
| 추적을 위한 샘플링 전략을 정의하는 구성 옵션입니다. | ||
|
스토리지를 정의하는 구성 옵션입니다. 모든 스토리지 관련 옵션은 | ||
| 쿼리 서비스를 정의하는 구성 옵션입니다. | ||
| Ingester 서비스를 정의하는 구성 옵션입니다. |
다음 예제 YAML은 기본 설정을 사용하여 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 배포를 생성하는 데 필요한 최소값입니다.
예: 최소 필수 dist-tracing-all-in-one.yaml
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-all-in-one-inmemory
4.2.6.3. 테인트 및 톨러레이션 사용
전용 노드에서 Jaeger 및 Elasticsearch Pod를 예약하려면 OpenShift 4의 nodeSelector 및 허용 오차를 사용하여 인프라 노드에 다른 Jaeger 구성 요소를 배포하는 방법을 참조하십시오.
4.2.6.4. Jaeger 수집기 구성 옵션
Jaeger 수집기는 추적기에서 캡처한 기간을 수신하여 production
전략을 사용할 때 영구 Elasticsearch 스토리지에 기록하거나 streaming
전략을 사용할 때 AMQ Streams에 쓰는 구성 요소입니다.
수집기는 상태 비저장이므로 Jaeger 수집기의 많은 인스턴스를 병렬로 실행할 수 있습니다. 수집기는 Elasticsearch 클러스터의 위치를 제외하고 거의 구성이 필요하지 않습니다.
매개변수 | 설명 | 값 |
---|---|---|
collector: replicas: | 생성할 수집기 복제본 수를 지정합니다. |
정수(예: |
매개변수 | 설명 | 값 |
---|---|---|
spec: collector: options: {} | Jaeger 수집기를 정의하는 구성 옵션입니다. | |
options: collector: num-workers: | 큐에서 가져온 작업자 수입니다. |
정수(예: |
options: collector: queue-size: | 수집기 큐의 크기입니다. |
정수(예: |
options: kafka: producer: topic: jaeger-spans |
| 프로듀서의 레이블입니다. |
options: kafka: producer: brokers: my-cluster-kafka-brokers.kafka:9092 | 메시지를 생성하기 위해 수집기에서 사용하는 Kafka 구성을 식별합니다. 브로커를 지정하지 않고 AMQ Streams 1.4.0 이상이 설치된 경우 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator는 Kafka를 자체 프로비저닝합니다. | |
options: log-level: | 수집기의 로깅 수준입니다. |
가능한 값: |
options: otlp: enabled: true grpc: host-port: 4317 max-connection-age: 0s max-connection-age-grace: 0s max-message-size: 4194304 tls: enabled: false cert: /path/to/cert.crt cipher-suites: "TLS_AES_256_GCM_SHA384,TLS_CHACHA20_POLY1305_SHA256" client-ca: /path/to/cert.ca reload-interval: 0s min-version: 1.2 max-version: 1.3 |
OTLP/gRPC를 수락하려면 | |
options: otlp: enabled: true http: cors: allowed-headers: [<header-name>[, <header-name>]*] allowed-origins: * host-port: 4318 max-connection-age: 0s max-connection-age-grace: 0s max-message-size: 4194304 read-timeout: 0s read-header-timeout: 2s idle-timeout: 0s tls: enabled: false cert: /path/to/cert.crt cipher-suites: "TLS_AES_256_GCM_SHA384,TLS_CHACHA20_POLY1305_SHA256" client-ca: /path/to/cert.ca reload-interval: 0s min-version: 1.2 max-version: 1.3 |
OTLP/HTTP를 수락하려면 |
4.2.6.5. 분산 추적 샘플링 구성 옵션
Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 원격 샘플러를 사용하도록 구성된 추적기에 제공할 샘플링 전략을 정의하는 데 사용할 수 있습니다.
모든 추적이 생성되지만 소수만 샘플링됩니다. 추적 샘플링은 추가 처리 및 스토리지의 추적을 나타냅니다.
이는 샘플링 결정에 따라 Envoy 프록시에서 추적을 시작한 경우와 관련이 없습니다. Jaeger 샘플링 결정은 클라이언트를 사용하는 애플리케이션에서 추적을 시작할 때만 관련이 있습니다.
서비스에서 추적 컨텍스트가 없는 요청을 수신하면 클라이언트는 새 추적을 시작하고 임의의 추적 ID를 할당하고 현재 설치된 샘플링 전략에 따라 샘플링 결정을 내립니다. 샘플링 결정은 다른 서비스가 샘플링 결정을 다시 하지 않도록 추적의 모든 후속 요청으로 전파됩니다.
분산 추적 플랫폼(Jaeger) 라이브러리는 다음 샘플을 지원합니다.
-
확률론 - 샘플러는 샘플링(
sampling.param
) 속성의 값과 동일한 샘플링의 확률로 임의 샘플링 결정을 내립니다. 예를 들어,sampling.param=0.1
샘플을 사용하여 10개의 추적 중 약 1개를 샘플링합니다. -
속도 제한 - 샘플러는 누수된 버킷 속도 제한기를 사용하여 추적을 특정한 일정 속도로 샘플링합니다. 예를 들어,
sampling.param=2.0
샘플 요청을 초당 2개 추적 속도로 사용합니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: sampling: options: {} default_strategy: service_strategy: | 추적을 위한 샘플링 전략을 정의하는 구성 옵션입니다. | 구성을 제공하지 않으면 수집기는 모든 서비스에 대해 0.001(0.1%)인 기본 확률 샘플링 정책을 반환합니다. | |
default_strategy: type: service_strategy: type: | 사용할 샘플링 전략입니다. 위의 설명을 참조하십시오. |
유효한 값은 |
|
default_strategy: param: service_strategy: param: | 선택한 샘플링 전략에 대한 매개변수입니다. | 10진수 및 정수 값(0, .1, 1, 10) | 1 |
이 예에서는 추적 인스턴스가 샘플링될 가능성이 50%인 비율로 확률적인 기본 샘플링 전략을 정의합니다.
확률 샘플링 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: with-sampling spec: sampling: options: default_strategy: type: probabilistic param: 0.5 service_strategies: - service: alpha type: probabilistic param: 0.8 operation_strategies: - operation: op1 type: probabilistic param: 0.2 - operation: op2 type: probabilistic param: 0.4 - service: beta type: ratelimiting param: 5
사용자가 제공하는 구성이 없는 경우 분산 추적 플랫폼(Jaeger)은 다음 설정을 사용합니다.
기본 샘플링
spec: sampling: options: default_strategy: type: probabilistic param: 1
4.2.6.6. 분산 추적 스토리지 구성 옵션
spec:storage
에서 Collector, Ingester 및 쿼리 서비스에 대한 스토리지를 구성합니다. 이러한 각 구성 요소의 여러 인스턴스는 성능 및 복원에 필요한 대로 프로비저닝할 수 있습니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: storage: type: | 배포에 사용할 스토리지 유형입니다. |
|
|
storage: secretname: |
시크릿 이름(예: | 해당 없음 | |
storage: options: {} | 스토리지를 정의하는 구성 옵션입니다. |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
storage: esIndexCleaner: enabled: | Elasticsearch 스토리지를 사용하는 경우 기본적으로 인덱스에서 오래된 추적을 정리하는 작업이 생성됩니다. 이 매개변수는 인덱스 정리 작업을 활성화하거나 비활성화합니다. |
|
|
storage: esIndexCleaner: numberOfDays: | 인덱스를 삭제하기 전에 대기하는 날의 수입니다. | 정수 값 |
|
storage: esIndexCleaner: schedule: | Elasticsearch 인덱스를 정리하는 빈도에 대한 일정을 정의합니다. | Cron 표현식 | "55 23 * * *" |
4.2.6.6.1. Elasticsearch 인스턴스 자동 프로비저닝
Jaeger 사용자 정의 리소스를 배포할 때 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator는 OpenShift Elasticsearch Operator를 사용하여 사용자 정의 리소스 파일의 storage
섹션에 제공된 구성을 기반으로 Elasticsearch 클러스터를 생성합니다. 다음 구성이 설정된 경우 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator는 Elasticsearch를 프로비저닝합니다.
-
spec.storage:type
이elasticsearch
로 설정됨 -
spec.storage.elasticsearch.doNotProvision
을false
로 설정 -
spec.storage.options.es.server-urls
는 정의되지 않았습니다. 즉 OpenShift Elasticsearch Operator에서 프로비저닝하지 않은 Elasticsearch 인스턴스에 대한 연결이 없습니다.
Elasticsearch를 프로비저닝할 때 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator는 Jaeger 사용자 정의 리소스에서 Elasticsearch 사용자 정의 리소스 name
을 spec.storage.elasticsearch.name
값으로 설정합니다. spec.storage.elasticsearch.name
의 값을 지정하지 않으면 Operator에서 elasticsearch
를 사용합니다.
제한 사항
- 네임스페이스당 자체 프로비저닝 Elasticsearch 인스턴스가 있는 하나의 분산 추적 플랫폼(Jaeger)만 있을 수 있습니다. Elasticsearch 클러스터는 단일 분산 추적 플랫폼(Jaeger) 인스턴스 전용입니다.
- 네임스페이스당 Elasticsearch가 하나만 있을 수 있습니다.
Elasticsearch를 OpenShift Logging의 일부로 이미 설치한 경우 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator에서 설치된 OpenShift Elasticsearch Operator를 사용하여 스토리지를 프로비저닝할 수 있습니다.
다음 구성 매개변수는 OpenShift Elasticsearch Operator를 사용하여 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator가 생성한 인스턴스인 자체 프로비저닝 Elasticsearch 인스턴스에 대한 것입니다. 구성 파일의 spec:storage:elasticsearch
에서 자체 프로비저닝 Elasticsearch에 대한 구성 옵션을 지정합니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
elasticsearch: properties: doNotProvision: | 을 사용하여 Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator에서 Elasticsearch 인스턴스를 프로비저닝해야 하는지 여부를 지정합니다. |
|
|
elasticsearch: properties: name: | Elasticsearch 인스턴스의 이름입니다. Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 이 매개변수에 지정된 Elasticsearch 인스턴스를 사용하여 Elasticsearch에 연결합니다. | string |
|
elasticsearch: nodeCount: | Elasticsearch 노드 수입니다. 고가용성의 경우 최소 3개의 노드를 사용합니다. “스플릿 브레인” 문제가 발생할 수 있으므로 2개의 노드를 사용하지 마십시오. | 정수 값입니다. 예를 들면 개념 증명 = 1, 최소 배포 =3입니다. | 3 |
elasticsearch: resources: requests: cpu: | 사용자 환경 구성에 따른 요청에 대한 중앙 처리 단위 수입니다. | 코어 또는 밀리코어(예: 200m, 0.5, 1)에 지정됩니다. 예를 들면 개념 증명 = 500m, 최소 배포 =1입니다. | 1 |
elasticsearch: resources: requests: memory: | 환경 구성에 따른 요청에 사용 가능한 메모리입니다. | 바이트로 지정됩니다(예: 200Ki, 50Mi, 5Gi). 예를 들면 개념 증명 = 1Gi, 최소 배포 = 16Gi*입니다. | 16Gi |
elasticsearch: resources: limits: cpu: | 사용자 환경 구성에 따른 중앙 처리 장치 수에 대한 제한입니다. | 코어 또는 밀리코어(예: 200m, 0.5, 1)에 지정됩니다. 예를 들면 개념 증명 = 500m, 최소 배포 =1입니다. | |
elasticsearch: resources: limits: memory: | 사용자 환경 구성에 따라 사용 가능한 메모리 제한입니다. | 바이트로 지정됩니다(예: 200Ki, 50Mi, 5Gi). 예를 들면 개념 증명 = 1Gi, 최소 배포 = 16Gi*입니다. | |
elasticsearch: redundancyPolicy: | 데이터 복제 정책은 Elasticsearch shard가 클러스터의 데이터 노드에 복제되는 방법을 정의합니다. 지정하지 않으면 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 노드 수에 따라 가장 적절한 복제를 자동으로 결정합니다. |
| |
elasticsearch: useCertManagement: | 분산 추적 플랫폼(Jaeger)이 OpenShift Elasticsearch Operator의 인증서 관리 기능을 사용해야 하는지 여부를 지정하는 데 사용됩니다. 이 기능은 OpenShift Container Platform 4.7의 {logging-title} 5.2에 추가되었으며 새 Jaeger 배포의 기본 설정입니다. |
|
|
각 Elasticsearch 노드는 더 낮은 메모리 설정으로 작동할 수 있지만 프로덕션 배포에는 권장되지 않습니다. 프로덕션 용도의 경우 기본적으로 각 Pod에 할당된 16Gi 미만이 있어야 하지만 Pod당 최대 64Gi를 할당하는 것이 좋습니다.
프로덕션 스토리지 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-prod spec: strategy: production storage: type: elasticsearch elasticsearch: nodeCount: 3 resources: requests: cpu: 1 memory: 16Gi limits: memory: 16Gi
영구 스토리지가 있는 스토리지 예
apiVersion: jaegertracing.io/v1
kind: Jaeger
metadata:
name: simple-prod
spec:
strategy: production
storage:
type: elasticsearch
elasticsearch:
nodeCount: 1
storage: 1
storageClassName: gp2
size: 5Gi
resources:
requests:
cpu: 200m
memory: 4Gi
limits:
memory: 4Gi
redundancyPolicy: ZeroRedundancy
- 1
- 영구 스토리지 구성. 이 경우 AWS
gp2
에5Gi
크기가 있습니다. 값을 지정하지 않으면 분산 추적 플랫폼(Jaeger)에서emptyDir
을 사용합니다. OpenShift Elasticsearch Operator는 분산 추적 플랫폼(Jaeger) 인스턴스에서 제거되지 않는PersistentVolumeClaim
및PersistentVolume
을 프로비저닝합니다. 동일한 이름과 네임스페이스로 분산 추적 플랫폼(Jaeger) 인스턴스를 생성하면 동일한 볼륨을 마운트할 수 있습니다.
4.2.6.6.2. 기존 Elasticsearch 인스턴스에 연결
분산 추적 플랫폼이 있는 스토리지에 기존 Elasticsearch 클러스터를 사용할 수 있습니다. 외부 Elasticsearch 인스턴스라고도 하는 기존 Elasticsearch 클러스터는 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator 또는 OpenShift Elasticsearch Operator에서 설치하지 않은 인스턴스입니다.
Jaeger 사용자 정의 리소스를 배포할 때 다음 구성이 설정된 경우 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator는 Elasticsearch를 프로비저닝하지 않습니다.
-
spec.storage.elasticsearch.doNotProvision
을true
로 설정 -
spec.storage.options.es.server-urls
에는 값이 있습니다. -
spec.storage.elasticsearch.name
에는 값이 있거나 Elasticsearch 인스턴스 이름이elasticsearch
인 경우입니다.
Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 spec.storage.elasticsearch.name
에 지정된 Elasticsearch 인스턴스를 사용하여 Elasticsearch에 연결합니다.
제한 사항
- 분산 추적 플랫폼(Jaeger)과 OpenShift Container Platform 로깅 Elasticsearch 인스턴스를 공유하거나 재사용할 수 없습니다. Elasticsearch 클러스터는 단일 분산 추적 플랫폼(Jaeger) 인스턴스 전용입니다.
다음 구성 매개변수는 외부 Elasticsearch 인스턴스 라고도 하는 기존 Elasticsearch 인스턴스에 대한 것입니다. 이 경우 spec:storage:options:es
사용자 지정 리소스 파일에서 Elasticsearch에 대한 구성 옵션을 지정합니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: server-urls: | Elasticsearch 인스턴스의 URL입니다. | Elasticsearch 서버의 정규화된 도메인 이름입니다. | |
es: max-doc-count: |
Elasticsearch 쿼리에서 반환하는 최대 문서 수입니다. 이는 집계에도 적용됩니다. | 10000 | |
es: max-num-spans: |
[더 이상 사용되지 않음 - 향후 릴리스에서 제거되며 대신 | 10000 | |
es: max-span-age: | Elasticsearch에서 기간에 대한 최대 조회 수입니다. | 72h0m0s | |
es: sniffer: | Elasticsearch의 스니퍼 구성입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다. |
|
|
es: sniffer-tls-enabled: | Elasticsearch 클러스터를 스니핑할 때 TLS를 활성화하는 옵션입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성화되어 있습니다. |
|
|
es: timeout: | 쿼리에 사용되는 시간 제한입니다. 0으로 설정하면 시간 제한이 없습니다. | 0s | |
es: username: |
Elasticsearch에 필요한 사용자 이름입니다. 기본 인증은 지정된 경우 CA도 로드합니다. | ||
es: password: |
Elasticsearch에 필요한 암호입니다. | ||
es: version: | 주요 Elasticsearch 버전입니다. 지정하지 않으면 Elasticsearch에서 값을 자동으로 탐지합니다. | 0 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: num-replicas: | Elasticsearch의 인덱스당 복제본 수입니다. | 1 | |
es: num-shards: | Elasticsearch의 인덱스당 shard 수입니다. | 5 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: create-index-templates: |
|
|
|
es: index-prefix: | 분산 추적 플랫폼(Jaeger) 인덱스의 선택적 접두사입니다. 예를 들어 이 값을 "production"으로 설정하면 "production-tracing-*"이라는 인덱스가 생성됩니다. |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: bulk: actions: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 큐에 추가할 수 있는 요청 수입니다. | 1000 | |
es: bulk: flush-interval: |
다른 임계값에 관계없이 대규모 요청이 커밋된 후 | 200ms | |
es: bulk: size: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 대규모 요청이 수행할 수 있는 바이트 수입니다. | 5000000 | |
es: bulk: workers: | Elasticsearch에 대규모 요청을 수신하고 커밋할 수 있는 작업자 수입니다. | 1 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es: tls: ca: | 원격 서버를 확인하는 데 사용되는 TLS 인증 기관(CA) 파일의 경로입니다. | 기본적으로 시스템 신뢰 저장소를 사용합니다. | |
es: tls: cert: | 이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 인증서 파일의 경로입니다. | ||
es: tls: enabled: | 원격 서버와 통신할 때 TLS(Transport Layer Security)를 활성화합니다. 기본적으로 비활성되어 있습니다. |
|
|
es: tls: key: | 이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 개인 키 파일의 경로입니다. | ||
es: tls: server-name: | 원격 서버의 인증서에서 예상되는 TLS 서버 이름을 재정의합니다. | ||
es: token-file: | 전달자 토큰이 포함된 파일의 경로입니다. 이 플래그는 지정된 경우 CA(인증 기관) 파일도 로드합니다. |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
es-archive: bulk: actions: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 큐에 추가할 수 있는 요청 수입니다. | 0 | |
es-archive: bulk: flush-interval: |
다른 임계값에 관계없이 대규모 요청이 커밋된 후 | 0s | |
es-archive: bulk: size: | 대규모 프로세서가 디스크에 업데이트를 커밋하기 전에 대규모 요청이 수행할 수 있는 바이트 수입니다. | 0 | |
es-archive: bulk: workers: | Elasticsearch에 대규모 요청을 수신하고 커밋할 수 있는 작업자 수입니다. | 0 | |
es-archive: create-index-templates: |
|
|
|
es-archive: enabled: | 추가 스토리지를 활성화합니다. |
|
|
es-archive: index-prefix: | 분산 추적 플랫폼(Jaeger) 인덱스의 선택적 접두사입니다. 예를 들어 이 값을 "production"으로 설정하면 "production-tracing-*"이라는 인덱스가 생성됩니다. | ||
es-archive: max-doc-count: | Elasticsearch 쿼리에서 반환하는 최대 문서 수입니다. 이는 집계에도 적용됩니다. | 0 | |
es-archive: max-num-spans: |
[더 이상 사용되지 않음 - 향후 릴리스에서 제거되며 대신 | 0 | |
es-archive: max-span-age: | Elasticsearch에서 기간에 대한 최대 조회 수입니다. | 0s | |
es-archive: num-replicas: | Elasticsearch의 인덱스당 복제본 수입니다. | 0 | |
es-archive: num-shards: | Elasticsearch의 인덱스당 shard 수입니다. | 0 | |
es-archive: password: |
Elasticsearch에 필요한 암호입니다. | ||
es-archive: server-urls: |
Elasticsearch 서버의 쉼표로 구분된 목록입니다. 정규화된 URL로 지정해야 합니다(예: http://localhost:9200 | ||
es-archive: sniffer: | Elasticsearch의 스니퍼 구성입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다. |
|
|
es-archive: sniffer-tls-enabled: | Elasticsearch 클러스터를 스니핑할 때 TLS를 활성화하는 옵션입니다. 클라이언트는 스니핑 프로세스를 사용하여 모든 노드를 자동으로 찾습니다. 기본적으로 비활성되어 있습니다. |
|
|
es-archive: timeout: | 쿼리에 사용되는 시간 제한입니다. 0으로 설정하면 시간 제한이 없습니다. | 0s | |
es-archive: tls: ca: | 원격 서버를 확인하는 데 사용되는 TLS 인증 기관(CA) 파일의 경로입니다. | 기본적으로 시스템 신뢰 저장소를 사용합니다. | |
es-archive: tls: cert: | 이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 인증서 파일의 경로입니다. | ||
es-archive: tls: enabled: | 원격 서버와 통신할 때 TLS(Transport Layer Security)를 활성화합니다. 기본적으로 비활성되어 있습니다. |
|
|
es-archive: tls: key: | 이 프로세스를 원격 서버에 식별하는 데 사용되는 TLS 개인 키 파일의 경로입니다. | ||
es-archive: tls: server-name: | 원격 서버의 인증서에서 예상되는 TLS 서버 이름을 재정의합니다. | ||
es-archive: token-file: | 전달자 토큰이 포함된 파일의 경로입니다. 이 플래그는 지정된 경우 CA(인증 기관) 파일도 로드합니다. | ||
es-archive: username: |
Elasticsearch에 필요한 사용자 이름입니다. 기본 인증은 지정된 경우 CA도 로드합니다. | ||
es-archive: version: | 주요 Elasticsearch 버전입니다. 지정하지 않으면 Elasticsearch에서 값을 자동으로 탐지합니다. | 0 |
볼륨 마운트가 있는 스토리지 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-prod spec: strategy: production storage: type: elasticsearch options: es: server-urls: https://quickstart-es-http.default.svc:9200 index-prefix: my-prefix tls: ca: /es/certificates/ca.crt secretName: tracing-secret volumeMounts: - name: certificates mountPath: /es/certificates/ readOnly: true volumes: - name: certificates secret: secretName: quickstart-es-http-certs-public
다음 예는 시크릿에 저장된 볼륨 및 사용자/암호에서 마운트된 TLS CA 인증서가 포함된 외부 Elasticsearch 클러스터를 사용하는 Jaeger CR을 보여줍니다.
외부 Elasticsearch 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-prod spec: strategy: production storage: type: elasticsearch options: es: server-urls: https://quickstart-es-http.default.svc:9200 1 index-prefix: my-prefix tls: 2 ca: /es/certificates/ca.crt secretName: tracing-secret 3 volumeMounts: 4 - name: certificates mountPath: /es/certificates/ readOnly: true volumes: - name: certificates secret: secretName: quickstart-es-http-certs-public
- 1
- 기본 네임스페이스에서 실행되는 Elasticsearch 서비스에 대한 URL입니다.
- 2
- TLS 구성입니다. 이 경우 CA 인증서만 해당하지만 상호 TLS를 사용하는 경우 es.tls.key 및 es.tls.cert를 포함할 수 있습니다.
- 3
- 환경 변수 ES_PASSWORD 및 ES_USERNAME을 정의하는 시크릿입니다. kubectl create secret generic tracing-secret --from-literal=ES_PASSWORD=changeme --from-literal=ES_USERNAME=elastic에 의해 생성
- 4
- 모든 스토리지 구성 요소에 마운트되는 볼륨 마운트 및 볼륨입니다.
4.2.6.7. Elasticsearch로 인증서 관리
OpenShift Elasticsearch Operator를 사용하여 인증서를 생성하고 관리할 수 있습니다. OpenShift Elasticsearch Operator를 사용하여 인증서를 관리하면 여러 Jaeger 수집기가 있는 단일 Elasticsearch 클러스터도 사용할 수 있습니다.
Elasticsearch로 인증서를 관리하는 것은 기술 프리뷰 기능 전용입니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.
Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.
버전 2.4부터 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator는 Elasticsearch 사용자 정의 리소스에서 다음 주석을 사용하여 인증서 생성을 OpenShift Elasticsearch Operator에 위임합니다.
-
logging.openshift.io/elasticsearch-cert-management: "true"
-
logging.openshift.io/elasticsearch-cert.jaeger-<shared-es-node-name>: "user.jaeger"
-
logging.openshift.io/elasticsearch-cert.curator-<shared-es-node-name>: "system.logging.curator"
여기서 <shared-es-node-name>
은 Elasticsearch 노드의 이름입니다. 예를 들어 custom-es
라는 Elasticsearch 노드를 생성하는 경우 사용자 정의 리소스는 다음 예와 같을 수 있습니다.
주석을 표시하는 Elasticsearch CR의 예
apiVersion: logging.openshift.io/v1 kind: Elasticsearch metadata: annotations: logging.openshift.io/elasticsearch-cert-management: "true" logging.openshift.io/elasticsearch-cert.jaeger-custom-es: "user.jaeger" logging.openshift.io/elasticsearch-cert.curator-custom-es: "system.logging.curator" name: custom-es spec: managementState: Managed nodeSpec: resources: limits: memory: 16Gi requests: cpu: 1 memory: 16Gi nodes: - nodeCount: 3 proxyResources: {} resources: {} roles: - master - client - data storage: {} redundancyPolicy: ZeroRedundancy
사전 요구 사항
- Red Hat OpenShift Service Mesh Operator가 설치되어 있습니다.
- {logging-title}은 클러스터에 기본 구성으로 설치됩니다.
-
Elasticsearch 노드와 Jaeger 인스턴스는 동일한 네임스페이스에 배포해야 합니다. 예를 들면
tracing-system
입니다.
Jaeger 사용자 정의 리소스에서 spec.storage.elasticsearch.useCertManagement
를 true
로 설정하여 인증서 관리를 활성화합니다.
useCertManagement
표시 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: jaeger-prod spec: strategy: production storage: type: elasticsearch elasticsearch: name: custom-es doNotProvision: true useCertManagement: true
Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator는 Elasticsearch를 프로비저닝할 때 Elasticsearch 사용자 정의 리소스 name
을 Jaeger 사용자 정의 리소스의 spec.storage.elasticsearch.name
값으로 설정합니다.
인증서는 OpenShift Elasticsearch Operator에 의해 프로비저닝되며 Red Hat OpenShift distributed tracing platform(Jaeger) Operator가 인증서를 삽입합니다.
4.2.6.8. 쿼리 구성 옵션
쿼리는 스토리지에서 추적을 검색하고 사용자 인터페이스에서 표시하도록 호스팅하는 서비스입니다.
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: query: replicas: | 생성할 쿼리 복제본 수를 지정합니다. |
예: 정수 |
매개변수 | 설명 | 값 | 기본값 |
---|---|---|---|
spec: query: options: {} | 쿼리 서비스를 정의하는 구성 옵션입니다. | ||
options: log-level: | 쿼리의 로깅 수준입니다. |
가능한 값: | |
options: query: base-path: |
모든 jaeger-query HTTP 경로의 기본 경로는 root 값이 아닌 값으로 설정할 수 있습니다(예: | /<path> |
샘플 쿼리 구성
apiVersion: jaegertracing.io/v1 kind: "Jaeger" metadata: name: "my-jaeger" spec: strategy: allInOne allInOne: options: log-level: debug query: base-path: /jaeger
4.2.6.9. Ingester 구성 옵션
Ingester는 Kafka 항목에서 읽고 Elasticsearch 스토리지 백엔드에 쓰는 서비스입니다. allInOne
또는 production
배포 전략을 사용하는 경우 Ingester 서비스를 구성할 필요가 없습니다.
매개변수 | 설명 | 값 |
---|---|---|
spec: ingester: options: {} | Ingester 서비스를 정의하는 구성 옵션입니다. | |
options: deadlockInterval: |
Ingester가 종료되기 전에 메시지를 기다려야 하는 간격(초 또는 분)을 지정합니다. 교착 상태 간격은 시스템 초기화 중에 메시지가 없을 때 Ingester를 종료하지 않도록 기본적으로 ( |
분 및 초(예: |
options: kafka: consumer: topic: |
|
소비자의 레이블입니다. 예를 들면 |
options: kafka: consumer: brokers: | 메시지를 사용하려면 Ingester에서 사용하는 Kafka 구성을 식별합니다. |
브로커의 레이블은 예를 들면 |
options: log-level: | Ingester의 로깅 수준입니다. |
가능한 값: |
스트리밍 수집기 및 Ingester 예
apiVersion: jaegertracing.io/v1 kind: Jaeger metadata: name: simple-streaming spec: strategy: streaming collector: options: kafka: producer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092 ingester: options: kafka: consumer: topic: jaeger-spans brokers: my-cluster-kafka-brokers.kafka:9092 ingester: deadlockInterval: 5 storage: type: elasticsearch options: es: server-urls: http://elasticsearch:9200
4.2.7. 사이드카 삽입
Red Hat OpenShift 분산 추적 플랫폼(Jaeger)은 애플리케이션 Pod 내의 프록시 사이드카를 사용하여 에이전트를 제공합니다. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator는 에이전트 사이드카를 배포 워크로드에 삽입할 수 있습니다. 자동 사이드카 삽입을 활성화하거나 수동으로 관리할 수 있습니다.
4.2.7.1. 자동으로 사이드카 삽입
Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 Jaeger 에이전트 사이드카를 배포 워크로드에 삽입할 수 있습니다. 사이드카 자동 삽입을 활성화하려면 문자열 true
로 설정된 sidecar.jaegertracing.io/inject
주석을 $ oc get jaegers
를 실행하여 반환되는 분산 추적 플랫폼(Jaeger) 인스턴스 이름에 추가합니다. true
를 지정하는 경우 배포와 동일한 네임스페이스에 대한 단일 분산 추적 플랫폼(Jaeger) 인스턴스만 있어야 합니다. 그러지 않으면 Operator에서 사용할 분산 추적 플랫폼(Jaeger) 인스턴스를 확인할 수 없습니다. 배포의 특정 분산 추적 플랫폼(Jaeger) 인스턴스 이름이 해당 네임스페이스에 적용된 true
보다 우선 순위가 높습니다.
다음 스니펫에서는 에이전트가 동일한 네임스페이스에서 사용할 수 있는 단일 분산 추적 플랫폼(Jaeger) 인스턴스를 가리키는 사이드카를 삽입하는 간단한 애플리케이션을 보여줍니다.
자동 사이드카 삽입 예
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp
annotations:
"sidecar.jaegertracing.io/inject": "true" 1
spec:
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- name: myapp
image: acme/myapp:myversion
- 1
- 문자열
true
또는 Jaeger 인스턴스 이름으로 설정합니다.
사이드카가 삽입되면 에이전트가 localhost
의 기본 위치에 액세스할 수 있습니다.
4.2.7.2. 수동으로 사이드카 삽입
Red Hat OpenShift 분산 추적 플랫폼(Jaeger) Operator는 Jaeger 에이전트 사이드카를 배포 워크로드에 자동으로 삽입할 수 있습니다. StatefulSets' 및 'DaemonSets 와
같은 Deployments
이외의 컨트롤러 유형의 경우 사양에 Jaeger 에이전트 사이드카를 수동으로 정의할 수 있습니다.
다음 스니펫에서는 Jaeger 에이전트 사이드카의 컨테이너 섹션에 포함할 수 있는 수동 정의를 보여줍니다.
StatefulSet
의 사이드카 정의 예
apiVersion: apps/v1 kind: StatefulSet metadata: name: example-statefulset namespace: example-ns labels: app: example-app spec: spec: containers: - name: example-app image: acme/myapp:myversion ports: - containerPort: 8080 protocol: TCP - name: jaeger-agent image: registry.redhat.io/distributed-tracing/jaeger-agent-rhel7:<version> # The agent version must match the Operator version imagePullPolicy: IfNotPresent ports: - containerPort: 5775 name: zk-compact-trft protocol: UDP - containerPort: 5778 name: config-rest protocol: TCP - containerPort: 6831 name: jg-compact-trft protocol: UDP - containerPort: 6832 name: jg-binary-trft protocol: UDP - containerPort: 14271 name: admin-http protocol: TCP args: - --reporter.grpc.host-port=dns:///jaeger-collector-headless.example-ns:14250 - --reporter.type=grpc
그런 다음 localhost에서 기본 위치에서 에이전트에 액세스할 수 있습니다.
4.3. 업그레이드
Red Hat OpenShift distributed tracing platform(Jaeger)은 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
OLM(Operator Lifecycle Manager)은 클러스터에서 Operator의 설치, 업그레이드, RBAC(역할 기반 액세스 제어)를 제어합니다. OLM은 OpenShift Container Platform에서 기본적으로 실행됩니다. 사용 가능한 Operator 및 설치된 Operator의 업그레이드에 대한 OLM 쿼리입니다.
업데이트 중에 Red Hat OpenShift 분산 추적 플랫폼 Operator는 관리형 분산 추적 플랫폼 인스턴스를 Operator와 연결된 버전으로 업그레이드합니다. Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator의 새 버전이 설치될 때마다 Operator에서 관리하는 모든 분산 추적 플랫폼(Jaeger) 애플리케이션 인스턴스가 Operator의 버전으로 업그레이드됩니다. 예를 들어 Operator를 1.10에서 1.11로 업그레이드한 후 Operator는 분산 추적 플랫폼(Jaeger) 인스턴스를 실행하고 1.11로 업그레이드합니다.
OpenShift Logging 업데이트에 설명된 대로 OpenShift Elasticsearch Operator를 아직 업데이트하지 않은 경우 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator를 업데이트하기 전에 해당 업데이트를 완료합니다.
4.3.1. 추가 리소스
4.4. 제거 중
Red Hat OpenShift distributed tracing platform(Jaeger)은 더 이상 사용되지 않는 기능입니다. 더 이상 사용되지 않는 기능은 여전히 OpenShift Container Platform에 포함되어 있으며 계속 지원됩니다. 그러나 이 기능은 향후 릴리스에서 제거될 예정이므로 새로운 배포에는 사용하지 않는 것이 좋습니다.
OpenShift Container Platform에서 더 이상 사용되지 않거나 삭제된 주요 기능의 최신 목록은 OpenShift Container Platform 릴리스 노트에서 더 이상 사용되지 않고 삭제된 기능 섹션을 참조하십시오.
OpenShift Container Platform 클러스터에서 Red Hat OpenShift 분산 추적 플랫폼을 제거하는 단계는 다음과 같습니다.
- 모든 Red Hat OpenShift 분산 추적 플랫폼 Pod를 종료합니다.
- Red Hat OpenShift 분산 추적 플랫폼 인스턴스를 제거합니다.
- Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 제거합니다.
- OpenTelemetry Operator의 Red Hat 빌드를 제거합니다.
4.4.1. 웹 콘솔을 사용하여 분산 추적 플랫폼(Jaeger) 인스턴스 제거
웹 콘솔의 관리자 보기에서 분산 추적 플랫폼(Jaeger) 인스턴스를 제거할 수 있습니다.
메모리 내 스토리지를 사용하는 인스턴스를 삭제하면 모든 데이터가 손실되지 않습니다. Red Hat OpenShift 분산 추적 플랫폼(Jaeger) 인스턴스가 제거되면 Elasticsearch와 같은 영구 스토리지에 저장된 데이터는 삭제되지 않습니다.
사전 요구 사항
-
cluster-admin
역할의 클러스터 관리자로 웹 콘솔에 로그인되어 있습니다.
프로세스
- OpenShift Container Platform 웹 콘솔에 로그인합니다.
- Operators → 설치된 Operator로 이동합니다.
-
프로젝트 메뉴에서 Operator가 설치된 프로젝트의 이름을 선택합니다(예:
openshift-operators
). - Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator를 클릭합니다.
- Jaeger 탭을 클릭합니다.
- 인스턴스 옆에 있는 옵션 메뉴 를 클릭하고 Jaeger 삭제 를 선택합니다.
- 확인 메시지에서 삭제를 클릭합니다.
4.4.2. CLI를 사용하여 분산 추적 플랫폼(Jaeger) 인스턴스 제거
명령줄에서 분산 추적 플랫폼(Jaeger) 인스턴스를 제거할 수 있습니다.
사전 요구 사항
cluster-admin
역할의 클러스터 관리자가 활성 OpenShift CLI(oc
) 세션입니다.작은 정보-
OpenShift CLI(
oc
) 버전이 최신 버전인지 확인하고 OpenShift Container Platform 버전과 일치하는지 확인합니다. oc login
을 실행합니다.$ oc login --username=<your_username>
-
OpenShift CLI(
프로세스
다음 명령을 실행하여 OpenShift CLI(
oc
)로 로그인합니다.$ oc login --username=<NAMEOFUSER>
분산 추적 플랫폼(Jaeger) 인스턴스를 표시하려면 다음 명령을 실행합니다.
$ oc get deployments -n <jaeger-project>
예를 들면 다음과 같습니다.
$ oc get deployments -n openshift-operators
Operator 이름에는 접미사
-operator
가 있습니다. 다음 예제에서는 Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator 두 개와 4개의 분산 추적 플랫폼(Jaeger) 인스턴스를 보여줍니다.$ oc get deployments -n openshift-operators
다음과 유사한 출력이 표시됩니다.
NAME READY UP-TO-DATE AVAILABLE AGE elasticsearch-operator 1/1 1 1 93m jaeger-operator 1/1 1 1 49m jaeger-test 1/1 1 1 7m23s jaeger-test2 1/1 1 1 6m48s tracing1 1/1 1 1 7m8s tracing2 1/1 1 1 35m
분산 추적 플랫폼(Jaeger) 인스턴스를 제거하려면 다음 명령을 실행합니다.
$ oc delete jaeger <deployment-name> -n <jaeger-project>
예를 들면 다음과 같습니다.
$ oc delete jaeger tracing2 -n openshift-operators
삭제를 확인하려면
oc get deployments
명령을 다시 실행합니다.$ oc get deployments -n <jaeger-project>
예를 들면 다음과 같습니다.
$ oc get deployments -n openshift-operators
다음 예와 유사한 생성된 출력이 표시됩니다.
NAME READY UP-TO-DATE AVAILABLE AGE elasticsearch-operator 1/1 1 1 94m jaeger-operator 1/1 1 1 50m jaeger-test 1/1 1 1 8m14s jaeger-test2 1/1 1 1 7m39s tracing1 1/1 1 1 7m59s
4.4.3. Red Hat OpenShift 분산 추적 플랫폼 Operator 제거
프로세스
- 클러스터에서 Operator 삭제 의 지침에 따라 Red Hat OpenShift distributed tracing Platform (Jaeger) Operator를 제거합니다.
- 선택 사항: Red Hat OpenShift 분산 추적 플랫폼 (Jaeger) Operator가 제거된 후 OpenShift Elasticsearch Operator를 제거합니다.
Legal Notice
Copyright © 2024 Red Hat, Inc.
OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).
Modified versions must remove all Red Hat trademarks.
Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.
Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.