6장. 타사 시스템에 로그 전달
기본적으로 클러스터 로깅은 컨테이너 및 인프라 로그를 ClusterLogging
사용자 정의 리소스에 정의된 기본 내부 Elasticsearch 로그 저장소로 보냅니다. 그러나 보안 스토리지를 제공하지 않기 때문에 감사 로그를 내부 저장소로 보내지 않습니다. 이 기본 구성이 요구 사항을 충족하는 경우 Log Forwarding API를 구성할 필요가 없습니다.
다른 로그 집계기에 로그를 보내려면 OpenShift Container Platform Log Forwarding API를 사용합니다. 이 API를 사용하면 컨테이너, 인프라 및 감사 로그를 클러스터 내부 또는 외부의 특정 엔드포인트에 보낼 수 있습니다. 다른 유형의 로그를 다양한 시스템에 보낼 수 있으므로 각 유형에 서로 다른 사용자가 액세스할 수 있습니다. 또한 조직의 필요에 따라 로그를 안전하게 보낼 수 있도록 TLS 지원을 활성화할 수도 있습니다.
내부 로그 저장소로 감사 로그를 보내려면 로그 저장소에 감사 로그 전달의 설명에 따라 Log Forwarding API를 사용하십시오.
로그를 외부로 전달할 때 Cluster Logging Operator는 Fluentd 구성 맵을 생성하거나 수정하여 원하는 프로토콜을 통해 로그를 보냅니다. 외부 로그 집계기에서 프로토콜을 구성해야 합니다.
또는 구성 맵을 생성하고 Fluentd forward 프로토콜 또는 syslog 프로토콜을 사용하여 외부 시스템으로 로그를 전송할 수 있습니다. 그러나 이러한 로그 전달 방법은 OpenShift Container Platform에서 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다.
동일한 클러스터에서 구성 맵 방법과 Log Forwarding API를 사용할 수 없습니다.
6.1. 타사 시스템으로 로그 전달 정보
클러스터 로그를 외부의 타사 시스템으로 전달하려면 OpenShift Container Platform 클러스터 내부 및 외부의 특정 끝점으로 로그를 전송하기 위해 ClusterLogForwarder
사용자 정의 리소스(CR)에 지정된 출력과 파이프라인의 조합을 사용해야 합니다. 입력을 사용하여 특정 프로젝트와 관련된 애플리케이션 로그를 끝점으로 전달할 수도 있습니다.
출력은 사용자가 정의한 로그 데이터의 대상 또는 로그를 보낼 위치입니다. 출력은 다음 유형 중 하나일 수 있습니다.
-
elasticsearch
. 외부 Elasticsearch 6(모든 릴리스) 인스턴스입니다.elasticsearch
출력은 TLS 연결을 사용할 수 있습니다. -
fluentdForward
. Fluentd를 지원하는 외부 로그 집계 솔루션입니다. 이 옵션은 Fluentd 전달 프로토콜을 사용합니다.fluentForward
출력은 TCP 또는 TLS 연결을 사용할 수 있으며 시크릿에 shared_key 필드를 제공하여 공유 키 인증을 지원합니다. 공유 키 인증은 TLS를 포함하거나 포함하지 않고 사용할 수 있습니다. -
syslog
. syslog RFC3164 또는 RFC5424 프로토콜을 지원하는 외부 로그 집계 솔루션입니다.syslog
출력은 UDP, TCP 또는 TLS 연결을 사용할 수 있습니다. -
kafka
. Kafka 브로커.kafka
출력은 TCP 또는 TLS 연결을 사용할 수 있습니다. -
default
. 내부 OpenShift Container Platform Elasticsearch 인스턴스입니다. 기본 출력을 구성할 필요는 없습니다.default
출력을 구성하는 경우default
출력이 Cluster Logging Operator용으로 예약되므로 오류 메시지가 나타납니다.
출력 URL 체계에 TLS(HTTPS, TLS 또는 UDPS)가 필요한 경우 TLS 서버측 인증이 활성화됩니다. 또한 클라이언트 인증을 활성화하려면 출력에
openshift-logging
프로젝트의 시크릿 이름이 지정되어야 합니다. 시크릿에는 표시되는 각 인증서를 가리키는 tls.crt, tls.key 및 ca-bundle.crt 키가 있어야 합니다.-
파이프라인은 한 로그 유형에서 하나 이상의 출력 또는 전송할 로그로의 간단한 라우팅을 정의합니다. 로그 유형은 다음 중 하나입니다.
-
application
. 인프라 컨테이너 애플리케이션을 제외하고 클러스터에서 실행 중인 사용자 애플리케이션에 의해 생성된 컨테이너 로그입니다. -
infrastructure
.openshift*
,kube*
또는default
프로젝트에서 실행되는 Pod의 컨테이너 로그 및 노드 파일 시스템에서 가져온 저널 로그입니다. -
audit
. auditd에서 생성된 로그, 노드 감사 시스템, Kubernetes API 서버 및 OpenShift API 서버의 감사 로그입니다.
파이프라인에서
key:value
쌍을 사용하여 아웃바운드 로그 메시지에 레이블을 추가할 수 있습니다. 예를 들어 다른 데이터 센터로 전달되는 메시지에 레이블을 추가하거나 유형별로 로그에 레이블을 지정할 수 있습니다. 오브젝트에 추가된 레이블도 로그 메시지와 함께 전달됩니다.-
- 입력은 특정 프로젝트와 관련된 애플리케이션 로그를 파이프라인으로 전달합니다.
파이프 라인에서 outputRef
매개변수를 사용하여 로그를 전달하는 위치와 inputRef
매개변수를 사용하여 전달하는 로그 유형을 정의합니다.
다음을 확인합니다.
-
ClusterLogForwarder
오브젝트가 있는 경우default
출력이 있는 파이프라인이 없으면 로그가 기본 Elasticsearch 인스턴스로 전달되지 않습니다. -
기본적으로 클러스터 로깅은 컨테이너 및 인프라 로그를
ClusterLogging
사용자 정의 리소스에 정의된 기본 내부 Elasticsearch 로그 저장소로 보냅니다. 그러나 보안 스토리지를 제공하지 않기 때문에 감사 로그를 내부 저장소로 보내지 않습니다. 이 기본 구성이 요구 사항을 충족하는 경우 Log Forwarding API를 구성하지 마십시오. -
로그 유형에 대한 파이프라인을 정의하지 않으면 정의되지 않은 유형의 로그가 삭제됩니다. 예를 들어
application
및audit
유형에 대한 파이프라인을 지정하고infrastructure
유형에 대한 파이프라인을 지정하지 않으면infrastructure
로그가 삭제됩니다. -
ClusterLogForwarder
사용자 정의 리소스(CR)에서 여러 유형의 출력을 사용하여 다른 프로토콜을 지원하는 서버에 로그를 보낼 수 있습니다. - 내부 OpenShift Container Platform Elasticsearch 인스턴스는 감사 로그를 위한 보안 스토리지를 제공하지 않습니다. 감사 로그를 전달하는 시스템이 조직 및 정부 규정을 준수하고 올바르게 보호되도록 하는 것이 좋습니다. OpenShift Container Platform 클러스터 로깅은 이러한 규정을 준수하지 않습니다.
- 키 및 시크릿, 서비스 계정, 포트 열기 또는 전역 프록시 구성과 같이 외부 대상에 필요할 수 있는 추가 구성을 생성하고 유지보수할 책임이 있습니다.
다음 예제는 감사 로그를 안전한 외부 Elasticsearch 인스턴스로, 인프라 로그를 안전하지 않은 외부 Elasticsearch 인스턴스로, 애플리케이션 로그를 Kafka 브로커로, 애플리케이션 로그를 my-apps-logs
프로젝트에서 내부 Elasticsearch 인스턴스로 전달합니다.
샘플 로그 전달 출력 및 파이프라인
apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: elasticsearch-secure 3 type: "elasticsearch" url: https://elasticsearch.secure.com:9200 secret: name: elasticsearch - name: elasticsearch-insecure 4 type: "elasticsearch" url: http://elasticsearch.insecure.com:9200 - name: kafka-app 5 type: "kafka" url: tls://kafka.secure.com:9093/app-topic inputs: 6 - name: my-app-logs application: namespaces: - my-project pipelines: - name: audit-logs 7 inputRefs: - audit outputRefs: - elasticsearch-secure - default labels: secure: "true" 8 datacenter: "east" - name: infrastructure-logs 9 inputRefs: - infrastructure outputRefs: - elasticsearch-insecure labels: datacenter: "west" - name: my-app 10 inputRefs: - my-app-logs outputRefs: - default - inputRefs: 11 - application outputRefs: - kafka-app labels: datacenter: "south"
- 1
ClusterLogForwarder
CR의 이름은instance
여야 합니다.- 2
ClusterLogForwarder
CR의 네임스페이스는openshift-logging
이어야 합니다.- 3
- 보안 시크릿과 보안 URL을 사용하여 보안 Elasticsearch 출력을 구성합니다.
- 출력을 설명하는 이름입니다.
-
출력 유형:
elasticsearch
. - 접두사를 포함하여 유효한 절대 URL인 Elasticsearch 인스턴스의 보안 URL 및 포트입니다.
-
TLS 통신을 위해 끝점에서 요구하는 시크릿입니다.
openshift-logging
프로젝트에 이 시크릿이 있어야 합니다.
- 4
- 안전하지 않은 Elasticsearch 출력에 대한 구성:
- 출력을 설명하는 이름입니다.
-
출력 유형:
elasticsearch
. - 접두사를 포함하여 유효한 절대 URL인 Elasticsearch 인스턴스의 안전하지 않은 URL 및 포트입니다.
- 5
- 보안 URL을 통한 클라이언트 인증 TLS 통신을 사용하는 Kafka 출력 구성
- 출력을 설명하는 이름입니다.
-
출력 유형:
kafka
. - 접두사를 포함하여 Kafka 브로커의 URL 및 포트를 유효한 절대 URL로 지정합니다.
- 6
my-project
네임스페이스에서 애플리케이션 로그를 필터링하기 위한 입력 구성입니다.- 7
- 감사 로그를 안전한 외부 Elasticsearch 인스턴스로 전송하기 위한 파이프 라인 구성:
- 선택 사항입니다. 파이프라인을 설명하는 이름입니다.
-
inputRefs
는 로그 유형이며 이 예에서는audit
입니다. -
outputRefs
는 사용할 출력의 이름입니다.이 예에서elasticsearch-secure
는 보안 Elasticsearch 인스턴스로 전달하고default
은 내부 Elasticsearch 인스턴스로 전달합니다. - 선택 사항: 로그에 추가할 레이블입니다.
- 8
- 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다. "true"와 같은 인용 값은 부울 값이 아닌 문자열 값으로 인식됩니다.
- 9
- 인프라 로그를 안전하지 않은 외부 Elasticsearch 인스턴스로 전송하는 파이프라인 구성:
- 10
my-project
프로젝트에서 내부 Elasticsearch 인스턴스로 로그를 전송하기 위한 파이프라인 구성입니다.- 선택 사항입니다. 파이프라인을 설명하는 이름입니다.
-
inputRefs
는 특정 입력인my-app-logs
입니다. -
outputRefs
는default
입니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
- 11
- 파이프라인 이름 없이 Kafka 브로커에 로그를 전송하는 파이프라인 구성:
-
inputRefs
는 이 예제application
에서 로그 유형입니다. -
outputRefs
는 사용할 출력의 이름입니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
-
외부 로그 집계기를 사용할 수 없는 경우 Fluentd 로그 처리
외부 로깅 집계기를 사용할 수 없으며 로그를 수신할 수 없는 경우 Fluentd는 계속 로그를 수집하여 버퍼에 저장합니다. 로그 집계기를 사용할 수 있게 되면 버퍼링된 로그를 포함하여 로그 전달이 재개됩니다. 버퍼가 완전히 채워지면 Fluentd는 로그 수집을 중지합니다. OpenShift Container Platform은 로그를 회전시켜 삭제합니다. Fluentd 데몬 세트 또는 pod에 버퍼 크기를 조정하거나 PVC(영구 볼륨 클레임)를 추가할 수 없습니다.
6.1.1. 외부 Elasticsearch 인스턴스로 로그 전달
선택적으로 내부 OpenShift Container Platform Elasticsearch 인스턴스에 추가하거나 대신 외부 Elasticsearch 인스턴스에 로그를 전달할 수 있습니다. OpenShift Container Platform에서 로그 데이터를 수신하도록 외부 로그 집계기를 구성해야 합니다.
외부 Elasticsearch 인스턴스에 대한 로그 전달을 구성하려면 해당 인스턴스에 대한 출력과 출력을 사용하는 파이프라인이 있는 ClusterLogForwarder
사용자 정의 리소스(CR)를 생성합니다. 외부 Elasticsearch 출력은 HTTP(비보안) 또는 HTTPS(보안 HTTP) 연결을 사용할 수 있습니다.
외부 및 내부 Elasticsearch 인스턴스 모두에 로그를 전달하려면 외부 인스턴스에 대한 출력 및 파이프라인과 default
출력을 사용하여 내부 인스턴스로 로그를 전달하는 파이프라인을 생성합니다. default
출력을 생성할 필요가 없습니다. default
출력을 구성하는 경우 default
출력이 Cluster Logging Operator용으로 예약되므로 오류 메시지가 나타납니다.
내부 OpenShift Container Platform Elasticsearch 인스턴스에만 로그를 전달하려는 경우 ClusterLogForwarder
CR을 생성할 필요가 없습니다.
사전 요구 사항
- 지정된 프로토콜 또는 형식을 사용하여 로깅 데이터를 수신하도록 구성된 로깅 서버가 있어야 합니다.
절차
다음과 유사한
ClusterLogForwarder
CR YAML 파일을 생성합니다.apiVersion: "logging.openshift.io/v1" kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: elasticsearch-insecure 3 type: "elasticsearch" 4 url: http://elasticsearch.insecure.com:9200 5 - name: elasticsearch-secure type: "elasticsearch" url: https://elasticsearch.secure.com:9200 secret: name: es-secret 6 pipelines: - name: application-logs 7 inputRefs: 8 - application - audit outputRefs: - elasticsearch-secure 9 - default 10 labels: myLabel: "myValue" 11 - name: infrastructure-audit-logs 12 inputRefs: - infrastructure outputRefs: - elasticsearch-insecure labels: logs: "audit-infra"
- 1
ClusterLogForwarder
CR의 이름은instance
여야 합니다.- 2
ClusterLogForwarder
CR의 네임스페이스는openshift-logging
이어야 합니다.- 3
- 출력 이름을 지정합니다.
- 4
elasticsearch
유형을 지정합니다.- 5
- 외부 Elasticsearch 인스턴스의 URL과 포트를 유효한 절대 URL로 지정합니다.
http
(비보안) 또는https
(보안 HTTP) 프로토콜을 사용할 수 있습니다. CIDR 주석을 사용하는 클러스터 전체 프록시가 활성화된 경우 출력은 IP 주소가 아닌 서버 이름 또는 FQDN이어야 합니다. - 6
https
접두사를 사용하는 경우 TLS 통신을 위해 끝점에서 요구하는 시크릿 이름을 지정해야 합니다. 시크릿은openshift-logging
프로젝트에 있어야 하며 각각의 인증서를 가리키는 tls.crt, tls.key 및 ca-bundle.crt 키가 있어야 합니다.- 7
- 선택 사항: 파이프라인의 이름을 지정합니다.
- 8
application,
infrastructure
, 또는audit
등 해당 파이프라인을 사용하여 전달해야 하는 로그 유형을 지정합니다.- 9
- 로그 전달을 위해 해당 파이프라인과 함께 사용할 출력을 지정합니다.
- 10
- 선택 사항: 로그를 내부 Elasticsearch 인스턴스로 보내려면
기본
출력을 지정합니다. - 11
- 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
- 12
- 선택 사항: 지원되는 유형의 다른 외부 로그 집계기로 로그를 전달하도록 다중 출력을 구성합니다.
- 선택 사항: 파이프라인을 설명하는 이름입니다.
-
inputRefs
는application,
infrastructure
또는audit
등 해당 파이프라인을 사용하여 전달할 로그 유형입니다. -
outputRefs
는 사용할 출력의 이름입니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
CR 오브젝트를 생성합니다.
$ oc create -f <file-name>.yaml
Cluster Logging Operator는 Fluentd Pod를 재배포합니다. Pod가 재배포되지 않으면 Fluentd Pod를 삭제하여 강제로 재배포할 수 있습니다.
$ oc delete pod --selector logging-infra=fluentd
6.1.2. Fluentd 정방향 프로토콜을 사용하여 로그 전달
Fluentd 전달 프로토콜을 사용하여 프로토콜을 수락하도록 구성된 외부 로그 집계기로 로그 사본을 보낼 수 있습니다. 기본 Elasticsearch 로그 저장소를 사용하여 추가하거나 대신 이 작업을 수행할 수 있습니다. OpenShift Container Platform에서 로그 데이터를 수신하도록 외부 로그 수집기를 구성해야 합니다.
전달 프로토콜을 사용하여 로그 전달을 구성하려면 해당 출력을 사용하는 Fluentd 서버 및 파이프라인에 대한 출력이 하나 이상 있는 ClusterLogForwarder
사용자 정의 리소스(CR)를 생성합니다. Fluentd 출력은 TCP(비보안) 또는 TLS(보안 TCP) 연결을 사용할 수 있습니다.
또는 구성 맵을 사용하여 전달 프로토콜을 사용하여 로그를 전달할 수 있습니다. 그러나 이 방법은 OpenShift Container Platform에서 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다.
사전 요구 사항
- 지정된 프로토콜 또는 형식을 사용하여 로깅 데이터를 수신하도록 구성된 로깅 서버가 있어야 합니다.
절차
다음과 유사한
ClusterLogForwarder
CR YAML 파일을 생성합니다.apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: fluentd-server-secure 3 type: fluentdForward 4 url: 'tls://fluentdserver.security.example.com:24224' 5 secret: 6 name: fluentd-secret - name: fluentd-server-insecure type: fluentdForward url: 'tcp://fluentdserver.home.example.com:24224' pipelines: - name: forward-to-fluentd-secure 7 inputRefs: 8 - application - audit outputRefs: - fluentd-server-secure 9 - default 10 labels: clusterId: "C1234" 11 - name: forward-to-fluentd-insecure 12 inputRefs: - infrastructure outputRefs: - fluentd-server-insecure labels: clusterId: "C1234"
- 1
ClusterLogForwarder
CR의 이름은instance
여야 합니다.- 2
ClusterLogForwarder
CR의 네임스페이스는openshift-logging
이어야 합니다.- 3
- 출력 이름을 지정합니다.
- 4
fluentdForward
유형을 지정합니다.- 5
- 유효한 절대 URL로 외부 Fluentd 인스턴스의 URL 및 포트를 지정합니다.
tcp
(비보안) 또는tls
(보안 TCP) 프로토콜을 사용할 수 있습니다. CIDR 주석을 사용하는 클러스터 전체 프록시가 활성화된 경우 출력은 IP 주소가 아닌 서버 이름 또는 FQDN이어야 합니다. - 6
tls
접두사를 사용하는 경우 TLS 통신을 위해 끝점에서 요구하는 시크릿 이름을 지정해야 합니다. 시크릿은openshift-logging
프로젝트에 있어야 하며 각각의 인증서를 가리키는 tls.crt, tls.key 및 ca-bundle.crt 키가 있어야 합니다.- 7
- 선택 사항입니다. 파이프라인의 이름을 지정합니다.
- 8
application,
infrastructure
, 또는audit
등 해당 파이프라인을 사용하여 전달해야 하는 로그 유형을 지정합니다.- 9
- 로그 전달을 위해 해당 파이프라인과 함께 사용할 출력을 지정합니다.
- 10
- 선택 사항입니다. 로그를 내부 Elasticsearch 인스턴스로 전달하려면
default
출력을 지정합니다. - 11
- 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
- 12
- 선택 사항: 지원되는 유형의 다른 외부 로그 집계기로 로그를 전달하도록 다중 출력을 구성합니다.
- 선택 사항: 파이프라인을 설명하는 이름입니다.
-
inputRefs
는application,
infrastructure
또는audit
등 해당 파이프라인을 사용하여 전달할 로그 유형입니다. -
outputRefs
는 사용할 출력의 이름입니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
CR 오브젝트를 생성합니다.
$ oc create -f <file-name>.yaml
Cluster Logging Operator는 Fluentd Pod를 재배포합니다. Pod가 재배포되지 않으면 Fluentd Pod를 삭제하여 강제로 재배포할 수 있습니다.
$ oc delete pod --selector logging-infra=fluentd
6.1.3. syslog 프로토콜을 사용하여 로그 전달
syslog RFC3164 또는 RFC5424 프로토콜을 사용하여 기본 Elasticsearch 로그 저장소 대신 또는 기본 Elasticsearch 로그 저장소에 더하여 해당 프로토콜을 수락하도록 구성된 외부 로그 집계기에 로그 사본을 보낼 수 있습니다. OpenShift Container Platform에서 로그를 수신하도록 syslog 서버와 같은 외부 로그 수집기를 구성해야 합니다.
syslog 프로토콜을 사용하여 로그 전달을 구성하려면 해당 출력을 사용하는 syslog 서버 및 파이프라인에 대한 출력이 하나 이상 있는 ClusterLogForwarder
사용자 정의 리소스(CR)를 생성합니다. syslog 출력은 UDP, TCP 또는 TLS 연결을 사용할 수 있습니다.
또는 구성 맵을 사용하여 syslog RFC3164 프로토콜을 사용하여 로그를 전달할 수 있습니다. 그러나 이 방법은 OpenShift Container Platform에서 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다.
사전 요구 사항
- 지정된 프로토콜 또는 형식을 사용하여 로깅 데이터를 수신하도록 구성된 로깅 서버가 있어야 합니다.
절차
다음과 유사한
ClusterLogForwarder
CR YAML 파일을 생성합니다.apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: rsyslog-east 3 type: syslog 4 syslog: 5 facility: local0 rfc: RFC3164 payloadKey: message severity: informational url: 'tls://rsyslogserver.east.example.com:514' 6 secret: 7 name: syslog-secret - name: rsyslog-west type: syslog syslog: appName: myapp facility: user msgID: mymsg procID: myproc rfc: RFC5424 severity: debug url: 'udp://rsyslogserver.west.example.com:514' pipelines: - name: syslog-east 8 inputRefs: 9 - audit - application outputRefs: 10 - rsyslog-east - default 11 labels: secure: "true" 12 syslog: "east" - name: syslog-west 13 inputRefs: - infrastructure outputRefs: - rsyslog-west - default labels: syslog: "west"
- 1
ClusterLogForwarder
CR의 이름은instance
여야 합니다.- 2
ClusterLogForwarder
CR의 네임스페이스는openshift-logging
이어야 합니다.- 3
- 출력 이름을 지정합니다.
- 4
syslog
유형을 지정합니다.- 5
- 선택 사항입니다. 아래 나열된 syslog 매개변수를 지정합니다.
- 6
- 외부 syslog 인스턴스의 URL 및 포트를 지정합니다.
udp
(비보안),tcp
(비보안) 또는tls
(보안 TCP) 프로토콜을 사용할 수 있습니다. CIDR 주석을 사용하는 클러스터 전체 프록시가 활성화된 경우 출력은 IP 주소가 아닌 서버 이름 또는 FQDN이어야 합니다. - 7
tls
접두사를 사용하는 경우 TLS 통신을 위해 끝점에서 요구하는 시크릿 이름을 지정해야 합니다. 시크릿은openshift-logging
프로젝트에 있어야 하며 각각의 인증서를 가리키는 tls.crt, tls.key 및 ca-bundle.crt 키가 있어야 합니다.- 8
- 선택 사항: 파이프라인의 이름을 지정합니다.
- 9
application,
infrastructure
, 또는audit
등 해당 파이프라인을 사용하여 전달해야 하는 로그 유형을 지정합니다.- 10
- 로그 전달을 위해 해당 파이프라인과 함께 사용할 출력을 지정합니다.
- 11
- 선택 사항: 로그를 내부 Elasticsearch 인스턴스로 전달하려면
default
출력을 지정합니다. - 12
- 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다. "true"와 같은 인용 값은 부울 값이 아닌 문자열 값으로 인식됩니다.
- 13
- 선택 사항: 지원되는 유형의 다른 외부 로그 집계기로 로그를 전달하도록 다중 출력을 구성합니다.
- 선택 사항: 파이프라인을 설명하는 이름입니다.
-
inputRefs
는application,
infrastructure
또는audit
등 해당 파이프라인을 사용하여 전달할 로그 유형입니다. -
outputRefs
는 사용할 출력의 이름입니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
CR 오브젝트를 생성합니다.
$ oc create -f <file-name>.yaml
Cluster Logging Operator는 Fluentd Pod를 재배포합니다. Pod가 재배포되지 않으면 Fluentd Pod를 삭제하여 강제로 재배포할 수 있습니다.
$ oc delete pod --selector logging-infra=fluentd
6.1.3.1. Syslog 매개변수
syslog
출력에 대해 다음을 구성할 수 있습니다. 자세한 내용은 syslog RFC3164 또는 RFC5424 RFC를 참조하십시오.
기능: syslog 기능. 값은 10진수 정수 또는 대소문자를 구분하지 않는 키워드일 수 있습니다.
-
커널 메시지의 경우
0
또는kern
-
사용자 수준 메시지의 경우
1
또는user
, 기본값입니다. -
2
또는mail
시스템용 메일 -
시스템 데몬의 경우
3
또는daemon
-
보안/인증 메시지의 경우
4
또는auth
-
syslogd에 의해 내부적으로 생성된 메시지의 경우
5
또는syslog
-
라인 프린터 하위 시스템의 경우
6
또는lpr
-
네트워크 뉴스 서브 시스템의 경우
7
또는news
-
UUCP 하위 시스템의 경우
8
또는uucp
-
시계 데몬의 경우
9
또는cron
-
보안 인증 메시지의 경우
10
또는authpriv
-
FTP 데몬의 경우
11
또는ftp
-
NTP 하위 시스템의 경우
12
또는ntp
-
syslog 감사 로그의 경우
13
또는security
-
syslog 경고 로그의 경우
14
또는console
-
스케줄링 데몬의 경우
15
또는solaris-cron
-
로컬에서 사용되는 시설의 경우
16
–23
또는local0
–local7
-
커널 메시지의 경우
Optional.
payloadKey
: syslog 메시지의 페이로드로 사용할 레코드 필드입니다.참고payloadKey
매개변수를 구성하면 다른 매개 변수가 syslog로 전달되지 않습니다.- rfc: syslog를 사용하여 로그를 보내는 데 사용할 RFC입니다. 기본값은 RFC5424입니다.
심각도: 발신 syslog 레코드에 설정할 syslog 심각도 입니다. 값은 10진수 정수 또는 대소문자를 구분하지 않는 키워드일 수 있습니다.
-
시스템을 사용할 수 없음을 나타내는 메시지의 경우
0
또는Emergency
-
조치를 즉시 취해야 함을 나타내는 메시지의 경우
1
또는Alert
-
위험 상태를 나타내는 메시지의 경우
2
또는Critical
-
오류 상태를 나타내는 메시지의 경우
3
또는Error
-
경고 조건을 나타내는 메시지의 경우
4
또는Warning
-
정상이지만 중요한 조건을 나타내는 메시지의 경우
5
또는Notice
-
정보성 메시지를 나타내는 메시지의 경우
6
또는Informational
-
디버그 수준 메시지를 나타내는 메시지의 경우
7
또는Debug
, 기본값
-
시스템을 사용할 수 없음을 나타내는 메시지의 경우
- 태그: tag는 syslog 메시지에서 태그로 사용할 레코드 필드를 지정합니다.
- trimPrefix: 태그에서 지정된 접두사를 제거합니다.
6.1.3.2. 추가 RFC5424 syslog 매개변수
RFC5424에는 다음 매개변수가 적용됩니다.
-
appName: APP-NAME은 로그를 전송한 애플리케이션을 식별하는 자유 텍스트 문자열입니다.
RFC5424
에 대해 지정해야 합니다. -
msgID: MSGID는 메시지 유형을 식별하는 자유 텍스트 문자열입니다.
RFC5424
에 대해 지정해야 합니다. -
procID: PROCID는 자유 텍스트 문자열입니다. 값이 변경되면 syslog 보고가 중단되었음을 나타냅니다.
RFC5424
에 대해 지정해야 합니다.
6.1.4. Kafka 브로커로 로그 전달
기본 Elasticsearch 로그 저장소에 추가하거나 대신 외부 Kafka 브로커로 로그를 전달할 수 있습니다.
외부 Kafka 인스턴스에 대한 로그 전달을 구성하려면 해당 인스턴스에 대한 출력과 이 출력을 사용하는 파이프라인이 있는 ClusterLogForwarder
사용자 정의 리소스(CR)를 생성합니다. 출력에 특정 Kafka 주제를 포함하거나 기본값을 사용할 수 있습니다. Kafka 출력은 TCP(비보안) 또는 TLS(보안 TCP) 연결을 사용할 수 있습니다.
프로세스
다음과 유사한
ClusterLogForwarder
CR YAML 파일을 생성합니다.apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: app-logs 3 type: kafka 4 url: tls://kafka.example.devlab.com:9093/app-topic 5 secret: name: kafka-secret 6 - name: infra-logs type: kafka url: tcp://kafka.devlab2.example.com:9093/infra-topic 7 - name: audit-logs type: kafka url: tls://kafka.qelab.example.com:9093/audit-topic secret: name: kafka-secret-qe pipelines: - name: app-topic 8 inputRefs: 9 - application outputRefs: 10 - app-logs labels: logType: "application" 11 - name: infra-topic 12 inputRefs: - infrastructure outputRefs: - infra-logs labels: logType: "infra" - name: audit-topic inputRefs: - audit outputRefs: - audit-logs - default 13 labels: logType: "audit"
- 1
ClusterLogForwarder
CR의 이름은instance
여야 합니다.- 2
ClusterLogForwarder
CR의 네임스페이스는openshift-logging
이어야 합니다.- 3
- 출력 이름을 지정합니다.
- 4
kafka
유형을 지정합니다.- 5
- Kafka 브로커의 URL과 포트를 유효한 절대 URL로 지정하고 선택적으로 특정 주제를 사용합니다.
tcp
(비보안) 또는tls
(보안 TCP) 프로토콜을 사용할 수 있습니다. CIDR 주석을 사용하는 클러스터 전체 프록시가 활성화된 경우 출력은 IP 주소가 아닌 서버 이름 또는 FQDN이어야 합니다. - 6
tls
접두사를 사용하는 경우 TLS 통신을 위해 끝점에서 요구하는 시크릿 이름을 지정해야 합니다. 시크릿은openshift-logging
프로젝트에 있어야 하며 각각의 인증서를 가리키는 tls.crt, tls.key 및 ca-bundle.crt 키가 있어야 합니다.- 7
- 선택 사항: 안전하지 않은 출력을 보내려면 URL 앞에 있는
tcp
접두사를 사용합니다. 이 출력에서secret
키와 해당name
을 생략합니다. - 8
- 선택 사항: 파이프라인의 이름을 지정합니다.
- 9
application,
infrastructure
, 또는audit
등 해당 파이프라인을 사용하여 전달해야 하는 로그 유형을 지정합니다.- 10
- 로그 전달을 위해 해당 파이프라인과 함께 사용할 출력을 지정합니다.
- 11
- 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
- 12
- 선택 사항: 지원되는 유형의 다른 외부 로그 집계기로 로그를 전달하도록 다중 출력을 구성합니다.
- 선택 사항: 파이프라인을 설명하는 이름입니다.
-
inputRefs
는application,
infrastructure
또는audit
등 해당 파이프라인을 사용하여 전달할 로그 유형입니다. -
outputRefs
는 사용할 출력의 이름입니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
- 13
- 선택 사항: 내부 Elasticsearch 인스턴스로 로그를 전달하려면
기본값
을 지정합니다.
선택 사항: 단일 출력을 여러 kafka 브로커로 전달하려면 다음 예와 같이 kafka 브로커 배열을 지정합니다.
... spec: outputs: - name: app-logs type: kafka secret: name: kafka-secret-dev kafka: 1 brokers: 2 - tls://kafka-broker1.example.com:9093/ - tls://kafka-broker2.example.com:9093/ topic: app-topic 3 ...
CR 오브젝트를 생성합니다.
$ oc create -f <file-name>.yaml
Cluster Logging Operator는 Fluentd Pod를 재배포합니다. Pod가 재배포되지 않으면 Fluentd Pod를 삭제하여 강제로 재배포할 수 있습니다.
$ oc delete pod --selector logging-infra=fluentd
6.1.5. 특정 프로젝트의 애플리케이션 로그 전달
Cluster Log Forwarder를 사용하여 특정 프로젝트의 애플리케이션 로그 사본을 외부 로그 수집기로 보낼 수 있습니다. 기본 Elasticsearch 로그 저장소를 사용하여 추가하거나 대신 이 작업을 수행할 수 있습니다. OpenShift Container Platform에서 로그 데이터를 수신하도록 외부 로그 수집기를 구성해야 합니다.
프로젝트의 애플리케이션 로그 전달을 구성하려면 프로젝트에서 하나 이상의 입력, 다른 로그 집계기에 대한 선택적 출력, 이러한 입력 및 출력을 사용하는 파이프라인을 사용하여 ClusterLogForwarder
사용자 정의 리소스(CR)를 생성합니다.
사전 요구 사항
- 지정된 프로토콜 또는 형식을 사용하여 로깅 데이터를 수신하도록 구성된 로깅 서버가 있어야 합니다.
절차
다음과 유사한
ClusterLogForwarder
CR YAML 파일을 생성합니다.apiVersion: logging.openshift.io/v1 kind: ClusterLogForwarder metadata: name: instance 1 namespace: openshift-logging 2 spec: outputs: - name: fluentd-server-secure 3 type: fluentdForward 4 url: 'tls://fluentdserver.security.example.com:24224' 5 secret: 6 name: fluentd-secret - name: fluentd-server-insecure type: fluentdForward url: 'tcp://fluentdserver.home.example.com:24224' inputs: 7 - name: my-app-logs application: namespaces: - my-project pipelines: - name: forward-to-fluentd-insecure 8 inputRefs: 9 - my-app-logs outputRefs: 10 - fluentd-server-insecure labels: 11 project: "my-project" - name: forward-to-fluentd-secure 12 inputRefs: - application - audit - infrastructure outputRefs: - fluentd-server-secure - default labels: clusterId: "C1234"
- 1
ClusterLogForwarder
CR의 이름은instance
여야 합니다.- 2
ClusterLogForwarder
CR의 네임스페이스는openshift-logging
이어야 합니다.- 3
- 출력 이름을 지정합니다.
- 4
- 출력 유형을
elasticsearch
,fluentdForward
,syslog
또는kafka
로 지정합니다. - 5
- 외부 로그 집계기의 URL 및 포트를 유효한 절대 URL로 지정합니다. CIDR 주석을 사용하는 클러스터 전체 프록시가 활성화된 경우 출력은 IP 주소가 아닌 서버 이름 또는 FQDN이어야 합니다.
- 6
tls
접두사를 사용하는 경우 TLS 통신을 위해 끝점에서 요구하는 시크릿 이름을 지정해야 합니다. 시크릿은openshift-logging
프로젝트에 있어야 하며 각각의 인증서를 가리키는 tls.crt, tls.key 및 ca-bundle.crt 키가 있어야 합니다.- 7
- 지정된 프로젝트에서 애플리케이션 로그를 필터링하기 위한 입력 구성입니다.
- 8
- 입력을 사용하여 프로젝트 애플리케이션 로그를 외부 Fluentd 인스턴스로 보내는 파이프라인 구성입니다.
- 9
my-app-logs
입력입니다.- 10
- 사용할 출력의 이름입니다.
- 11
- 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
- 12
- 로그를 다른 로그 집계기로 보내는 파이프라인 구성입니다.
- 선택 사항: 파이프라인의 이름을 지정합니다.
-
application,
infrastructure
, 또는audit
등 해당 파이프라인을 사용하여 전달해야 하는 로그 유형을 지정합니다. - 로그 전달을 위해 해당 파이프라인과 함께 사용할 출력을 지정합니다.
-
선택 사항: 로그를 내부 Elasticsearch 인스턴스로 전달하려면
default
출력을 지정합니다. - 선택 사항: 문자열. 로그에 추가할 하나 이상의 레이블입니다.
CR 오브젝트를 생성합니다.
$ oc create -f <file-name>.yaml
6.1.6. 레거시 Fluentd 방법을 사용하여 로그 전달
Fluentd 전달 프로토콜을 사용하여 구성 파일 및 구성 맵을 생성하여 OpenShift Container Platform 클러스터 외부의 대상으로 로그를 보낼 수 있습니다. OpenShift Container Platform에서 로그 데이터를 수신하도록 외부 로그 집계기를 구성해야 합니다.
이 로그 전달 방법은 OpenShift Container Platform에서 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다.
Fluentd forward 프로토콜을 사용하여 로그를 보내려면 외부 로그 수집기를 가리키는 secure-forward.conf
라는 구성 파일을 생성합니다. 그런 다음 해당 파일을 사용하여 OpenShift Container Platform에서 로그를 전달할 때 사용하는 openshift-logging
프로젝트에서 secure-forward
라는 구성 맵을 생성합니다.
사전 요구 사항
- 지정된 프로토콜 또는 형식을 사용하여 로깅 데이터를 수신하도록 구성된 로깅 서버가 있어야 합니다.
샘플 Fluentd 구성 파일
<store> @type forward <security> self_hostname ${hostname} shared_key "fluent-receiver" </security> transport tls tls_verify_hostname false tls_cert_path '/etc/ocp-forward/ca-bundle.crt' <buffer> @type file path '/var/lib/fluentd/secureforwardlegacy' queued_chunks_limit_size "1024" chunk_limit_size "1m" flush_interval "5s" flush_at_shutdown "false" flush_thread_count "2" retry_max_interval "300" retry_forever true overflow_action "#{ENV['BUFFER_QUEUE_FULL_ACTION'] || 'throw_exception'}" </buffer> <server> host fluent-receiver.example.com port 24224 </server> </store>
프로세스
레거시 Fluentd 방법을 사용하여 로그를 전달하도록 OpenShift Container Platform을 구성하려면 다음을 수행하십시오.
secure-forward
라는 구성 파일을 생성하고<store>
스탠자에서 다음과 유사한 매개변수를 지정합니다.<store> @type forward <security> self_hostname ${hostname} shared_key <key> 1 </security> transport tls 2 tls_verify_hostname <value> 3 tls_cert_path <path_to_file> 4 <buffer> 5 @type file path '/var/lib/fluentd/secureforwardlegacy' queued_chunks_limit_size "#{ENV['BUFFER_QUEUE_LIMIT'] || '1024' }" chunk_limit_size "#{ENV['BUFFER_SIZE_LIMIT'] || '1m' }" flush_interval "#{ENV['FORWARD_FLUSH_INTERVAL'] || '5s'}" flush_at_shutdown "#{ENV['FLUSH_AT_SHUTDOWN'] || 'false'}" flush_thread_count "#{ENV['FLUSH_THREAD_COUNT'] || 2}" retry_max_interval "#{ENV['FORWARD_RETRY_WAIT'] || '300'}" retry_forever true </buffer> <server> name 6 host 7 hostlabel 8 port 9 </server> <server> 10 name host </server>
- 1
- 노드 간 공유 키를 입력합니다.
- 2
- TLS 유효성 검증을 사용하려면
tls
를 지정합니다. - 3
- 서버 인증서 호스트 이름을 확인하려면
true
로 설정합니다. 서버 인증서 호스트 이름을 무시하려면false
로 설정합니다. - 4
- 사설 CA 인증서 파일의 경로를
/etc/ocp-forward/ca_cert.pem
으로 지정합니다. - 5
- 필요에 따라 Fluentd 버퍼 매개변수를 지정합니다.
- 6
- 선택적으로 이 서버의 이름을 입력합니다.
- 7
- 서버의 호스트 이름 또는 IP를 지정합니다.
- 8
- 서버의 호스트 레이블을 지정합니다.
- 9
- 서버의 포트를 지정합니다.
- 10
- 선택적으로 추가 서버를 추가합니다. 둘 이상의 서버를 지정하면 forward는 이러한 서버 노드를 라운드 로빈 순서로 사용합니다.
상호 TLS(mTLS) 인증을 사용하려면 Fluentd 설명서에서 클라이언트 인증서, 키 매개변수 및 기타 설정에 대한 정보를 참조하십시오.
구성 파일에서
openshift-logging
프로젝트에secure-forward
라는 구성 맵을 생성합니다.$ oc create configmap secure-forward --from-file=secure-forward.conf -n openshift-logging
Cluster Logging Operator는 Fluentd Pod를 재배포합니다. Pod가 재배포되지 않으면 Fluentd Pod를 삭제하여 강제로 재배포할 수 있습니다.
$ oc delete pod --selector logging-infra=fluentd
6.1.7. 레거시 syslog 방법을 사용하여 로그 전달
syslog RFC3164 프로토콜을 사용하여 구성 파일 및 구성 맵을 생성하여 OpenShift Container Platform 클러스터 외부의 대상으로 로그를 보낼 수 있습니다. OpenShift Container Platform에서 로그를 수신하도록 syslog 서버와 같은 외부 로그 수집기를 구성해야 합니다.
이 로그 전달 방법은 OpenShift Container Platform에서 더 이상 사용되지 않으며 향후 릴리스에서 제거됩니다.
syslog 프로토콜에는 두 가지 버전이 있습니다.
- out_syslog: UDP를 통해 통신하는 버퍼 없는 구현은 데이터를 버퍼링하지 않고 결과를 즉시 씁니다.
- out_syslog_buffered: TCP 및 버퍼를 통해 데이터를 청크로 통신하는 버퍼링된 구현입니다.
syslog 프로토콜을 사용하여 로그를 보내려면 로그를 전달하는 데 필요한 정보와 함께 syslog.conf
라는 구성 파일을 생성합니다. 그런 다음 해당 파일을 사용하여 OpenShift Container Platform에서 로그를 전달할 때 사용하는 openshift-logging
프로젝트에 syslog
라는 구성 맵을 생성합니다.
사전 요구 사항
- 지정된 프로토콜 또는 형식을 사용하여 로깅 데이터를 수신하도록 구성된 로깅 서버가 있어야 합니다.
샘플 syslog 구성 파일
<store> @type syslog_buffered remote_syslog rsyslogserver.example.com port 514 hostname ${hostname} remove_tag_prefix tag facility local0 severity info use_record true payload_key message rfc 3164 </store>
다음 syslog
매개변수를 구성할 수 있습니다. 자세한 내용은 syslog RFC3164를 참조하십시오.
기능: syslog 기능. 값은 10진수 정수 또는 대소문자를 구분하지 않는 키워드일 수 있습니다.
-
커널 메시지의 경우
0
또는kern
-
사용자 수준 메시지의 경우
1
또는user
, 기본값입니다. -
2
또는mail
시스템용 메일 -
시스템 데몬의 경우
3
또는daemon
-
보안/인증 메시지의 경우
4
또는auth
-
syslogd에 의해 내부적으로 생성된 메시지의 경우
5
또는syslog
-
라인 프린터 하위 시스템의 경우
6
또는lpr
-
네트워크 뉴스 서브 시스템의 경우
7
또는news
-
UUCP 하위 시스템의 경우
8
또는uucp
-
시계 데몬의 경우
9
또는cron
-
보안 인증 메시지의 경우
10
또는authpriv
-
FTP 데몬의 경우
11
또는ftp
-
NTP 하위 시스템의 경우
12
또는ntp
-
syslog 감사 로그의 경우
13
또는security
-
syslog 경고 로그의 경우
14
또는console
-
스케줄링 데몬의 경우
15
또는solaris-cron
-
로컬에서 사용되는 시설의 경우
16
–23
또는local0
–local7
-
커널 메시지의 경우
- payloadKey: syslog 메시지의 페이로드로 사용할 레코드 필드입니다.
- rfc: syslog를 사용하여 로그를 보내는 데 사용할 RFC입니다.
심각도: 발신 syslog 레코드에 설정할 syslog 심각도 입니다. 값은 10진수 정수 또는 대소문자를 구분하지 않는 키워드일 수 있습니다.
-
시스템을 사용할 수 없음을 나타내는 메시지의 경우
0
또는Emergency
-
조치를 즉시 취해야 함을 나타내는 메시지의 경우
1
또는Alert
-
위험 상태를 나타내는 메시지의 경우
2
또는Critical
-
오류 상태를 나타내는 메시지의 경우
3
또는Error
-
경고 조건을 나타내는 메시지의 경우
4
또는Warning
-
정상이지만 중요한 조건을 나타내는 메시지의 경우
5
또는Notice
-
정보성 메시지를 나타내는 메시지의 경우
6
또는Informational
-
디버그 수준 메시지를 나타내는 메시지의 경우
7
또는Debug
, 기본값
-
시스템을 사용할 수 없음을 나타내는 메시지의 경우
- 태그: syslog 메시지에서 태그로 사용할 레코드 필드입니다.
- trimPrefix: 태그에서 제거할 접두사입니다.
절차
레거시 구성 방법을 사용하여 로그를 전달하도록 OpenShift Container Platform을 구성하려면 다음을 수행하십시오.
syslog.conf
라는 구성 파일을 생성하고<store>
스탠자에서 다음과 유사한 매개변수를 지정합니다.<store> @type <type> 1 remote_syslog <syslog-server> 2 port 514 3 hostname ${hostname} remove_tag_prefix <prefix> 4 facility <value> severity <value> use_record <value> payload_key message rfc 3164 5 </store>
- 1
- 사용할 프로토콜을
syslog
또는syslog_buffered
로 지정합니다. - 2
- syslog 서버의 FQDN 또는 IP 주소를 지정합니다.
- 3
- syslog 서버의 포트를 지정합니다.
- 4
- 선택 사항: 적절한 syslog 매개변수를 지정합니다. 예를 들면 다음과 같습니다.
-
syslog 접두사에서 지정된
태그
필드를 제거하기 위한 매개변수입니다. - 지정된 필드를 syslog 키로 설정하는 매개변수입니다.
- syslog 로그 기능 또는 소스를 지정하는 매개변수입니다.
- syslog 로그 심각도를 지정하는 매개변수입니다.
-
가능한 경우 레코드에서 심각도 및 기능을 사용하는 매개변수입니다.
true
인 경우container_name
,namespace_name
,pod_name
이 출력 콘텐츠에 포함됩니다. -
syslog 메시지의 페이로드를 설정하기 위한 키를 지정하는 매개변수입니다. 기본값은
message
입니다.
-
syslog 접두사에서 지정된
- 5
- 기존 syslog 방법을 사용하여
rfc
값으로3164
를 지정해야 합니다.
구성 파일에서
openshift-logging
프로젝트에syslog
라는 구성 맵을 생성합니다.$ oc create configmap syslog --from-file=syslog.conf -n openshift-logging
Cluster Logging Operator는 Fluentd Pod를 재배포합니다. Pod가 재배포되지 않으면 Fluentd Pod를 삭제하여 강제로 재배포할 수 있습니다.
$ oc delete pod --selector logging-infra=fluentd