고급 네트워킹


OpenShift Container Platform 4.19

OpenShift Container Platform의 전문적이고 고급 네트워킹 주제

Red Hat OpenShift Documentation Team

초록

이 문서에서는 MTU 변경, 연결 검증, 스트림 제어 전송 프로토콜, PTP 하드웨어, OpenShift Container Platform의 보조 인터페이스 메트릭을 포함한 고급 네트워킹 주제를 다룹니다.

1장. 끝점에 대한 연결 확인

CNO(Cluster Network Operator)는 클러스터 내 리소스 간에 연결 상태 검사를 수행하는 연결 확인 컨트롤러인 컨트롤러를 실행합니다. 상태 점검 결과를 검토하여 연결 문제를 진단하거나 현재 조사하고 있는 문제의 원인으로 네트워크 연결을 제거할 수 있습니다.

1.1. 수행되는 연결 상태 검사

클러스터 리소스에 도달할 수 있는지 확인하기 위해 다음 클러스터 API 서비스 각각에 TCP 연결이 수행됩니다.

  • Kubernetes API 서버 서비스
  • Kubernetes API 서버 끝점
  • OpenShift API 서버 서비스
  • OpenShift API 서버 끝점
  • 로드 밸런서

클러스터의 모든 노드에서 서비스 및 서비스 끝점에 도달할 수 있는지 확인하기 위해 다음 대상 각각에 TCP 연결이 수행됩니다.

  • 상태 점검 대상 서비스
  • 상태 점검 대상 끝점

1.2. 연결 상태 점검 구현

연결 검증 컨트롤러는 클러스터의 연결 확인 검사를 오케스트레이션합니다. 연결 테스트의 결과는 openshift-network-diagnosticsPodNetworkConnectivity 오브젝트에 저장됩니다. 연결 테스트는 병렬로 1분마다 수행됩니다.

CNO(Cluster Network Operator)는 클러스터에 여러 리소스를 배포하여 연결 상태 점검을 전달하고 수신합니다.

상태 점검 소스
이 프로그램은 Deployment 오브젝트에서 관리하는 단일 포드 복제본 세트에 배포됩니다. 프로그램은 PodNetworkConnectivity 오브젝트를 사용하고 각 오브젝트에 지정된 spec.targetEndpoint에 연결됩니다.
상태 점검 대상
클러스터의 모든 노드에서 데몬 세트의 일부로 배포된 포드입니다. 포드는 인바운드 상태 점검을 수신 대기합니다. 모든 노드에 이 포드가 있으면 각 노드로의 연결을 테스트할 수 있습니다.

노드 선택기를 사용하여 네트워크 연결 소스와 대상이 실행되는 노드를 구성할 수 있습니다. 또한 소스 및 대상 포드에 대해 허용되는 허용 범위를 지정할 수 있습니다. 구성은 config.openshift.io/v1 API 그룹의 네트워크 API의 싱글톤 클러스터 사용자 정의 리소스에 정의되어 있습니다.

Pod 스케줄링은 구성을 업데이트한 후에 수행됩니다. 따라서 구성을 업데이트하기 전에 선택기에서 사용하려는 노드 레이블을 적용해야 합니다. 네트워크 연결 확인 포드 배치를 업데이트한 후 적용된 레이블은 무시됩니다.

다음 YAML의 기본 구성을 참조하세요.

연결 소스 및 대상 포드에 대한 기본 구성

apiVersion: config.openshift.io/v1
kind: Network
metadata:
  name: cluster
spec:
  # ...
    networkDiagnostics: 
1

      mode: "All" 
2

      sourcePlacement: 
3

        nodeSelector:
          checkNodes: groupA
        tolerations:
        - key: myTaint
          effect: NoSchedule
          operator: Exists
      targetPlacement: 
4

        nodeSelector:
          checkNodes: groupB
        tolerations:
        - key: myOtherTaint
          effect: NoExecute
          operator: Exists
Copy to Clipboard Toggle word wrap

1
네트워크 진단 구성을 지정합니다. 값이 지정되지 않았거나 빈 객체가 지정되고 network.operator.openshift.io 사용자 지정 리소스인 clusterspec.disableNetworkDiagnostics=true 가 설정된 경우 네트워크 진단이 비활성화됩니다. 설정된 경우 이 값은 spec.disableNetworkDiagnostics=true 보다 우선합니다.
2
진단 모드를 지정합니다. 값은 빈 문자열, All 또는 Disabled 일 수 있습니다. 빈 문자열은 All을 지정하는 것과 같습니다.
3
선택 사항: 연결 확인 소스 포드에 대한 선택기를 지정합니다. nodeSelectortolerations 필드를 사용하여 sourceNode 포드를 추가로 지정할 수 있습니다. 이는 소스 포드와 타겟 포드 모두에 선택 사항입니다. 두 가지를 생략할 수도 있고, 둘 다 사용할 수도 있고, 둘 중 하나만 사용할 수도 있습니다.
4
선택 사항: 연결 확인 대상 포드에 대한 선택기를 지정합니다. nodeSelectortolerations 필드를 사용하여 targetNode 포드를 추가로 지정할 수 있습니다. 이는 소스 포드와 타겟 포드 모두에 선택 사항입니다. 두 가지를 생략할 수도 있고, 둘 다 사용할 수도 있고, 둘 중 하나만 사용할 수도 있습니다.

1.3. 포드 연결 확인 배치 구성

클러스터 관리자는 network.config.openshift.io 객체의 cluster 이름을 수정하여 연결성 검사 포드가 실행할 노드를 구성할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.

프로세스

  1. 다음 명령을 입력하여 연결 확인 구성을 편집합니다.

    $ oc edit network.config.openshift.io cluster
    Copy to Clipboard Toggle word wrap
  2. 텍스트 편집기에서 networkDiagnostics 스탠자를 업데이트하여 소스 및 대상 포드에 필요한 노드 선택기를 지정합니다.
  3. 변경 사항을 저장하고 텍스트 편집기를 종료합니다.

검증

  • 다음 명령을 입력하여 소스 및 대상 포드가 대상 노드에서 실행 중인지 확인하세요.
$ oc get pods -n openshift-network-diagnostics -o wide
Copy to Clipboard Toggle word wrap

출력 예

NAME                                    READY   STATUS    RESTARTS   AGE     IP           NODE                                        NOMINATED NODE   READINESS GATES
network-check-source-84c69dbd6b-p8f7n   1/1     Running   0          9h      10.131.0.8   ip-10-0-40-197.us-east-2.compute.internal   <none>           <none>
network-check-target-46pct              1/1     Running   0          9h      10.131.0.6   ip-10-0-40-197.us-east-2.compute.internal   <none>           <none>
network-check-target-8kwgf              1/1     Running   0          9h      10.128.2.4   ip-10-0-95-74.us-east-2.compute.internal    <none>           <none>
network-check-target-jc6n7              1/1     Running   0          9h      10.129.2.4   ip-10-0-21-151.us-east-2.compute.internal   <none>           <none>
network-check-target-lvwnn              1/1     Running   0          9h      10.128.0.7   ip-10-0-17-129.us-east-2.compute.internal   <none>           <none>
network-check-target-nslvj              1/1     Running   0          9h      10.130.0.7   ip-10-0-89-148.us-east-2.compute.internal   <none>           <none>
network-check-target-z2sfx              1/1     Running   0          9h      10.129.0.4   ip-10-0-60-253.us-east-2.compute.internal   <none>           <none>
Copy to Clipboard Toggle word wrap

1.4. PodNetworkConnectivityCheck 오브젝트 필드

PodNetworkConnectivityCheck 오브젝트 필드는 다음 표에 설명되어 있습니다.

Expand
표 1.1. PodNetworkConnectivityCheck 오브젝트 필드
필드유형설명

metadata.name

string

다음과 같은 형식의 오브젝트 이름: <source>-to-<target>. <target>에서 설명한 대상에는 다음 문자열 중 하나가 포함되어 있습니다.

  • load-balancer-api-external
  • load-balancer-api-internal
  • kubernetes-apiserver-endpoint
  • kubernetes-apiserver-service-cluster
  • network-check-target
  • openshift-apiserver-endpoint
  • openshift-apiserver-service-cluster

metadata.namespace

string

오브젝트와 연결된 네임스페이스입니다. 이 값은 항상 openshift-network-diagnostics입니다.

spec.sourcePod

string

연결 확인이 시작된 포드의 이름입니다(예: network-check-source-596b4c6566-rgh92).

spec.targetEndpoint

string

연결 검사의 대상입니다(예: api.devcluster.example.com:6443).

spec.tlsClientCert

object

사용할 TLS 인증서 설정입니다.

spec.tlsClientCert.name

string

해당하는 경우 사용되는 TLS 인증서의 이름입니다. 기본값은 빈 문자열입니다.

status

object

연결 테스트의 조건 및 최근 연결 성공 및 실패의 로그를 나타내는 오브젝트입니다.

status.conditions

array

연결 확인의 최신 상태 및 모든 이전 상태입니다.

status.failures

array

실패한 시도에서의 연결 테스트 로그입니다.

status.outages

array

중단 기간을 포함하는 테스트 로그를 연결합니다.

status.successes

array

성공적인 시도에서의 연결 테스트 로그입니다.

다음 표에서는 status.conditions 배열에서 오브젝트 필드를 설명합니다.

Expand
표 1.2. status.conditions
필드유형설명

lastTransitionTime

string

연결 조건이 하나의 상태에서 다른 상태로 전환된 시간입니다.

message

string

사람이 읽기 쉬운 형식으로 마지막 전환에 대한 세부 정보입니다.

reason

string

머신에서 읽을 수 있는 형식으로 전환의 마지막 상태입니다.

status

string

조건의 상태:

type

string

조건의 유형입니다.

다음 표에서는 status.conditions 배열에서 오브젝트 필드를 설명합니다.

Expand
표 1.3. status.outages
필드유형설명

end

string

연결 오류가 해결될 때부터의 타임 스탬프입니다.

endLogs

array

서비스 중단의 성공적인 종료와 관련된 로그 항목을 포함한 연결 로그 항목입니다.

message

string

사람이 읽을 수 있는 형식의 중단 세부 정보에 대한 요약입니다.

start

string

연결 오류가 먼저 감지될 때부터의 타임 스탬프입니다.

startLogs

array

원래 오류를 포함한 연결 로그 항목입니다.

1.4.1. 연결 로그 필드

연결 로그 항목의 필드는 다음 표에 설명되어 있습니다. 오브젝트는 다음 필드에서 사용됩니다.

  • status.failures[]
  • status.successes[]
  • status.outages[].startLogs[]
  • status.outages[].endLogs[]
Expand
표 1.4. 연결 로그 오브젝트
필드유형설명

latency

string

작업 기간을 기록합니다.

message

string

사람이 읽을 수 있는 형식으로 상태를 제공합니다.

reason

string

머신에서 읽을 수 있는 형식으로 상태의 이유를 제공합니다. 값은 TCPConnect, TCPConnectError, DNSResolve, DNSError 중 하나입니다.

success

boolean

로그 항목이 성공 또는 실패인지를 나타냅니다.

time

string

연결 확인 시작 시간입니다.

1.5. 끝점에 대한 네트워크 연결 확인

클러스터 관리자는 API 서버, 로드 밸런서, 서비스 또는 Pod와 같은 엔드포인트의 연결을 확인하고 네트워크 진단이 활성화되어 있는지 확인할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. 다음 명령을 입력하여 네트워크 진단이 활성화되었는지 확인하세요.

    $ oc get network.config.openshift.io cluster -o yaml
    Copy to Clipboard Toggle word wrap

    출력 예

      # ...
      status:
      # ...
        conditions:
        - lastTransitionTime: "2024-05-27T08:28:39Z"
          message: ""
          reason: AsExpected
          status: "True"
          type: NetworkDiagnosticsAvailable
    Copy to Clipboard Toggle word wrap

  2. 다음 명령을 입력하여 현재 PodNetworkConnectivityCheck 객체를 나열합니다.

    $ oc get podnetworkconnectivitycheck -n openshift-network-diagnostics
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                                                                                                                                AGE
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0   75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-1   73m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-2   75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-service-cluster                               75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-default-service-cluster                                 75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-load-balancer-api-external                                         75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-load-balancer-api-internal                                         75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-master-0            75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-master-1            75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-master-2            75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh      74m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-worker-c-n8mbf      74m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-ci-ln-x5sv9rb-f76d1-4rzrp-worker-d-4hnrz      74m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-network-check-target-service-cluster                               75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0    75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-1    75m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-2    74m
    network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-openshift-apiserver-service-cluster                                75m
    Copy to Clipboard Toggle word wrap

  3. 연결 테스트 로그를 확인합니다.

    1. 이전 명령의 출력에서 연결 로그를 검토할 끝점을 식별합니다.
    2. 다음 명령을 입력하여 객체를 확인하세요.

      $ oc get podnetworkconnectivitycheck <name> \
        -n openshift-network-diagnostics -o yaml
      Copy to Clipboard Toggle word wrap

      여기서 <name>PodNetworkConnectivityCheck 오브젝트의 이름을 지정합니다.

      출력 예

      apiVersion: controlplane.operator.openshift.io/v1alpha1
      kind: PodNetworkConnectivityCheck
      metadata:
        name: network-check-source-ci-ln-x5sv9rb-f76d1-4rzrp-worker-b-6xdmh-to-kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0
        namespace: openshift-network-diagnostics
        ...
      spec:
        sourcePod: network-check-source-7c88f6d9f-hmg2f
        targetEndpoint: 10.0.0.4:6443
        tlsClientCert:
          name: ""
      status:
        conditions:
        - lastTransitionTime: "2021-01-13T20:11:34Z"
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnectSuccess
          status: "True"
          type: Reachable
        failures:
        - latency: 2.241775ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed
            to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect:
            connection refused'
          reason: TCPConnectError
          success: false
          time: "2021-01-13T20:10:34Z"
        - latency: 2.582129ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed
            to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect:
            connection refused'
          reason: TCPConnectError
          success: false
          time: "2021-01-13T20:09:34Z"
        - latency: 3.483578ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: failed
            to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443: connect:
            connection refused'
          reason: TCPConnectError
          success: false
          time: "2021-01-13T20:08:34Z"
        outages:
        - end: "2021-01-13T20:11:34Z"
          endLogs:
          - latency: 2.032018ms
            message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0:
              tcp connection to 10.0.0.4:6443 succeeded'
            reason: TCPConnect
            success: true
            time: "2021-01-13T20:11:34Z"
          - latency: 2.241775ms
            message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0:
              failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443:
              connect: connection refused'
            reason: TCPConnectError
            success: false
            time: "2021-01-13T20:10:34Z"
          - latency: 2.582129ms
            message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0:
              failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443:
              connect: connection refused'
            reason: TCPConnectError
            success: false
            time: "2021-01-13T20:09:34Z"
          - latency: 3.483578ms
            message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0:
              failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443:
              connect: connection refused'
            reason: TCPConnectError
            success: false
            time: "2021-01-13T20:08:34Z"
          message: Connectivity restored after 2m59.999789186s
          start: "2021-01-13T20:08:34Z"
          startLogs:
          - latency: 3.483578ms
            message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0:
              failed to establish a TCP connection to 10.0.0.4:6443: dial tcp 10.0.0.4:6443:
              connect: connection refused'
            reason: TCPConnectError
            success: false
            time: "2021-01-13T20:08:34Z"
        successes:
        - latency: 2.845865ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:14:34Z"
        - latency: 2.926345ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:13:34Z"
        - latency: 2.895796ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:12:34Z"
        - latency: 2.696844ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:11:34Z"
        - latency: 1.502064ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:10:34Z"
        - latency: 1.388857ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:09:34Z"
        - latency: 1.906383ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:08:34Z"
        - latency: 2.089073ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:07:34Z"
        - latency: 2.156994ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:06:34Z"
        - latency: 1.777043ms
          message: 'kubernetes-apiserver-endpoint-ci-ln-x5sv9rb-f76d1-4rzrp-master-0: tcp
            connection to 10.0.0.4:6443 succeeded'
          reason: TCPConnect
          success: true
          time: "2021-01-13T21:05:34Z"
      Copy to Clipboard Toggle word wrap

2장. 클러스터 네트워크의 MTU 변경

클러스터 관리자는 클러스터 설치 후 클러스터 네트워크의 최대 전송 단위(MTU)를 변경할 수 있습니다. 이 변경은 클러스터 노드를 재부팅하여 MTU 변경을 완료해야 하므로 중단이 발생합니다.

2.1. 클러스터 MTU에 관하여

설치하는 동안 클러스터 네트워크 MTU는 클러스터 노드의 기본 네트워크 인터페이스 MTU를 기반으로 자동으로 설정됩니다. 일반적으로 감지된 MTU를 재정의할 필요는 없습니다.

다음 이유 중 하나로 클러스터 네트워크의 MTU를 변경하고 싶을 수 있습니다.

  • 클러스터 설치 중에 감지된 MTU가 사용자 인프라에 맞지 않습니다.
  • 이제 클러스터 인프라에는 최적의 성능을 위해 다른 MTU가 필요한 노드를 추가하는 등 다른 MTU가 필요합니다.

MTU 값 변경은 OVN-Kubernetes 네트워크 플러그인만 지원합니다.

2.1.1. 서비스 중단 고려 사항

클러스터에서 최대 전송 단위(MTU) 변경을 시작하면 다음과 같은 효과가 서비스 가용성에 영향을 미칠 수 있습니다.

  • 새로운 MTU로의 마이그레이션을 완료하려면 최소 2번의 롤링 재부팅이 필요합니다. 이 시간 동안 일부 노드는 다시 시작되므로 사용할 수 없습니다.
  • 절대 TCP 타임아웃 간격보다 짧은 타임아웃 간격으로 클러스터에 배포된 특정 애플리케이션은 MTU 변경 중에 중단을 경험할 수 있습니다.

2.1.2. MTU 값 선택

최대 전송 단위(MTU) 마이그레이션을 계획할 때 고려해야 할 서로 관련되지만 서로 다른 두 가지 MTU 값이 있습니다.

  • 하드웨어 MTU : 이 MTU 값은 네트워크 인프라의 특성에 따라 설정됩니다.
  • 클러스터 네트워크 MTU : 이 MTU 값은 클러스터 네트워크 오버레이 오버헤드를 고려하여 항상 하드웨어 MTU보다 작습니다. 구체적인 오버헤드는 네트워크 플러그인에 따라 결정됩니다. OVN-Kubernetes의 경우 오버헤드는 100 바이트입니다.

클러스터에서 노드마다 다른 MTU 값이 필요한 경우, 클러스터의 모든 노드에서 사용되는 가장 낮은 MTU 값에서 네트워크 플러그인의 오버헤드 값을 빼야 합니다. 예를 들어, 클러스터의 일부 노드에 9001의 MTU가 있고 일부에는 1500의 MTU가 있는 경우 이 값을 1400으로 설정해야 합니다.

중요

노드에서 허용되지 않는 MTU 값을 선택하지 않으려면 ip -d link 명령을 사용하여 네트워크 인터페이스에서 허용되는 최대 MTU 값( maxmtu )을 확인하세요.

2.1.3. 마이그레이션 프로세스의 작동 방식

다음 표는 프로세스의 사용자 시작 단계와 마이그레이션이 수행하는 작업 간에 분할하여 마이그레이션 프로세스를 요약합니다.

Expand
표 2.1. 클러스터 MTU의 라이브 마이그레이션
사용자 시작 단계OpenShift 컨테이너 플랫폼 활동

클러스터 네트워크 운영자 구성에서 다음 값을 설정합니다.

  • spec.migration.mtu.machine.to
  • spec.migration.mtu.network.from
  • spec.migration.mtu.network.to

클러스터 네트워크 운영자(CNO) : 각 필드가 유효한 값으로 설정되었는지 확인합니다.

  • mtu.machine.to는 새 하드웨어 MTU로 설정해야 하며, 하드웨어의 MTU가 변경되지 않는 경우에는 현재 하드웨어 MTU로 설정해야 합니다. 이 값은 일시적이며 마이그레이션 프로세스의 일부로 사용됩니다. 현재 값과 다른 하드웨어 MTU를 설정한 경우 이를 유지하려면 수동으로 구성해야 합니다. 머신 구성, DHCP 설정, 커널 명령줄과 같은 방법을 사용하세요.
  • mtu.network.from 필드는 클러스터 네트워크의 현재 MTU인 network.status.clusterNetworkMTU 필드와 같아야 합니다.
  • mtu.network.to 필드는 대상 클러스터 네트워크 MTU로 설정되어야 합니다. 네트워크 플러그인의 오버레이 오버헤드를 허용하려면 하드웨어 MTU보다 낮아야 합니다. OVN-Kubernetes의 경우 오버헤드는 100 바이트입니다.

제공된 값이 유효하면 CNO는 클러스터 네트워크의 MTU를 mtu.network.to 필드 값으로 설정하여 새로운 임시 구성을 작성합니다.

MCO(Machine Config Operator) : 클러스터의 각 노드에 대한 롤링 재부팅을 수행합니다.

클러스터의 노드에 대한 기본 네트워크 인터페이스의 MTU를 재구성합니다. 다음 방법 중 하나를 사용하여 이를 달성할 수 있습니다.

  • MTU 변경으로 새로운 NetworkManager 연결 프로필 배포
  • DHCP 서버 설정을 통해 MTU 변경
  • 부팅 매개변수를 통한 MTU 변경

해당 없음

네트워크 플러그인의 CNO 구성에서 mtu 값을 설정하고 spec.migration을 null 로 설정합니다.

MCO(Machine Config Operator) : 클러스터의 각 노드에 대해 새로운 MTU 구성으로 롤링 재부팅을 수행합니다.

2.2. 클러스터 네트워크 MTU 변경

클러스터 관리자는 클러스터의 최대 전송 단위(MTU)를 늘리거나 줄일 수 있습니다.

중요

MTU 마이그레이션 프로세스 중에는 노드의 MTU 값을 롤백할 수 없지만 MTU 마이그레이션 프로세스가 완료된 후에는 해당 값을 롤백할 수 있습니다.

마이그레이션은 중단을 초래할 수 있으며 MTU 업데이트가 적용되는 동안 클러스터의 노드를 일시적으로 사용할 수 없을 수 있습니다.

다음 절차에서는 머신 구성, DHCP(동적 호스트 구성 프로토콜) 또는 ISO 이미지를 사용하여 클러스터 네트워크 MTU를 변경하는 방법을 설명합니다. DHCP 또는 ISO 방식을 사용하는 경우 클러스터를 설치한 후 보관한 구성 아티팩트를 참조하여 절차를 완료해야 합니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • cluster-admin 권한이 있는 계정을 사용하여 ROSA 클러스터에 액세스할 수 있습니다.
  • 클러스터의 대상 MTU를 식별했습니다. OVN-Kubernetes 네트워크 플러그인의 MTU는 클러스터의 가장 낮은 하드웨어 MTU 값보다 100 낮게 설정해야 합니다.
  • 노드가 물리적 머신인 경우 클러스터 네트워크와 연결된 네트워크 스위치가 점보 프레임을 지원하는지 확인하세요.
  • 노드가 가상 머신(VM)인 경우 하이퍼바이저와 연결된 네트워크 스위치가 점보 프레임을 지원하는지 확인하세요.

2.2.1. 현재 클러스터 MTU 값 확인

다음 절차를 사용하여 클러스터 네트워크의 현재 최대 전송 단위(MTU)를 얻습니다.

프로세스

  • 클러스터 네트워크의 현재 MTU를 얻으려면 다음 명령을 입력하세요.

    $ oc describe network.config cluster
    Copy to Clipboard Toggle word wrap

    출력 예

    ...
    Status:
      Cluster Network:
        Cidr:               10.217.0.0/22
        Host Prefix:        23
      Cluster Network MTU:  1400
      Network Type:         OVNKubernetes
      Service Network:
        10.217.4.0/23
    ...
    Copy to Clipboard Toggle word wrap

2.2.2. 하드웨어 MTU 구성 준비

클러스터 노드의 하드웨어 최대 전송 단위(MTU)를 구성하는 방법은 여러 가지가 있습니다. 다음 예에서는 가장 일반적인 방법만 보여줍니다. 인프라 MTU의 정확성을 확인하세요. 클러스터 노드에서 하드웨어 MTU를 구성하는 데 사용할 원하는 방법을 선택하세요.

프로세스

  1. 하드웨어 MTU에 대한 구성을 준비하세요.

    • 하드웨어 MTU가 DHCP로 지정된 경우 다음 dnsmasq 구성과 같이 DHCP 구성을 업데이트하세요.

      dhcp-option-force=26,<mtu>
      Copy to Clipboard Toggle word wrap

      다음과 같습니다.

      <mtu>
      DHCP 서버가 광고할 하드웨어 MTU를 지정합니다.
    • PXE를 사용하는 커널 명령줄을 통해 하드웨어 MTU가 지정된 경우 해당 구성을 적절히 업데이트합니다.
    • NetworkManager 연결 구성에서 하드웨어 MTU가 지정된 경우 다음 단계를 완료하세요. DHCP, 커널 명령줄 또는 기타 방법을 사용하여 네트워크 구성을 명시적으로 지정하지 않으면 이 접근 방식이 OpenShift Container Platform의 기본값입니다. 다음 절차가 수정되지 않고 작동하려면 모든 클러스터 노드가 동일한 기본 네트워크 구성을 사용해야 합니다.

      1. 다음 명령을 입력하여 기본 네트워크 인터페이스를 찾으세요.

        $ oc debug node/<node_name> -- chroot /host nmcli -g connection.interface-name c show ovs-if-phys0
        Copy to Clipboard Toggle word wrap

        다음과 같습니다.

        <node_name>
        클러스터의 노드 이름을 지정합니다.
      2. <interface>-mtu.conf 파일에 다음 NetworkManager 구성을 만듭니다.

        [connection-<interface>-mtu]
        match-device=interface-name:<interface>
        ethernet.mtu=<mtu>
        Copy to Clipboard Toggle word wrap

        다음과 같습니다.

        <interface>
        기본 네트워크 인터페이스 이름을 지정합니다.
        <mtu>
        새로운 하드웨어 MTU 값을 지정합니다.

2.2.3. MachineConfig 객체 생성

다음 절차에 따라 MachineConfig 객체를 생성하세요.

프로세스

  1. 클러스터의 제어 평면 노드용 하나와 작업자 노드용 하나, 총 두 개의 MachineConfig 객체를 만듭니다.

    1. control-plane-interface.bu 파일에 다음 Butane 구성을 만듭니다.

      참고

      구성 파일에서 지정하는 Butane 버전은 OpenShift Container Platform 버전과 일치해야 하며 항상 0 으로 끝나야 합니다. 예를 들어, 4.19.0입니다. Butane에 대한 자세한 내용은 “Butane 을 사용하여 머신 구성 생성”을 참조하십시오.

      variant: openshift
      version: 4.19.0
      metadata:
        name: 01-control-plane-interface
        labels:
          machineconfiguration.openshift.io/role: master
      storage:
        files:
          - path: /etc/NetworkManager/conf.d/99-<interface>-mtu.conf 
      1
      
            contents:
              local: <interface>-mtu.conf 
      2
      
            mode: 0600
      Copy to Clipboard Toggle word wrap
      1
      기본 네트워크 인터페이스에 대한 NetworkManager 연결 이름을 지정합니다.
      2
      이전 단계에서 업데이트된 NetworkManager 구성 파일의 로컬 파일 이름을 지정합니다.
    2. worker-interface.bu 파일에 다음 Butane 구성을 만듭니다.

      참고

      구성 파일에서 지정하는 Butane 버전은 OpenShift Container Platform 버전과 일치해야 하며 항상 0 으로 끝나야 합니다. 예를 들어, 4.19.0입니다. Butane에 대한 자세한 내용은 “Butane 을 사용하여 머신 구성 생성”을 참조하십시오.

      variant: openshift
      version: 4.19.0
      metadata:
        name: 01-worker-interface
        labels:
          machineconfiguration.openshift.io/role: worker
      storage:
        files:
          - path: /etc/NetworkManager/conf.d/99-<interface>-mtu.conf 
      1
      
            contents:
              local: <interface>-mtu.conf 
      2
      
            mode: 0600
      Copy to Clipboard Toggle word wrap
      1
      기본 네트워크 인터페이스에 대한 NetworkManager 연결 이름을 지정합니다.
      2
      이전 단계에서 업데이트된 NetworkManager 구성 파일의 로컬 파일 이름을 지정합니다.
  2. 다음 명령을 실행하여 Butane 구성에서 MachineConfig 객체를 만듭니다.

    $ for manifest in control-plane-interface worker-interface; do
        butane --files-dir . $manifest.bu > $manifest.yaml
      done
    Copy to Clipboard Toggle word wrap
    주의

    이 절차의 뒷부분에서 명시적으로 지시하기 전까지는 이러한 머신 구성을 적용하지 마세요. 지금 이러한 머신 구성을 적용하면 클러스터의 안정성이 저하됩니다.

2.2.4. MTU 마이그레이션 시작

다음 절차에 따라 MTU 마이그레이션을 시작하세요.

프로세스

  1. MTU 마이그레이션을 시작하려면 다음 명령을 입력하여 마이그레이션 구성을 지정합니다. Machine Config Operator는 MTU 변경에 대비하여 클러스터의 노드에 대한 롤링 재부팅을 수행합니다.

    $ oc patch Network.operator.openshift.io cluster --type=merge --patch \
      '{"spec": { "migration": { "mtu": { "network": { "from": <overlay_from>, "to": <overlay_to> } , "machine": { "to" : <machine_to> } } } } }'
    Copy to Clipboard Toggle word wrap

    다음과 같습니다.

    <overlay_from>
    현재 클러스터 네트워크 MTU 값을 지정합니다.
    <overlay_to>
    클러스터 네트워크의 대상 MTU를 지정합니다. 이 값은 <machine_to> 값을 기준으로 설정됩니다. OVN-Kubernetes의 경우 이 값은 <machine_to> 값보다 100 미만이어야 합니다.
    <machine_to>
    기본 호스트 네트워크의 기본 네트워크 인터페이스에 대한 MTU를 지정합니다.
    $ oc patch Network.operator.openshift.io cluster --type=merge --patch \
      '{"spec": { "migration": { "mtu": { "network": { "from": 1400, "to": 9000 } , "machine": { "to" : 9100} } } } }'
    Copy to Clipboard Toggle word wrap
  2. 머신 구성 운영자가 각 머신 구성 풀의 머신을 업데이트함에 따라 운영자는 각 노드를 하나씩 재부팅합니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.

    $ oc get machineconfigpools
    Copy to Clipboard Toggle word wrap

    업데이트된 노드의 상태가 UPDATED=true, UPDATING=false,DEGRADED=false입니다.

    참고

    기본적으로 Machine Config Operator는 풀당 한 대의 머신을 한 번에 업데이트하므로 마이그레이션에 걸리는 총 시간은 클러스터 크기에 따라 증가합니다.

2.2.5. 머신 구성 확인

다음 절차에 따라 장비 구성을 확인하세요.

프로세스

  • 호스트의 새 머신 구성 상태를 확인합니다.

    1. 머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.

      $ oc describe node | egrep "hostname|machineconfig"
      Copy to Clipboard Toggle word wrap

      출력 예

      kubernetes.io/hostname=master-0
      machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b
      machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b
      machineconfiguration.openshift.io/reason:
      machineconfiguration.openshift.io/state: Done
      Copy to Clipboard Toggle word wrap

    2. 다음 구문이 올바른지 확인합니다.

      • machineconfiguration.openshift.io/state 필드의 값은 Done입니다.
      • machineconfiguration.openshift.io/currentConfig 필드의 값은 machineconfiguration.openshift.io/desiredConfig 필드의 값과 동일합니다.
    3. 머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.

      $ oc get machineconfig <config_name> -o yaml | grep ExecStart
      Copy to Clipboard Toggle word wrap

      다음과 같습니다.

      <config_name>
      machineconfiguration.openshift.io/currentConfig 필드에서 머신 구성의 이름을 지정합니다.

      머신 구성은 다음 업데이트를 systemd 구성에 포함해야 합니다.

      ExecStart=/usr/local/bin/mtu-migration.sh
      Copy to Clipboard Toggle word wrap

2.2.6. 새로운 하드웨어 MTU 값 적용

다음 절차에 따라 새로운 하드웨어 최대 전송 단위(MTU) 값을 적용합니다.

프로세스

  1. 기본 네트워크 인터페이스 MTU 값을 업데이트합니다.

    • NetworkManager 연결 구성으로 새 MTU를 지정하는 경우 다음 명령을 입력합니다. MachineConfig Operator는 클러스터의 노드에 대한 롤링 재부팅을 자동으로 수행합니다.

      $ for manifest in control-plane-interface worker-interface; do
          oc create -f $manifest.yaml
        done
      Copy to Clipboard Toggle word wrap
    • DHCP 서버 옵션이나 커널 명령줄 및 PXE를 사용하여 새로운 MTU를 지정하는 경우 인프라에 맞게 필요한 변경을 수행하세요.
  2. 머신 구성 운영자가 각 머신 구성 풀의 머신을 업데이트함에 따라 운영자는 각 노드를 하나씩 재부팅합니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.

    $ oc get machineconfigpools
    Copy to Clipboard Toggle word wrap

    업데이트된 노드의 상태가 UPDATED=true, UPDATING=false,DEGRADED=false입니다.

    참고

    기본적으로 Machine Config Operator는 풀당 한 대의 머신을 한 번에 업데이트하므로 마이그레이션에 걸리는 총 시간은 클러스터 크기에 따라 증가합니다.

  3. 호스트의 새 머신 구성 상태를 확인합니다.

    1. 머신 구성 상태 및 적용된 머신 구성 이름을 나열하려면 다음 명령을 입력합니다.

      $ oc describe node | egrep "hostname|machineconfig"
      Copy to Clipboard Toggle word wrap

      출력 예

      kubernetes.io/hostname=master-0
      machineconfiguration.openshift.io/currentConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b
      machineconfiguration.openshift.io/desiredConfig: rendered-master-c53e221d9d24e1c8bb6ee89dd3d8ad7b
      machineconfiguration.openshift.io/reason:
      machineconfiguration.openshift.io/state: Done
      Copy to Clipboard Toggle word wrap

      다음 구문이 올바른지 확인합니다.

      • machineconfiguration.openshift.io/state 필드의 값은 Done입니다.
      • machineconfiguration.openshift.io/currentConfig 필드의 값은 machineconfiguration.openshift.io/desiredConfig 필드의 값과 동일합니다.
    2. 머신 구성이 올바른지 확인하려면 다음 명령을 입력합니다.

      $ oc get machineconfig <config_name> -o yaml | grep path:
      Copy to Clipboard Toggle word wrap

      다음과 같습니다.

      <config_name>
      machineconfiguration.openshift.io/currentConfig 필드에서 머신 구성의 이름을 지정합니다.

      머신 구성이 성공적으로 배포되면 이전 출력에 /etc/NetworkManager/conf.d/99-<interface>-mtu.conf 파일 경로와 ExecStart=/usr/local/bin/mtu-migration.sh 줄이 포함됩니다.

2.2.7. MTU 마이그레이션 마무리

다음 절차에 따라 MTU 마이그레이션을 완료하세요.

프로세스

  1. MTU 마이그레이션을 완료하려면 OVN-Kubernetes 네트워크 플러그인에 대해 다음 명령을 입력하세요.

    $ oc patch Network.operator.openshift.io cluster --type=merge --patch \
      '{"spec": { "migration": null, "defaultNetwork":{ "ovnKubernetesConfig": { "mtu": <mtu> }}}}'
    Copy to Clipboard Toggle word wrap

    다음과 같습니다.

    <mtu>
    <overlay_to> 로 지정한 새 클러스터 네트워크 MTU를 지정합니다.
  2. MTU 마이그레이션을 완료한 후 각 머신 구성 풀 노드는 하나씩 재부팅됩니다. 모든 노드가 업데이트될 때까지 기다려야 합니다. 다음 명령을 입력하여 머신 구성 풀 상태를 확인합니다.

    $ oc get machineconfigpools
    Copy to Clipboard Toggle word wrap

    업데이트된 노드의 상태가 UPDATED=true, UPDATING=false,DEGRADED=false입니다.

검증

  1. 클러스터 네트워크의 현재 MTU를 얻으려면 다음 명령을 입력하세요.

    $ oc describe network.config cluster
    Copy to Clipboard Toggle word wrap
  2. 노드의 기본 네트워크 인터페이스에 대한 현재 MTU를 가져옵니다.

    1. 클러스터의 노드를 나열하려면 다음 명령을 입력하세요.

      $ oc get nodes
      Copy to Clipboard Toggle word wrap
    2. 노드의 기본 네트워크 인터페이스에 대한 현재 MTU 설정을 얻으려면 다음 명령을 입력하세요.

      $ oc adm node-logs <node> -u ovs-configuration | grep configure-ovs.sh | grep mtu | grep <interface> | head -1
      Copy to Clipboard Toggle word wrap

      다음과 같습니다.

      <node>
      이전 단계의 출력에서 노드를 지정합니다.
      <interface>
      노드의 기본 네트워크 인터페이스 이름을 지정합니다.

      출력 예

      ens3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 8051
      Copy to Clipboard Toggle word wrap

3장. SCTP(스트림 제어 전송 프로토콜) 사용

클러스터 관리자는 클러스터에서 SCTP(Stream Control Transmission Protocol)를 사용할 수 있습니다.

3.1. OpenShift 컨테이너 플랫폼에서 SCTP 지원

클러스터 관리자는 클러스터의 호스트에서 SCTP를 활성화 할 수 있습니다. RHCOS(Red Hat Enterprise Linux CoreOS)에서 SCTP 모듈은 기본적으로 비활성화되어 있습니다.

SCTP는 IP 네트워크에서 실행되는 안정적인 메시지 기반 프로토콜입니다.

활성화하면 Pod, 서비스, 네트워크 정책에서 SCTP를 프로토콜로 사용할 수 있습니다. type 매개변수를 ClusterIP 또는 NodePort 값으로 설정하여 Service를 정의해야 합니다.

3.1.1. SCTP 프로토콜을 사용하는 구성의 예

protocol 매개변수를 포드 또는 서비스 오브젝트의 SCTP 값으로 설정하여 SCTP를 사용하도록 포드 또는 서비스를 구성할 수 있습니다.

다음 예에서는 pod가 SCTP를 사용하도록 구성되어 있습니다.

apiVersion: v1
kind: Pod
metadata:
  namespace: project1
  name: example-pod
spec:
  containers:
    - name: example-pod
...
      ports:
        - containerPort: 30100
          name: sctpserver
          protocol: SCTP
Copy to Clipboard Toggle word wrap

다음 예에서는 서비스가 SCTP를 사용하도록 구성되어 있습니다.

apiVersion: v1
kind: Service
metadata:
  namespace: project1
  name: sctpserver
spec:
...
  ports:
    - name: sctpserver
      protocol: SCTP
      port: 30100
      targetPort: 30100
  type: ClusterIP
Copy to Clipboard Toggle word wrap

다음 예에서 NetworkPolicy 오브젝트는 특정 레이블이 있는 모든 Pod의 포트 80에서 SCTP 네트워크 트래픽에 적용되도록 구성되어 있습니다.

kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-sctp-on-http
spec:
  podSelector:
    matchLabels:
      role: web
  ingress:
  - ports:
    - protocol: SCTP
      port: 80
Copy to Clipboard Toggle word wrap

3.2. SCTP(스트림 제어 전송 프로토콜) 활성화

클러스터 관리자는 클러스터의 작업자 노드에 블랙리스트 SCTP 커널 모듈을 로드하고 활성화할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. 다음 YAML 정의가 포함된 load-sctp-module.yaml 파일을 생성합니다.

    apiVersion: machineconfiguration.openshift.io/v1
    kind: MachineConfig
    metadata:
      name: load-sctp-module
      labels:
        machineconfiguration.openshift.io/role: worker
    spec:
      config:
        ignition:
          version: 3.2.0
        storage:
          files:
            - path: /etc/modprobe.d/sctp-blacklist.conf
              mode: 0644
              overwrite: true
              contents:
                source: data:,
            - path: /etc/modules-load.d/sctp-load.conf
              mode: 0644
              overwrite: true
              contents:
                source: data:,sctp
    Copy to Clipboard Toggle word wrap
  2. MachineConfig 오브젝트를 생성하려면 다음 명령을 입력합니다.

    $ oc create -f load-sctp-module.yaml
    Copy to Clipboard Toggle word wrap
  3. 선택 사항: MachineConfig Operator가 구성 변경 사항을 적용하는 동안 노드의 상태를 보려면 다음 명령을 입력합니다. 노드 상태가 Ready로 전환되면 구성 업데이트가 적용됩니다.

    $ oc get nodes
    Copy to Clipboard Toggle word wrap

3.3. SCTP(Stream Control Transmission Protocol)의 활성화 여부 확인

SCTP 트래픽을 수신하는 애플리케이션으로 pod를 만들고 서비스와 연결한 다음, 노출된 서비스에 연결하여 SCTP가 클러스터에서 작동하는지 확인할 수 있습니다.

사전 요구 사항

  • 클러스터에서 인터넷에 액세스하여 nc 패키지를 설치합니다.
  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.

프로세스

  1. SCTP 리스너를 시작하는 포드를 생성합니다.

    1. 다음 YAML로 pod를 정의하는 sctp-server.yaml 파일을 생성합니다.

      apiVersion: v1
      kind: Pod
      metadata:
        name: sctpserver
        labels:
          app: sctpserver
      spec:
        containers:
          - name: sctpserver
            image: registry.access.redhat.com/ubi9/ubi
            command: ["/bin/sh", "-c"]
            args:
              ["dnf install -y nc && sleep inf"]
            ports:
              - containerPort: 30102
                name: sctpserver
                protocol: SCTP
      Copy to Clipboard Toggle word wrap
    2. 다음 명령을 입력하여 pod를 생성합니다.

      $ oc create -f sctp-server.yaml
      Copy to Clipboard Toggle word wrap
  2. SCTP 리스너 pod에 대한 서비스를 생성합니다.

    1. 다음 YAML을 사용하여 서비스를 정의하는 sctp-service.yaml 파일을 생성합니다.

      apiVersion: v1
      kind: Service
      metadata:
        name: sctpservice
        labels:
          app: sctpserver
      spec:
        type: NodePort
        selector:
          app: sctpserver
        ports:
          - name: sctpserver
            protocol: SCTP
            port: 30102
            targetPort: 30102
      Copy to Clipboard Toggle word wrap
    2. 서비스를 생성하려면 다음 명령을 입력합니다.

      $ oc create -f sctp-service.yaml
      Copy to Clipboard Toggle word wrap
  3. SCTP 클라이언트에 대한 pod를 생성합니다.

    1. 다음 YAML을 사용하여 sctp-client.yaml 파일을 만듭니다.

      apiVersion: v1
      kind: Pod
      metadata:
        name: sctpclient
        labels:
          app: sctpclient
      spec:
        containers:
          - name: sctpclient
            image: registry.access.redhat.com/ubi9/ubi
            command: ["/bin/sh", "-c"]
            args:
              ["dnf install -y nc && sleep inf"]
      Copy to Clipboard Toggle word wrap
    2. Pod 오브젝트를 생성하려면 다음 명령을 입력합니다.

      $ oc apply -f sctp-client.yaml
      Copy to Clipboard Toggle word wrap
  4. 서버에서 SCTP 리스너를 실행합니다.

    1. 서버 Pod에 연결하려면 다음 명령을 입력합니다.

      $ oc rsh sctpserver
      Copy to Clipboard Toggle word wrap
    2. SCTP 리스너를 시작하려면 다음 명령을 입력합니다.

      $ nc -l 30102 --sctp
      Copy to Clipboard Toggle word wrap
  5. 서버의 SCTP 리스너에 연결합니다.

    1. 터미널 프로그램에서 새 터미널 창 또는 탭을 엽니다.
    2. sctpservice 서비스의 IP 주소를 얻습니다. 다음 명령을 실행합니다.

      $ oc get services sctpservice -o go-template='{{.spec.clusterIP}}{{"\n"}}'
      Copy to Clipboard Toggle word wrap
    3. 클라이언트 Pod에 연결하려면 다음 명령을 입력합니다.

      $ oc rsh sctpclient
      Copy to Clipboard Toggle word wrap
    4. SCTP 클라이언트를 시작하려면 다음 명령을 입력합니다. <cluster_IP>sctpservice 서비스의 클러스터 IP 주소로 변경합니다.

      # nc <cluster_IP> 30102 --sctp
      Copy to Clipboard Toggle word wrap

4장. 보조 인터페이스 지표와 네트워크 연결 연관 짓기

관리자는 pod_network_info 메트릭을 사용하여 보조 네트워크 인터페이스를 분류하고 모니터링할 수 있습니다. 이 메트릭은 일반적으로 연관된 NetworkAttachmentDefinition 리소스를 기반으로 인터페이스 유형을 식별하는 레이블을 추가하여 이를 수행합니다.

4.1. 모니터링을 위한 보조 네트워크 메트릭 확장

보조 장치 또는 인터페이스는 다양한 용도로 사용됩니다. 효과적인 집계와 모니터링을 위해 2차 네트워크 인터페이스의 메트릭을 분류해야 합니다.

노출된 지표는 인터페이스를 포함하지만 인터페이스가 시작되는 위치는 지정하지 않습니다. 추가 인터페이스가 없는 경우 이 방법이 효과적입니다. 그러나 인터페이스 이름에만 의존하면 보조 인터페이스가 추가될 때 해당 인터페이스의 목적을 파악하고 해당 메트릭을 효과적으로 사용하기 어렵기 때문에 문제가 됩니다.

보조 인터페이스를 추가할 때, 인터페이스의 이름은 추가된 순서에 따라 달라집니다. 2차 인터페이스는 서로 다른 목적에 사용될 수 있는 별도의 네트워크에 속할 수 있습니다.

pod_network_name_info를 사용하면 인터페이스 유형을 확인하는 추가 정보로 현재 지표를 확장할 수 있습니다. 이러한 방식으로 지표를 집계하고 특정 인터페이스 유형에 특정 경보를 추가할 수 있습니다.

네트워크 유형은 NetworkAttachmentDefinition 리소스의 이름에서 생성되며, 이를 통해 다양한 보조 네트워크 클래스를 구별합니다. 예를 들어 서로 다른 네트워크에 속하거나 서로 다른 CNI를 사용하는 서로 다른 인터페이스는 서로 다른 네트워크 연결 정의 이름을 사용합니다.

4.2. 네트워크 지표 데몬

네트워크 지표 데몬은 네트워크 관련 지표를 수집하고 게시하는 데몬 구성 요소입니다.

kubelet은 이미 관찰 가능한 네트워크 관련 지표를 게시하고 있습니다. 이러한 지표는 다음과 같습니다.

  • container_network_receive_bytes_total
  • container_network_receive_errors_total
  • container_network_receive_packets_total
  • container_network_receive_packets_dropped_total
  • container_network_transmit_bytes_total
  • container_network_transmit_errors_total
  • container_network_transmit_packets_total
  • container_network_transmit_packets_dropped_total

이러한 지표의 레이블에는 다음이 포함됩니다.

  • 포드 이름
  • 포드 네임스페이스
  • 인터페이스 이름(예: eth0)

이러한 지표는 예를 들면 Multus를 통해 Pod에 새 인터페이스를 추가할 때까지는 인터페이스 이름이 무엇을 나타내는지 명확하지 않기 때문에 잘 작동합니다.

인터페이스 레이블은 인터페이스 이름을 나타내지만 해당 인터페이스가 무엇을 의미하는지는 명확하지 않습니다. 인터페이스가 다양한 경우 모니터링 중인 지표에서 어떤 네트워크를 참조하는지 파악하기란 불가능합니다.

이 문제는 다음 섹션에 설명된 새로운 pod_network_name_info를 도입하여 해결됩니다.

4.3. 네트워크 이름이 있는 지표

Network Metrics 데몬셋은 고정 값 0 을 갖는 pod_network_name_info 게이지 메트릭을 게시합니다.

pod_network_name_info 의 예

pod_network_name_info{interface="net0",namespace="namespacename",network_name="nadnamespace/firstNAD",pod="podname"} 0
Copy to Clipboard Toggle word wrap

네트워크 이름 레이블은 Multus에서 추가한 주석을 사용하여 생성됩니다. 네트워크 연결 정의가 속하는 네임스페이스와 네트워크 연결 정의 이름이 연결된 것입니다.

새 지표 단독으로는 많은 가치를 제공하지 않지만 네트워크 관련 container_network_* 지표와 결합되는 경우 보조 네트워크 모니터링을 더 잘 지원합니다.

다음과 같은promql 쿼리를 사용하면 k8s.v1.cni.cncf.io/networks-status 주석에서 검색된 값과 네트워크 이름이 포함된 새 지표를 가져올 수 있습니다.

(container_network_receive_bytes_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_receive_errors_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_receive_packets_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_receive_packets_dropped_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_transmit_bytes_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_transmit_errors_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_transmit_packets_total) + on(namespace,pod,interface) group_left(network_name) ( pod_network_name_info )
(container_network_transmit_packets_dropped_total) + on(namespace,pod,interface) group_left(network_name)
Copy to Clipboard Toggle word wrap

5장. BGP 라우팅

5.1. BGP 라우팅에 대하여

이 기능은 클러스터에 대한 기본 BGP(Border Gateway Protocol) 라우팅 기능을 제공합니다.

중요

MetalLB Operator를 사용하고 MetalLB Operator가 아닌 클러스터 관리자나 타사 클러스터 구성 요소가 생성한 metallb-system 네임스페이스에 기존 FRRConfiguration CR이 있는 경우 이를 openshift-frr-k8s 네임스페이스에 복사하거나 해당 타사 클러스터 구성 요소가 새 네임스페이스를 사용하는지 확인해야 합니다. 자세한 내용은 FRR-K8s 리소스 마이그레이션을 참조하세요.

5.1.1. BGP(Border Gateway Protocol) 라우팅에 관하여

OpenShift Container Platform은 Linux, UNIX 및 이와 유사한 운영 체제를 위한 무료 오픈 소스 인터넷 라우팅 프로토콜 모음인 FRRouting(FRR)을 통해 BGP 라우팅을 지원합니다. FRR-K8s는 Kubernetes 호환 방식으로 FRR API의 하위 집합을 공개하는 Kubernetes 기반 데몬 세트입니다. 클러스터 관리자는 FRRConfiguration 사용자 정의 리소스(CR)를 사용하여 FRR 서비스에 액세스할 수 있습니다.

5.1.1.1. 지원 플랫폼

BGP 라우팅은 다음 인프라 유형에서 지원됩니다.

  • 베어 메탈

BGP 라우팅을 위해서는 네트워크 공급자에 맞게 BGP를 적절히 구성해야 합니다. 네트워크 공급자의 중단이나 잘못된 구성으로 인해 클러스터 네트워크가 중단될 수 있습니다.

5.1.1.2. MetalLB 연산자와 함께 사용하기 위한 고려 사항

MetalLB Operator는 클러스터에 추가 기능으로 설치됩니다. MetalLB Operator를 배포하면 FRR-K8s가 추가 라우팅 기능 공급자로 자동으로 활성화되고 이 기능을 통해 설치된 FRR-K8s 데몬이 사용됩니다.

4.18로 업그레이드하기 전에 MetalLB 운영자가 관리하지 않는 metallb-system 네임스페이스의 기존 FRRConfiguration (클러스터 관리자나 다른 구성 요소를 통해 추가)을 openshift-frr-k8s 네임스페이스에 수동으로 복사하고 필요한 경우 네임스페이스를 생성해야 합니다.

중요

MetalLB Operator를 사용 중이고 MetalLB Operator가 아닌 클러스터 관리자나 타사 클러스터 구성 요소가 생성한 metallb-system 네임스페이스에 기존 FRRConfiguration CR이 있는 경우 다음을 수행해야 합니다.

  • 기존 FRRConfiguration CR이 openshift-frr-k8s 네임스페이스에 복사되었는지 확인하세요.
  • 타사 클러스터 구성 요소가 생성한 FRRConfiguration CR에 대해 새 네임스페이스를 사용하는지 확인하세요.
5.1.1.3. CNO(Cluster Network Operator) 구성

클러스터 네트워크 운영자 API는 BGP 라우팅을 구성하기 위해 다음 API 필드를 노출합니다.

  • spec.additionalRoutingCapabilities : 클러스터에 대한 FRR-K8s 데몬 배포를 활성화하여 경로 광고와 독립적으로 사용할 수 있습니다. FRR-K8s 데몬이 활성화되면 모든 노드에 배포됩니다.
5.1.1.4. BGP 라우팅 사용자 정의 리소스

다음 사용자 정의 리소스는 BGP 라우팅을 구성하는 데 사용됩니다.

FRR 구성
이 사용자 정의 리소스는 BGP 라우팅에 대한 FRR 구성을 정의합니다. 이 CR은 네임스페이스가 지정되어 있습니다.

5.1.2. FRRConfiguration CRD 구성

다음 섹션에서는 FRRConfiguration 사용자 정의 리소스(CR)를 사용하는 참조 예를 제공합니다.

5.1.2.1. 라우터 필드

라우터 필드를 사용하여 각 VRF(가상 라우팅 및 포워딩) 리소스에 대해 하나씩 여러 라우터를 구성할 수 있습니다. 각 라우터에 대해 ASN(자율 시스템 번호)을 정의해야 합니다.

다음 예와 같이 연결할 BGP(Border Gateway Protocol) 이웃 목록을 정의할 수도 있습니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.30.0.3
        asn: 4200000000
        ebgpMultiHop: true
        port: 180
      - address: 172.18.0.6
        asn: 4200000000
        port: 179
Copy to Clipboard Toggle word wrap

5.1.2.2. toAdvertise 필드

기본적으로 FRR-K8s는 라우터 구성의 일부로 구성된 접두사를 광고하지 않습니다. 이를 광고하려면 toAdvertise 필드를 사용합니다.

다음 예와 같이 접두사의 하위 집합을 광고할 수 있습니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.30.0.3
        asn: 4200000000
        ebgpMultiHop: true
        port: 180
        toAdvertise:
          allowed:
            prefixes: 
1

            - 192.168.2.0/24
      prefixes:
        - 192.168.2.0/24
        - 192.169.2.0/24
Copy to Clipboard Toggle word wrap

1
접두사의 하위 집합을 광고합니다.

다음 예에서는 모든 접두사를 광고하는 방법을 보여줍니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.30.0.3
        asn: 4200000000
        ebgpMultiHop: true
        port: 180
        toAdvertise:
          allowed:
            mode: all 
1

      prefixes:
        - 192.168.2.0/24
        - 192.169.2.0/24
Copy to Clipboard Toggle word wrap

1
모든 접두사를 광고합니다.
5.1.2.3. toReceive 필드

기본적으로 FRR-K8s는 이웃이 광고한 접두사를 처리하지 않습니다. toReceive 필드를 사용하여 이러한 주소를 처리할 수 있습니다.

다음 예와 같이 접두사의 하위 집합을 구성할 수 있습니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.18.0.5
          asn: 64512
          port: 179
          toReceive:
            allowed:
              prefixes:
              - prefix: 192.168.1.0/24
              - prefix: 192.169.2.0/24
                ge: 25 
1

                le: 28 
2
Copy to Clipboard Toggle word wrap

1 2
접두사 길이가 le 접두사 길이보다 작거나 같고 ge 접두사 길이보다 크거나 같은 경우 접두사가 적용됩니다.

다음 예제에서는 FRR이 발표된 모든 접두사를 처리하도록 구성합니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.18.0.5
          asn: 64512
          port: 179
          toReceive:
            allowed:
              mode: all
Copy to Clipboard Toggle word wrap

5.1.2.4. bgp 필드

bgp 필드를 사용하여 다양한 BFD 프로필을 정의하고 이를 이웃과 연결할 수 있습니다. 다음 예에서 BFD는 BGP 세션을 백업하고 FRR은 링크 오류를 감지할 수 있습니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.30.0.3
        asn: 64512
        port: 180
        bfdProfile: defaultprofile
    bfdProfiles:
      - name: defaultprofile
Copy to Clipboard Toggle word wrap

5.1.2.5. nodeSelector 필드

기본적으로 FRR-K8s는 데몬이 실행 중인 모든 노드에 구성을 적용합니다. nodeSelector 필드를 사용하여 구성을 적용할 노드를 지정할 수 있습니다. 예를 들면 다음과 같습니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    routers:
    - asn: 64512
  nodeSelector:
    labelSelector:
    foo: "bar"
Copy to Clipboard Toggle word wrap

5.1.2.6. 인터페이스 필드
중요

spec.bgp.routers.neighbors.interface 필드는 기술 미리보기 기능에만 해당됩니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

다음 예제 구성을 사용하여 인터페이스 필드를 사용하여 번호가 지정되지 않은 BGP 피어링을 구성할 수 있습니다.

예제 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: test
  namespace: frr-k8s-system
spec:
  bgp:
    bfdProfiles:
    - echoMode: false
      name: simple
      passiveMode: false
    routers:
    - asn: 64512
      neighbors:
      - asn: 64512
        bfdProfile: simple
        disableMP: false
        interface: net10 
1

        port: 179
        toAdvertise:
          allowed:
            mode: filtered
            prefixes:
            - 5.5.5.5/32
        toReceive:
          allowed:
            mode: filtered
      prefixes:
      - 5.5.5.5/32
Copy to Clipboard Toggle word wrap

1
번호가 지정되지 않은 BGP 피어링을 활성화합니다.
참고

인터페이스 필드를 사용하려면 두 BGP 피어 간에 지점 간, 계층 2 연결을 설정해야 합니다. IPv4, IPv6 또는 듀얼 스택과 함께 번호가 지정되지 않은 BGP 피어링을 사용할 수 있지만 IPv6 RA(라우터 광고)를 활성화해야 합니다. 각 인터페이스는 하나의 BGP 연결로 제한됩니다.

이 필드를 사용하면 spec.bgp.routers.neighbors.address 필드에 값을 지정할 수 없습니다.

다음 표에서는 FRRConfiguration 사용자 정의 리소스에 대한 필드에 대해 설명합니다.

Expand
표 5.1. MetalLB FRRConfiguration 사용자 정의 리소스
필드유형설명

spec.bgp.routers

array

FRR이 구성할 라우터를 지정합니다(VRF당 하나).

spec.bgp.routers.asn

integer

세션의 로컬 종료에 사용할 자율 시스템 번호(ASN)입니다.

spec.bgp.routers.id

string

bgp 라우터의 ID를 지정합니다.

spec.bgp.routers.vrf

string

이 라우터에서 세션을 설정하는 데 사용되는 호스트 vrf를 지정합니다.

spec.bgp.routers.neighbors

array

BGP 세션을 설정할 이웃을 지정합니다.

spec.bgp.routers.neighbors.asn

integer

세션의 원격 끝에 사용할 ASN을 지정합니다. 이 필드를 사용하면 spec.bgp.routers.neighbors.dynamicASN 필드에 값을 지정할 수 없습니다.

spec.bgp.routers.neighbors.dynamicASN

string

세션의 원격 끝에 사용할 ASN을 명시적으로 설정하지 않고 감지합니다. 동일한 ASN을 가진 이웃에 대해서는 내부를 지정하고, 다른 ASN을 가진 이웃에 대해서는 외부를 지정합니다. 이 필드를 사용하면 spec.bgp.routers.neighbors.asn 필드에 값을 지정할 수 없습니다.

spec.bgp.routers.neighbors.address

string

세션을 설정할 IP 주소를 지정합니다. 이 필드를 사용하면 spec.bgp.routers.neighbors.interface 필드에 값을 지정할 수 없습니다.

spec.bgp.routers.neighbors.interface

string

세션을 설정할 때 사용할 인터페이스 이름을 지정합니다. 이 필드를 사용하여 번호가 지정되지 않은 BGP 피어링을 구성합니다. 두 BGP 피어 사이에는 지점 간, 계층 2 연결이 있어야 합니다. IPv4, IPv6 또는 듀얼 스택과 함께 번호가 지정되지 않은 BGP 피어링을 사용할 수 있지만 IPv6 RA(라우터 광고)를 활성화해야 합니다. 각 인터페이스는 하나의 BGP 연결로 제한됩니다. spec.bgp.routers.neighbors.interface 필드는 기술 미리보기 기능에만 해당됩니다. Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

spec.bgp.routers.neighbors.port

integer

세션을 설정할 때 다이얼할 포트를 지정합니다. 기본값은 :8888 입니다.

spec.bgp.routers.neighbors.password

string

BGP 세션을 설정하는 데 사용할 비밀번호를 지정합니다. PasswordPasswordSecret은 상호 배타적입니다.

spec.bgp.routers.neighbors.passwordSecret

string

이웃에 대한 인증 비밀번호의 이름을 지정합니다. 비밀번호는 "kubernetes.io/basic-auth" 유형이어야 하며 FRR-K8s 데몬과 동일한 네임스페이스에 있어야 합니다. "password" 키는 비밀번호를 비밀에 저장합니다. PasswordPasswordSecret은 상호 배타적입니다.

spec.bgp.routers.neighbors.holdTime

duration

RFC4271에 따라 요청된 BGP 보류 시간을 지정합니다. 기본값은 180입니다.

spec.bgp.routers.neighbors.keepaliveTime

duration

RFC4271에 따라 요청된 BGP keepalive 시간을 지정합니다. 기본값은 60초 입니다.

spec.bgp.routers.neighbors.connectTime

duration

BGP가 이웃과의 연결을 시도하는 사이에 기다리는 시간을 지정합니다.

spec.bgp.routers.neighbors.ebgpMultiHop

boolean

BGPPeer가 멀티홉 떨어져 있는지 여부를 나타냅니다.

spec.bgp.routers.neighbors.bfdProfile

string

BGP 세션과 연관된 BFD 세션에 사용할 BFD 프로필의 이름을 지정합니다. 설정하지 않으면 BFD 세션이 설정되지 않습니다.

spec.bgp.routers.neighbors.toAdvertise.allowed

array

이웃에게 광고할 접두사 목록과 연관된 속성을 나타냅니다.

spec.bgp.routers.neighbors.toAdvertise.allowed.prefixes

문자열 배열

이웃에게 광고할 접두사 목록을 지정합니다. 이 목록은 라우터에서 정의한 접두사와 일치해야 합니다.

spec.bgp.routers.neighbors.toAdvertise.allowed.mode

string

접두사를 처리할 때 사용할 모드를 지정합니다. 접두사 목록에 있는 접두사만 허용하도록 필터링 을 설정할 수 있습니다. 라우터에 구성된 모든 접두사를 허용하려면 '모두' 로 설정할 수 있습니다.

spec.bgp.routers.neighbors.toAdvertise.withLocalPref

array

광고된 로컬 환경 설정과 관련된 접두사를 지정합니다. 광고가 허용되는 접두사에서 로컬 기본 설정과 연관된 접두사를 지정해야 합니다.

spec.bgp.routers.neighbors.toAdvertise.withLocalPref.prefixes

문자열 배열

로컬 기본 설정과 관련된 접두사를 지정합니다.

spec.bgp.routers.neighbors.toAdvertise.withLocalPref.localPref

integer

접두사와 연관된 로컬 기본 설정을 지정합니다.

spec.bgp.routers.neighbors.toAdvertise.withCommunity

array

광고된 BGP 커뮤니티와 연관된 접두사를 지정합니다. 광고하려는 접두사 목록에 로컬 기본 설정과 관련된 접두사를 포함해야 합니다.

spec.bgp.routers.neighbors.toAdvertise.withCommunity.prefixes

문자열 배열

커뮤니티와 관련된 접두사를 지정합니다.

spec.bgp.routers.neighbors.toAdvertise.withCommunity.community

string

접두사와 연관된 커뮤니티를 지정합니다.

spec.bgp.routers.neighbors.toReceive

array

이웃으로부터 수신할 접두사를 지정합니다.

spec.bgp.routers.neighbors.toReceive.allowed

array

이웃에게서 받고 싶은 정보를 지정합니다.

spec.bgp.routers.neighbors.toReceive.allowed.prefixes

array

이웃에서 허용되는 접두사를 지정합니다.

spec.bgp.routers.neighbors.toReceive.allowed.mode

string

접두사를 처리할 때 사용할 모드를 지정합니다. 필터링 으로 설정하면 접두사 목록에 있는 접두사만 허용됩니다. all 로 설정하면 라우터에 구성된 모든 접두사가 허용됩니다.

spec.bgp.routers.neighbors.disableMP

boolean

MP BGP를 비활성화하여 IPv4 및 IPv6 경로 교환을 별도의 BGP 세션으로 분리하지 못하도록 합니다.

spec.bgp.routers.prefixes

문자열 배열

이 라우터 인스턴스에서 광고할 모든 접두사를 지정합니다.

spec.bgp.bfdProfiles

array

이웃을 구성할 때 사용할 bfd 프로필 목록을 지정합니다.

spec.bgp.bfdProfiles.name

string

구성의 다른 부분에서 참조할 BFD 프로필의 이름입니다.

spec.bgp.bfdProfiles.receiveInterval

integer

이 시스템이 제어 패킷을 수신할 수 있는 최소 간격을 밀리초 단위로 지정합니다. 기본값은 300ms 입니다.

spec.bgp.bfdProfiles.transmitInterval

integer

지터를 제외하고 이 시스템이 BFD 제어 패킷을 보내는 데 사용하려는 최소 전송 간격을 밀리초 단위로 지정합니다. 기본값은 300ms 입니다.

spec.bgp.bfdProfiles.detectMultiplier

integer

패킷 손실을 판별하기 위해 감지 배수를 구성합니다. 연결 손실 감지 타이머를 결정하려면 원격 전송 간격에 이 값을 곱합니다.

spec.bgp.bfdProfiles.echoInterval

integer

이 시스템이 처리할 수 있는 최소 에코 수신 전송 간격을 밀리초 단위로 구성합니다. 기본값은 50ms 입니다.

spec.bgp.bfdProfiles.echoMode

boolean

에코 전송 모드를 활성화하거나 비활성화합니다. 이 모드는 기본적으로 비활성화되어 있으며 멀티홉 설정에서는 지원되지 않습니다.

spec.bgp.bfdProfiles.passiveMode

boolean

세션을 수동적으로 표시하세요. 수동 세션은 연결을 시작하려고 시도하지 않고 피어로부터 제어 패킷을 기다린 후 응답을 시작합니다.

spec.bgp.bfdProfiles.MinimumTtl

integer

멀티홉 세션에만 해당됩니다. 수신 BFD 제어 패킷에 대한 최소 예상 TTL을 구성합니다.

spec.nodeSelector

string

이 구성을 적용하려는 노드를 제한합니다. 지정된 경우, 지정된 선택기와 일치하는 레이블을 가진 노드만 구성을 적용하려고 시도합니다. 지정하지 않으면 모든 노드가 이 구성을 적용하려고 시도합니다.

status

string

FRRConfiguration의 관찰된 상태를 정의합니다.

5.2. BGP 라우팅 활성화

클러스터 관리자는 클러스터에 대한 OVN-Kubernetes Border Gateway Protocol(BGP) 라우팅 지원을 활성화할 수 있습니다.

5.2.1. BGP(Border Gateway Protocol) 라우팅 활성화

클러스터 관리자는 베어메탈 인프라에서 클러스터에 대한 BGP(Border Gateway Protocol) 라우팅 지원을 활성화할 수 있습니다.

MetalLB Operator와 함께 BGP 라우팅을 사용하는 경우 필요한 BGP 라우팅 지원이 자동으로 활성화됩니다. BGP 라우팅 지원을 수동으로 활성화할 필요는 없습니다.

5.2.1.1. BGP 라우팅 지원 활성화

클러스터 관리자는 클러스터에 대한 BGP 라우팅 지원을 활성화할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • 클러스터 관리자 역할이 있는 사용자로 클러스터에 로그인했습니다.
  • 클러스터는 호환 가능한 인프라에 설치됩니다.

프로세스

  • 동적 라우팅 공급자를 활성화하려면 다음 명령을 입력하세요.

    $ oc patch Network.operator.openshift.io/cluster --type=merge -p '{
      "spec": {
        "additionalRoutingCapabilities": {
          "providers": ["FRR"]
        }
      }
    }'
    Copy to Clipboard Toggle word wrap

5.3. BGP 라우팅 비활성화

클러스터 관리자는 클러스터에 대한 OVN-Kubernetes Border Gateway Protocol(BGP) 라우팅 지원을 활성화할 수 있습니다.

5.3.1. BGP(Border Gateway Protocol) 라우팅 비활성화

클러스터 관리자는 베어메탈 인프라에서 클러스터에 대한 BGP(Border Gateway Protocol) 라우팅 지원을 비활성화할 수 있습니다.

5.3.1.1. BGP 라우팅 지원 활성화

클러스터 관리자는 클러스터에 대한 BGP 라우팅 지원을 비활성화할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • 클러스터 관리자 역할이 있는 사용자로 클러스터에 로그인했습니다.
  • 클러스터는 호환 가능한 인프라에 설치됩니다.

프로세스

  • 동적 라우팅을 비활성화하려면 다음 명령을 입력하세요.

    $ oc patch Network.operator.openshift.io/cluster --type=merge -p '{
      "spec": { "additionalRoutingCapabilities": null }
    }'
    Copy to Clipboard Toggle word wrap

5.4. FRR-K8s 리소스 마이그레이션

OpenShift Container Platform 4.17 및 이전 릴리스의 metallb-system 네임스페이스에 있는 모든 사용자 생성 FRR-K8s 사용자 정의 리소스(CR)는 openshift-frr-k8s 네임스페이스로 마이그레이션해야 합니다. 클러스터 관리자로서 FRR-K8s 사용자 정의 리소스를 마이그레이션하려면 이 절차의 단계를 완료하세요.

5.4.1. FRR-K8s 리소스 마이그레이션

FRR-K8s FRRConfiguration 사용자 정의 리소스를 metallb-system 네임스페이스에서 openshift-frr-k8s 네임스페이스로 마이그레이션할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • 클러스터 관리자 역할이 있는 사용자로 클러스터에 로그인했습니다.

프로세스

Metal LB Operator가 배포된 이전 버전의 OpenShift Container Platform에서 업그레이드하는 경우 사용자 지정 FRRConfiguration 구성을 metallb-system 네임스페이스에서 openshift-frr-k8s 네임스페이스로 수동으로 마이그레이션해야 합니다. 이러한 CR을 이동하려면 다음 명령을 입력하세요.

  1. openshift-frr-k8s 네임스페이스를 생성하려면 다음 명령을 입력하세요.

    $ oc create namespace openshift-frr-k8s
    Copy to Clipboard Toggle word wrap
  2. 마이그레이션을 자동화하려면 다음 내용을 포함하는 migrate.sh 라는 셸 스크립트를 만듭니다.

    #!/bin/bash
    OLD_NAMESPACE="metallb-system"
    NEW_NAMESPACE="openshift-frr-k8s"
    FILTER_OUT="metallb-"
    oc get frrconfigurations.frrk8s.metallb.io -n "${OLD_NAMESPACE}" -o json |\
      jq -r '.items[] | select(.metadata.name | test("'"${FILTER_OUT}"'") | not)' |\
      jq -r '.metadata.namespace = "'"${NEW_NAMESPACE}"'"' |\
      oc create -f -
    Copy to Clipboard Toggle word wrap
  3. 마이그레이션을 실행하려면 다음 명령을 실행하세요.

    $ bash migrate.sh
    Copy to Clipboard Toggle word wrap

검증

  • 마이그레이션이 성공했는지 확인하려면 다음 명령을 실행하세요.

    $ oc get frrconfigurations.frrk8s.metallb.io -n openshift-frr-k8s
    Copy to Clipboard Toggle word wrap

마이그레이션이 완료되면 metallb-system 네임스페이스에서 FRRConfiguration 사용자 정의 리소스를 제거할 수 있습니다.

6장. 경로 광고

6.1. 경로 광고에 관하여

이 기능은 OVN-Kubernetes 네트워크 플러그인에 대한 경로 광고 기능을 제공합니다. BGP(Border Gateway Router) 공급자가 필요합니다. 자세한 내용은 BGP 라우팅 정보를 참조하세요.

경로 광고가 활성화되면 OVN-Kubernetes 네트워크 플러그인은 기본 Pod 네트워크 및 클러스터 사용자 정의(CUDN) 네트워크에 대한 네트워크 경로를 공급자 네트워크에 광고하는 것을 지원하며, 여기에는 EgressIP가 포함되고, 공급자 네트워크에서 기본 Pod 네트워크 및 CUDN으로 경로를 가져오는 것도 지원됩니다. 공급자 네트워크에서는 기본 Pod 네트워크와 CUDN에서 광고되는 IP 주소에 직접 접속할 수 있습니다.

예를 들어, 기본 Pod 네트워크로 경로를 가져와서 각 노드에서 수동으로 경로를 구성할 필요가 없습니다. 이전에는 routingViaHost 매개변수를 true 로 설정하고 각 노드에서 경로를 수동으로 구성하여 비슷한 구성을 구현했을 수 있습니다. 경로 광고를 사용하면 routingViaHost 매개변수를 false 로 설정하여 이 작업을 원활하게 수행할 수 있습니다.

클러스터의 네트워크 사용자 지정 리소스 CR에서 routingViaHost 매개변수를 true 로 설정할 수도 있지만, 그런 다음 비슷한 구성을 시뮬레이션하기 위해 각 노드에서 수동으로 경로를 구성해야 합니다. 경로 광고를 활성화하면 네트워크 CR에서 routingViaHost=false를 설정할 수 있으며, 각 노드에 대한 경로를 수동으로 구성할 필요가 없습니다.

공급자 네트워크의 경로 리플렉터가 지원되며, 이를 통해 대규모 네트워크에서 경로를 광고하는 데 필요한 BGP 연결 수를 줄일 수 있습니다.

경로 광고가 활성화된 EgressIP를 사용하는 경우, 3계층 공급자 네트워크는 EgressIP 장애 조치를 인식합니다. 즉, 이전에는 계층 2 공급자 네트워크만 인식했기 때문에 모든 송신 노드가 동일한 계층 2 세그먼트에 있어야 했지만, 이제는 서로 다른 계층 2 세그먼트에서 EgressIP를 호스팅하는 클러스터 노드를 찾을 수 있습니다.

6.1.1.1. 지원 플랫폼

베어메탈 인프라 유형에서는 BGP(Border Gateway Protocol)를 사용한 광고 경로가 지원됩니다.

6.1.1.2. 인프라 요구 사항

경로 광고를 사용하려면 네트워크 인프라에 대해 BGP를 구성해야 합니다. 네트워크 인프라의 중단이나 잘못된 구성으로 인해 클러스터 네트워크가 중단될 수 있습니다.

6.1.1.3. 다른 네트워킹 기능과의 호환성

경로 광고는 다음과 같은 OpenShift 컨테이너 플랫폼 네트워킹 기능을 지원합니다.

다중 외부 게이트웨이(MEG)
MEG는 이 기능을 지원하지 않습니다.
EgressIPs

EgressIP의 사용과 광고를 지원합니다. 출구 IP 주소가 있는 노드는 출구 IP를 알립니다. 송신 IP 주소는 송신 노드와 동일한 2계층 네트워크 서브넷에 있어야 합니다. 다음과 같은 제한 사항이 적용됩니다.

  • 2계층 모드에서 작동하는 사용자 정의 네트워크(CUDN)의 광고 EgressIP는 지원되지 않습니다.
  • 기본 네트워크 인터페이스에 송신 IP 주소가 할당되어 있고 추가 네트워크 인터페이스에 송신 IP 주소가 할당되어 있는 네트워크에 대해 송신 IP를 광고하는 것은 비현실적입니다. 선택된 FRRConfiguration 인스턴스의 모든 BGP 세션에서 모든 EgressIP가 광고됩니다. 이러한 세션이 EgressIP가 할당된 동일한 인터페이스를 통해 설정되었는지 여부와 관계없이 원치 않는 광고가 발생할 가능성이 있습니다.
서비스
MetalLB 운영자와 협력하여 공급자 네트워크에 서비스를 광고합니다.
출구 서비스
완전 지원
송신 방화벽
완전 지원
출구 QoS
완전 지원
네트워크 정책
완전 지원
직접 포드 진입
기본 클러스터 네트워크와 클러스터 사용자 정의(CUDN) 네트워크를 완벽하게 지원합니다.
6.1.1.4. MetalLB 연산자와 함께 사용하기 위한 고려 사항

MetalLB Operator는 클러스터에 추가 기능으로 설치됩니다. MetalLB Operator를 배포하면 FRR-K8이 추가 라우팅 기능 제공자로 자동으로 활성화됩니다. 이 기능과 MetalLB Operator는 동일한 FRR-K8s 배포를 사용합니다.

6.1.1.5. 클러스터 사용자 정의 네트워크(CUDN) 명명 시 고려 사항

FRRConfiguration CR에서 VRF 장치를 참조할 때 VRF 이름은 15자 이하인 VRF 이름의 경우 CUDN 이름과 동일합니다. VRF 이름을 CUDN 이름에서 유추할 수 있도록 15자를 넘지 않는 VRF 이름을 사용하는 것이 좋습니다.

6.1.1.6. BGP 라우팅 사용자 정의 리소스

다음 사용자 정의 리소스(CR)는 BGP를 사용하여 경로 광고를 구성하는 데 사용됩니다.

routeAdvertisements
이 CR은 BGP 라우팅에 대한 광고를 정의합니다. 이 CR에서 OVN-Kubernetes 컨트롤러는 클러스터 네트워크 경로를 광고하도록 FRR 데몬을 구성하는 FRRConfiguration 객체를 생성합니다. 이 CR은 클러스터 범위입니다.
FRR 구성
이 CR은 BGP 피어를 정의하고 공급자 네트워크에서 클러스터 네트워크로의 경로 가져오기를 구성하는 데 사용됩니다. RouteAdvertisements 객체를 적용하기 전에 적어도 하나의 FRRConfiguration 객체를 초기 정의하여 BGP 피어를 구성해야 합니다. 이 CR은 네임스페이스가 지정되어 있습니다.
6.1.1.7. OVN-Kubernetes 컨트롤러에서 FRRConfiguration 객체 생성

RouteAdvertisements CR에서 선택한 각 네트워크와 노드에 대해 FRRConfiguration 객체가 생성되고, 각 노드에 적용되는 적절한 광고 접두사가 함께 제공됩니다. OVN-Kubernetes 컨트롤러는 RouteAdvertisements -CR-selected 노드가 RouteAdvertisements -CR-selected FRR 구성에 의해 선택된 노드의 하위 집합인지 확인합니다.

RouteAdvertisement CR에서 생성된 FRRConfiguration 개체에서는 수신할 접두사의 필터링이나 선택이 고려되지 않습니다. 다른 FRRConfiguration 개체에서 수신할 접두사를 구성합니다. OVN-Kubernetes는 VRF에서 적절한 네트워크로 경로를 가져옵니다.

6.1.1.8. CNO(Cluster Network Operator) 구성

CNO(클러스터 네트워크 운영자) API는 경로 광고를 구성하기 위해 여러 필드를 노출합니다.

  • spec.additionalRoutingCapabilities.providers : 경로를 광고하는 데 필요한 추가 라우팅 공급자를 지정합니다. 유일하게 지원되는 값은 FRR 이며, 이를 통해 클러스터에 FRR-K8S 데몬을 배포할 수 있습니다. FRR-K8S 데몬이 활성화되면 모든 노드에 배포됩니다.
  • spec.defaultNetwork.ovnKubernetesConfig.routeAdvertisements : 기본 클러스터 네트워크와 CUDN 네트워크에 대한 경로 광고를 활성화합니다. 이 기능을 활성화하려면 spec.additionalRoutingCapabilities 필드를 FRR 로 설정해야 합니다.

6.1.2. RouteAdvertisements 객체 구성

다음 속성을 사용하여 클러스터 범위의 RouteAdvertisements 객체를 정의할 수 있습니다.

RouteAdvertisements 사용자 정의 리소스(CR)에 대한 필드는 다음 표에 설명되어 있습니다.

Expand
표 6.1. RouteAdvertisements 객체
필드유형설명

metadata.name

string

RouteAdvertisements 개체의 이름을 지정합니다.

광고

array

광고할 다양한 유형의 네트워크 목록을 포함할 수 있는 배열을 지정합니다. "PodNetwork""EgressIP" 값만 지원합니다.

frrConfigurationSelector

object

OVN-Kubernetes 기반 FRRConfiguration CR이 어떤 FRRConfiguration CR을 기반으로 하는지 결정합니다.

networkSelector

object

기본 클러스터 네트워크와 클러스터 사용자 정의 네트워크(CUDN) 중에서 어떤 네트워크를 광고할지 지정합니다.

nodeSelector

object

광고를 선택한 노드로 제한합니다. advertisements="PodNetwork"를 선택하면 모든 노드를 선택해야 합니다. advertisements="EgressIP"를 선택하면, 선택된 노드에 할당된 송신 IP 주소만 광고됩니다.

targetVRF

string

어떤 라우터에 경로를 광고할지 결정합니다. 선택된 FRRConfiguration CR에 지정된 대로 이 가상 라우팅 및 전달(VRF) 대상과 연관된 라우터에 경로가 광고됩니다. 생략하면 기본 VRF가 대상으로 사용됩니다. auto 로 지정하면 네트워크 이름과 같은 이름을 가진 VRF가 대상으로 사용됩니다.

6.1.3. BGP를 사용한 Pod IP 주소 광고 예시

다음 예제에서는 BGP(Border Gateway Protocol)를 사용하여 Pod IP 주소와 EgressIP를 광고하기 위한 여러 가지 구성을 설명합니다. 외부 네트워크 경계 라우터의 IP 주소는 172.18.0.5 입니다. 이러한 구성에서는 클러스터 네트워크의 모든 노드에 경로를 전달할 수 있는 외부 경로 리플렉터를 구성했다고 가정합니다.

6.1.3.1. 기본 클러스터 네트워크 광고

이 시나리오에서는 기본 클러스터 네트워크가 외부 네트워크에 노출되어 Pod IP 주소와 EgressIP가 공급자 네트워크에 광고됩니다.

이 시나리오는 다음 FRRConfiguration 개체에 의존합니다.

FRR구성 CR

apiVersion: k8s.ovn.org/v1
kind: RouteAdvertisements
metadata:
  name: default
spec:
  advertisements:
  - PodNetwork
  - EgressIP
  networkSelectors:
  - networkSelectionType: DefaultNetwork
  frrConfigurationSelector:
    matchLabels:
      routeAdvertisements: receive-all
  nodeSelector: {}
Copy to Clipboard Toggle word wrap

OVN-Kubernetes 컨트롤러가 이 RouteAdvertisements CR을 보면 선택한 객체를 기반으로 추가 FRRConfiguration 객체를 생성하여 FRR 데몬이 기본 클러스터 네트워크에 대한 경로를 광고하도록 구성합니다.

OVN-Kubernetes에서 생성된 FRRConfiguration CR의 예

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: ovnk-generated-abcdef
  namespace: openshift-frr-k8s
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
        - address: 172.18.0.5
          asn: 64512
          toReceive:
            allowed:
              mode: filtered
          toAdvertise:
            allowed:
              prefixes:
              - <default_network_host_subnet>
      prefixes:
      - <default_network_host_subnet>
  nodeSelector:
    matchLabels:
      kubernetes.io/hostname: ovn-worker
Copy to Clipboard Toggle word wrap

생성된 FRRConfiguration 개체의 예에서 <default_network_host_subnet> 은 공급자 네트워크에 광고되는 기본 클러스터 네트워크의 서브넷입니다.

6.1.3.2. BGP를 통한 클러스터 사용자 정의 네트워크의 광고 포드 IP

이 시나리오에서는 블루 클러스터 사용자 정의 네트워크(CUDN)가 외부 네트워크에 노출되어 네트워크의 Pod IP 주소와 EgressIP가 공급자 네트워크에 광고됩니다.

이 시나리오는 다음 FRRConfiguration 개체에 의존합니다.

FRR구성 CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: receive-all
  namespace: openshift-frr-k8s
  labels:
    routeAdvertisements: receive-all
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 172.18.0.5
        asn: 64512
        disableMP: true
        toReceive:
          allowed:
            mode: all
Copy to Clipboard Toggle word wrap

FRRConfiguration 객체를 사용하면 이웃 172.18.0.5 의 경로가 기본 VRF로 가져와지고 기본 클러스터 네트워크에서 사용할 수 있습니다.

CUDN은 다음 다이어그램에 표시된 대로 기본 VRF를 통해 광고됩니다.

레드 쿠딘
  • CUDN이 red인 것과 연관된 red 라는 이름의 VRF
  • 10.0.0.0/24 의 서브넷
블루 CUDN
  • CUDN이 blue 인 것과 연관된 blue 라는 이름의 VRF
  • 10.0.1.0/24 의 서브넷

이 구성에서는 두 개의 별도 CUDN이 정의됩니다. 빨간색 네트워크는 10.0.0.0/24 서브넷을 포함하고, 파란색 네트워크는 10.0.1.0/24 서브넷을 포함합니다. 빨간색과 파란색 네트워크는 export: true 로 표시됩니다.

다음 RouteAdvertisements CR은 빨간색 및 파란색 테넌트에 대한 구성을 설명합니다.

빨간색 및 파란색 세입자를 위한 RouteAdvertisements CR

apiVersion: k8s.ovn.org/v1
kind: RouteAdvertisements
metadata:
  name: advertise-cudns
spec:
  advertisements:
  - PodNetwork
  - EgressIP
  networkSelectors:
  - networkSelectionType: ClusterUserDefinedNetworks
    clusterUserDefinedNetworkSelector:
      networkSelector:
        matchLabels:
          export: "true"
  frrConfigurationSelector:
    matchLabels:
      routeAdvertisements: receive-all
  nodeSelector: {}
Copy to Clipboard Toggle word wrap

OVN-Kubernetes 컨트롤러가 이 RouteAdvertisements CR을 보면 선택된 객체를 기반으로 추가 FRRConfiguration 객체를 생성하여 FRR 데몬이 경로를 광고하도록 구성합니다. 다음 예는 그러한 구성 객체 중 하나이며, 선택된 노드와 네트워크에 따라 생성되는 FRRConfiguration 객체의 수가 달라집니다.

OVN-Kubernetes에서 생성된 FRRConfiguration CR의 예

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: ovnk-generated-abcdef
  namespace: openshift-frr-k8s
spec:
  bgp:
    routers:
    - asn: 64512
      vrf: blue
      imports:
      - vrf: default
    - asn: 64512
      neighbors:
        - address: 172.18.0.5
          asn: 64512
          toReceive:
            allowed:
              mode: filtered
          toAdvertise:
            allowed:
              prefixes:
              - 10.0.1.0/24
      prefixes:
      - 10.0.1.0/24
      imports:
      - vrf: blue
  nodeSelector:
    matchLabels:
      kubernetes.io/hostname: ovn-worker
Copy to Clipboard Toggle word wrap

생성된 FRRConfiguration 객체는 네트워크 블루에 속하는 서브넷 10.0.1.0/24를 기본 VRF로 가져와서 172.18.0.5 이웃에게 알리도록 구성합니다. RouteAdvertisements CR에서 선택한 각 네트워크와 노드에 대해 적절한 접두사가 적용된 FRRConfiguration 개체가 생성됩니다.

targetVRF 필드가 생략되면 경로가 누출되어 기본 VRF를 통해 광고됩니다. 또한, 초기 FRRConfiguration 객체가 정의된 후 기본 VRF로 가져온 경로도 파란색 VRF로 가져옵니다.

이 시나리오에서는 VLAN 인터페이스가 블루 네트워크와 연결된 VRF 장치에 연결됩니다. 이 설정은 FRR-K8S가 블루 네트워크 VRF/VLAN 링크의 해당 BGP 세션을 통해서만 블루 네트워크를 광고하고 다음 홉 Provide Edge(PE) 라우터에 알리는 데 사용되는 VRF 라이트 디자인을 제공합니다. 빨간색 세입자는 동일한 구성을 사용합니다. 파란색과 빨간색 네트워크는 export: true 로 표시됩니다.

중요

이 시나리오에서는 EgressIP 사용이 지원되지 않습니다.

다음 다이어그램은 이 구성을 보여줍니다.

레드 쿠딘
  • CUDN이 red인 것과 연관된 red 라는 이름의 VRF
  • VRF 장치에 부착되고 외부 PE 라우터에 연결된 VLAN 인터페이스
  • 10.0.2.0/24 의 할당된 서브넷
블루 CUDN
  • CUDN이 blue 인 것과 연관된 blue 라는 이름의 VRF
  • VRF 장치에 부착되고 외부 PE 라우터에 연결된 VLAN 인터페이스
  • 10.0.1.0/24 의 할당된 서브넷
참고

이 접근 방식은 OVN-Kubernetes 네트워크 플러그인의 ovnKubernetesConfig.gatewayConfig 사양에서 routingViaHost=true를 설정한 경우에만 사용할 수 있습니다.

다음 구성에서 추가 FRRConfiguration CR은 파란색 및 빨간색 VLAN의 PE 라우터와의 피어링을 구성합니다.

FRRConfiguration CR이 BGP VPN 설정을 위해 수동으로 구성되었습니다.

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: vpn-blue-red
  namespace: openshift-frr-k8s
  labels:
    routeAdvertisements: vpn-blue-red
spec:
  bgp:
    routers:
    - asn: 64512
      vrf: blue
      neighbors:
      - address: 182.18.0.5
        asn: 64512
        toReceive:
          allowed:
            mode: filtered
    - asn: 64512
      vrf: red
      neighbors:
      - address: 192.18.0.5
        asn: 64512
        toReceive:
          allowed:
            mode: filtered
Copy to Clipboard Toggle word wrap

다음 RouteAdvertisements CR은 블루 및 레드 테넌트에 대한 구성을 설명합니다.

파란색 및 빨간색 세입자를 위한 RouteAdvertisements CR

apiVersion: k8s.ovn.org/v1
kind: RouteAdvertisements
metadata:
  name: advertise-vrf-lite
spec:
  targetVRF: auto
  advertisements:
  - "PodNetwork"
  nodeSelector: {}
  frrConfigurationSelector:
    matchLabels:
      routeAdvertisements: vpn-blue-red
  networkSelectors:
  - networkSelectionType: ClusterUserDefinedNetworks
    clusterUserDefinedNetworkSelector:
      networkSelector:
        matchLabels:
          export: "true"
Copy to Clipboard Toggle word wrap

RouteAdvertisements CR에서 targetVRF는 자동 으로 설정되어 광고가 선택된 개별 네트워크에 해당하는 VRF 장치 내에서 발생합니다. 이 시나리오에서 파란색의 포드 서브넷은 파란색 VRF 장치를 통해 광고되고, 빨간색의 포드 서브넷은 빨간색 VRF 장치를 통해 광고됩니다. 또한 각 BGP 세션은 초기 FRRConfiguration 개체에서 정의한 해당 CUDN VRF에 대한 경로만 가져옵니다.

OVN-Kubernetes 컨트롤러가 이 RouteAdvertisements CR을 보면 선택된 객체를 기반으로 추가 FRRConfiguration 객체를 생성하여 FRR 데몬이 블루 및 레드 테넌트에 대한 경로를 광고하도록 구성합니다.

OVN-Kubernetes에서 블루 및 레드 테넌트에 대해 생성된 FRRConfiguration CR

apiVersion: frrk8s.metallb.io/v1beta1
kind: FRRConfiguration
metadata:
  name: ovnk-generated-abcde
  namespace: openshift-frr-k8s
spec:
  bgp:
    routers:
    - asn: 64512
      neighbors:
      - address: 182.18.0.5
        asn: 64512
        toReceive:
          allowed:
            mode: filtered
        toAdvertise:
          allowed:
            prefixes:
            - 10.0.1.0/24
      vrf: blue
      prefixes:
        - 10.0.1.0/24
    - asn: 64512
      neighbors:
      - address: 192.18.0.5
        asn: 64512
        toReceive:
          allowed:
            mode: filtered
        toAdvertise:
          allowed:
            prefixes:
            - 10.0.2.0/24
      vrf: red
      prefixes:
         - 10.0.2.0/24
  nodeSelector:
     matchLabels:
        kubernetes.io/hostname: ovn-worker
Copy to Clipboard Toggle word wrap

이 시나리오에서 수신할 경로의 필터링이나 선택은 피어링 관계를 정의하는 FRRConfiguration CR에서 수행해야 합니다.

6.2. 경로 광고 활성화

클러스터 관리자는 클러스터에 대한 추가 경로 알림을 구성할 수 있습니다. OVN-Kubernetes 네트워크 플러그인을 사용해야 합니다.

6.2.1. 경로 광고 활성화

클러스터 관리자는 클러스터에 대한 추가 라우팅 지원을 활성화할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • 클러스터 관리자 역할이 있는 사용자로 클러스터에 로그인했습니다.
  • 클러스터는 호환 가능한 인프라에 설치됩니다.

프로세스

  • 라우팅 공급자와 추가 경로 알림을 활성화하려면 다음 명령을 입력하세요.

    $ oc patch Network.operator.openshift.io cluster --type=merge \
      -p='{
        "spec": {
          "additionalRoutingCapabilities": {
            "providers": ["FRR"]
            },
            "defaultNetwork": {
              "ovnKubernetesConfig": {
                "routeAdvertisements": "Enabled"
        }}}}'
    Copy to Clipboard Toggle word wrap

6.3. 경로 광고 비활성화

클러스터 관리자는 클러스터에 대한 추가 경로 알림을 비활성화할 수 있습니다.

6.3.1. 경로 광고 비활성화

클러스터 관리자는 클러스터에 대한 추가 경로 알림을 비활성화할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • 클러스터 관리자 역할이 있는 사용자로 클러스터에 로그인했습니다.
  • 클러스터는 호환 가능한 인프라에 설치됩니다.

프로세스

  • 추가 라우팅 지원을 비활성화하려면 다음 명령을 입력하세요.

    $ oc patch network.operator cluster -p '{
      "spec": {
        "defaultNetwork": {
          "ovnKubernetesConfig": {
            "routeAdvertisements": "Disabled"
          }
        }
      }
    }'
    Copy to Clipboard Toggle word wrap

6.4. 경로 광고 설정 예시

클러스터 관리자는 클러스터에 대한 다음 예제 경로 광고 설정을 구성할 수 있습니다. 이 구성은 경로 광고를 구성하는 방법을 보여주는 샘플입니다.

6.4.1. 샘플 경로 광고 설정

클러스터 관리자는 클러스터에 대한 BGP(Border Gateway Protocol) 라우팅 지원을 활성화할 수 있습니다. 이 구성은 경로 광고를 구성하는 방법을 보여주는 샘플입니다. 이 구성에서는 전체 메시 설정 대신 경로 반사를 사용합니다.

참고

BGP 라우팅은 베어메탈 인프라에서만 지원됩니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 클러스터에 로그인합니다.
  • 클러스터는 베어메탈 인프라에 설치됩니다.
  • FRR 데몬 컨테이너를 실행할 클러스터에 액세스할 수 있는 베어 메탈 시스템이 있습니다.

프로세스

  1. 다음 명령을 실행하여 RouteAdvertisements 기능 게이트가 활성화되었는지 확인하세요.

    $ oc get featuregate -oyaml | grep -i routeadvertisement
    Copy to Clipboard Toggle word wrap

    출력 예

          - name: RouteAdvertisements
    Copy to Clipboard Toggle word wrap

  2. 다음 명령을 실행하여 클러스터 네트워크 운영자(CNO)를 구성합니다.

    $ oc patch Network.operator.openshift.io cluster --type=merge \
      -p='
        {"spec":{
          "additionalRoutingCapabilities": {
            "providers": ["FRR"]},
            "defaultNetwork":{"ovnKubernetesConfig"{
              "routeAdvertisements":"Enabled"
              }}}}'
    Copy to Clipboard Toggle word wrap

    CNO가 모든 노드를 다시 시작하는 데 몇 분이 걸릴 수 있습니다.

  3. 다음 명령을 실행하여 노드의 IP 주소를 가져옵니다.

    $ oc get node -owide
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                                       STATUS   ROLES                  AGE   VERSION   INTERNAL-IP      EXTERNAL-IP   OS-IMAGE                                                KERNEL-VERSION                 CONTAINER-RUNTIME
    master-0                                   Ready    control-plane,master   27h   v1.31.3   192.168.111.20   <none>        Red Hat Enterprise Linux CoreOS 418.94.202501062026-0   5.14.0-427.50.1.el9_4.x86_64   cri-o://1.31.4-2.rhaos4.18.git33d7598.el9
    master-1                                   Ready    control-plane,master   27h   v1.31.3   192.168.111.21   <none>        Red Hat Enterprise Linux CoreOS 418.94.202501062026-0   5.14.0-427.50.1.el9_4.x86_64   cri-o://1.31.4-2.rhaos4.18.git33d7598.el9
    master-2                                   Ready    control-plane,master   27h   v1.31.3   192.168.111.22   <none>        Red Hat Enterprise Linux CoreOS 418.94.202501062026-0   5.14.0-427.50.1.el9_4.x86_64   cri-o://1.31.4-2.rhaos4.18.git33d7598.el9
    worker-0                                   Ready    worker                 27h   v1.31.3   192.168.111.23   <none>        Red Hat Enterprise Linux CoreOS 418.94.202501062026-0   5.14.0-427.50.1.el9_4.x86_64   cri-o://1.31.4-2.rhaos4.18.git33d7598.el9
    worker-1                                   Ready    worker                 27h   v1.31.3   192.168.111.24   <none>        Red Hat Enterprise Linux CoreOS 418.94.202501062026-0   5.14.0-427.50.1.el9_4.x86_64   cri-o://1.31.4-2.rhaos4.18.git33d7598.el9
    worker-2                                   Ready    worker                 27h   v1.31.3   192.168.111.25   <none>        Red Hat Enterprise Linux CoreOS 418.94.202501062026-0   5.14.0-427.50.1.el9_4.x86_64   cri-o://1.31.4-2.rhaos4.18.git33d7598.el9
    Copy to Clipboard Toggle word wrap

  4. 다음 명령을 실행하여 각 노드의 기본 Pod 네트워크를 가져옵니다.

    $ oc get node <node_name> -o=jsonpath={.metadata.annotations.k8s\\.ovn\\.org/node-subnets}
    Copy to Clipboard Toggle word wrap

    출력 예

    {"default":["10.129.0.0/23"],"ns1.udn-network-primary-layer3":["10.150.6.0/24"]}
    Copy to Clipboard Toggle word wrap

  5. 베어 메탈 하이퍼바이저에서 다음 명령을 실행하여 사용할 외부 FRR 컨테이너의 IP 주소를 가져옵니다.

    $ ip -j -d route get <a cluster node's IP> | jq -r '.[] | .dev' | xargs ip -d -j address show | jq -r '.[] | .addr_info[0].local'
    Copy to Clipboard Toggle word wrap
  6. 다음 예와 같이 각 노드의 IP 주소를 포함하는 FRR에 대한 frr.conf 파일을 만듭니다.

    frr.conf 구성 파일 예시

    router bgp 64512
     no bgp default ipv4-unicast
     no bgp default ipv6-unicast
     no bgp network import-check
     neighbor 192.168.111.20 remote-as 64512
     neighbor 192.168.111.20 route-reflector-client
     neighbor 192.168.111.21 remote-as 64512
     neighbor 192.168.111.21 route-reflector-client
     neighbor 192.168.111.22 remote-as 64512
     neighbor 192.168.111.22 route-reflector-client
     neighbor 192.168.111.40 remote-as 64512
     neighbor 192.168.111.40 route-reflector-client
     neighbor 192.168.111.47 remote-as 64512
     neighbor 192.168.111.47 route-reflector-client
     neighbor 192.168.111.23 remote-as 64512
     neighbor 192.168.111.23 route-reflector-client
     neighbor 192.168.111.24 remote-as 64512
     neighbor 192.168.111.24 route-reflector-client
     neighbor 192.168.111.25 remote-as 64512
     neighbor 192.168.111.25 route-reflector-client
     address-family ipv4 unicast
      network 192.168.1.0/24
      network 192.169.1.1/32
     exit-address-family
     address-family ipv4 unicast
      neighbor 192.168.111.20 activate
      neighbor 192.168.111.20 next-hop-self
      neighbor 192.168.111.21 activate
      neighbor 192.168.111.21 next-hop-self
      neighbor 192.168.111.22 activate
      neighbor 192.168.111.22 next-hop-self
      neighbor 192.168.111.40 activate
      neighbor 192.168.111.40 next-hop-self
      neighbor 192.168.111.47 activate
      neighbor 192.168.111.47 next-hop-self
      neighbor 192.168.111.23 activate
      neighbor 192.168.111.23 next-hop-self
      neighbor 192.168.111.24 activate
      neighbor 192.168.111.24 next-hop-self
      neighbor 192.168.111.25 activate
      neighbor 192.168.111.25 next-hop-self
     exit-address-family
     neighbor  remote-as 64512
     neighbor  route-reflector-client
     address-family ipv6 unicast
      network 2001:db8::/128
     exit-address-family
     address-family ipv6 unicast
      neighbor  activate
      neighbor  next-hop-self
     exit-address-family
    Copy to Clipboard Toggle word wrap

  7. 다음 내용을 포함하는 daemons 라는 파일을 만듭니다.

    데몬 구성 파일 예

    # This file tells the frr package which daemons to start.
    #
    # Sample configurations for these daemons can be found in
    # /usr/share/doc/frr/examples/.
    #
    # ATTENTION:
    #
    # When activating a daemon for the first time, a config file, even if it is
    # empty, has to be present *and* be owned by the user and group "frr", else
    # the daemon will not be started by /etc/init.d/frr. The permissions should
    # be u=rw,g=r,o=.
    # When using "vtysh" such a config file is also needed. It should be owned by
    # group "frrvty" and set to ug=rw,o= though. Check /etc/pam.d/frr, too.
    #
    # The watchfrr and zebra daemons are always started.
    #
    bgpd=yes
    ospfd=no
    ospf6d=no
    ripd=no
    ripngd=no
    isisd=no
    pimd=no
    ldpd=no
    nhrpd=no
    eigrpd=no
    babeld=no
    sharpd=no
    pbrd=no
    bfdd=yes
    fabricd=no
    vrrpd=no
    
    #
    # If this option is set the /etc/init.d/frr script automatically loads
    # the config via "vtysh -b" when the servers are started.
    # Check /etc/pam.d/frr if you intend to use "vtysh"!
    #
    vtysh_enable=yes
    zebra_options="  -A 127.0.0.1 -s 90000000"
    bgpd_options="   -A 127.0.0.1"
    ospfd_options="  -A 127.0.0.1"
    ospf6d_options=" -A ::1"
    ripd_options="   -A 127.0.0.1"
    ripngd_options=" -A ::1"
    isisd_options="  -A 127.0.0.1"
    pimd_options="   -A 127.0.0.1"
    ldpd_options="   -A 127.0.0.1"
    nhrpd_options="  -A 127.0.0.1"
    eigrpd_options=" -A 127.0.0.1"
    babeld_options=" -A 127.0.0.1"
    sharpd_options=" -A 127.0.0.1"
    pbrd_options="   -A 127.0.0.1"
    staticd_options="-A 127.0.0.1"
    bfdd_options="   -A 127.0.0.1"
    fabricd_options="-A 127.0.0.1"
    vrrpd_options="  -A 127.0.0.1"
    
    # configuration profile
    #
    #frr_profile="traditional"
    #frr_profile="datacenter"
    
    #
    # This is the maximum number of FD's that will be available.
    # Upon startup this is read by the control files and ulimit
    # is called. Uncomment and use a reasonable value for your
    # setup if you are expecting a large number of peers in
    # say BGP.
    #MAX_FDS=1024
    
    # The list of daemons to watch is automatically generated by the init script.
    #watchfrr_options=""
    
    # for debugging purposes, you can specify a "wrap" command to start instead
    # of starting the daemon directly, e.g. to use valgrind on ospfd:
    #   ospfd_wrap="/usr/bin/valgrind"
    # or you can use "all_wrap" for all daemons, e.g. to use perf record:
    #   all_wrap="/usr/bin/perf record --call-graph -"
    # the normal daemon command is added to this at the end.
    Copy to Clipboard Toggle word wrap

  8. frr.confdaemons 파일을 모두 같은 디렉토리(예: /tmp/frr) 에 저장합니다.
  9. 다음 명령을 실행하여 외부 FRR 컨테이너를 만듭니다.

    $ sudo podman run -d --privileged --network host --rm --ulimit core=-1 --name frr --volume /tmp/frr:/etc/frr quay.io/frrouting/frr:9.1.0
    Copy to Clipboard Toggle word wrap
  10. 다음 FRRConfigurationRouteAdvertisements 구성을 만듭니다.

    1. 다음 내용을 포함하는 receive_all.yaml 파일을 만듭니다.

      receive_all.yaml 구성 파일 예시

      apiVersion: frrk8s.metallb.io/v1beta1
      kind: FRRConfiguration
      metadata:
        name: receive-all
        namespace: openshift-frr-k8s
      spec:
        bgp:
          routers:
          - asn: 64512
            neighbors:
            - address: 192.168.111.1
              asn: 64512
              toReceive:
                allowed:
                  mode: all
      Copy to Clipboard Toggle word wrap

    2. 다음 내용을 포함하는 ra.yaml 파일을 만듭니다.

      ra.yaml 구성 파일 예시

      apiVersion: k8s.ovn.org/v1
      kind: RouteAdvertisements
      metadata:
        name: default
      spec:
        nodeSelector: {}
        frrConfigurationSelector: {}
        networkSelectors:
        - networkSelectionType: DefaultNetwork
        advertisements:
        - "PodNetwork"
        - "EgressIP"
      Copy to Clipboard Toggle word wrap

  11. 다음 명령을 실행하여 receive_all.yamlra.yaml 파일을 적용합니다.

    $ for f in receive_all.yaml ra.yaml; do oc apply -f $f; done
    Copy to Clipboard Toggle word wrap

검증

  1. 구성이 적용되었는지 확인하세요.

    1. 다음 명령을 실행하여 FRRConfiguration 구성이 생성되었는지 확인하세요.

      $ oc get frrconfiguration -A
      Copy to Clipboard Toggle word wrap

      출력 예

      NAMESPACE           NAME                   AGE
      openshift-frr-k8s   ovnk-generated-6lmfb   4h47m
      openshift-frr-k8s   ovnk-generated-bhmnm   4h47m
      openshift-frr-k8s   ovnk-generated-d2rf5   4h47m
      openshift-frr-k8s   ovnk-generated-f958l   4h47m
      openshift-frr-k8s   ovnk-generated-gmsmw   4h47m
      openshift-frr-k8s   ovnk-generated-kmnqg   4h47m
      openshift-frr-k8s   ovnk-generated-wpvgb   4h47m
      openshift-frr-k8s   ovnk-generated-xq7v6   4h47m
      openshift-frr-k8s   receive-all            4h47m
      Copy to Clipboard Toggle word wrap

    2. 다음 명령을 실행하여 RouteAdvertisements 구성이 생성되었는지 확인하세요.

      $ oc get ra -A
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME      STATUS
      default   Accepted
      Copy to Clipboard Toggle word wrap

  2. 다음 명령을 실행하여 외부 FRR 컨테이너 ID를 가져옵니다.

    $ sudo podman ps | grep frr
    Copy to Clipboard Toggle word wrap

    출력 예

    22cfc713890e  quay.io/frrouting/frr:9.1.0              /usr/lib/frr/dock...  5 hours ago   Up 5 hours ago               frr
    Copy to Clipboard Toggle word wrap

  3. 이전 단계에서 얻은 컨테이너 ID를 사용하여 외부 FRR 컨테이너의 vtysh 세션에서 BGP 이웃과 경로를 확인합니다. 다음 명령을 실행합니다.

    $ sudo podman exec -it <container_id> vtysh -c "show ip bgp"
    Copy to Clipboard Toggle word wrap

    출력 예

    BGP table version is 10, local router ID is 192.168.111.1, vrf id 0
    Default local pref 100, local AS 64512
    Status codes:  s suppressed, d damped, h history, * valid, > best, = multipath,
                   i internal, r RIB-failure, S Stale, R Removed
    Nexthop codes: @NNN nexthop's vrf id, < announce-nh-self
    Origin codes:  i - IGP, e - EGP, ? - incomplete
    RPKI validation codes: V valid, I invalid, N Not found
    
        Network          Next Hop            Metric LocPrf Weight Path
     *>i10.128.0.0/23    192.168.111.22           0    100      0 i
     *>i10.128.2.0/23    192.168.111.23           0    100      0 i
     *>i10.129.0.0/23    192.168.111.20           0    100      0 i
     *>i10.129.2.0/23    192.168.111.24           0    100      0 i
     *>i10.130.0.0/23    192.168.111.21           0    100      0 i
     *>i10.130.2.0/23    192.168.111.40           0    100      0 i
     *>i10.131.0.0/23    192.168.111.25           0    100      0 i
     *>i10.131.2.0/23    192.168.111.47           0    100      0 i
     *> 192.168.1.0/24   0.0.0.0                  0         32768 i
     *> 192.169.1.1/32   0.0.0.0                  0         32768 i
    Copy to Clipboard Toggle word wrap

  4. 다음 명령을 실행하여 각 클러스터 노드의 frr-k8s Pod를 찾으세요.

    $ oc -n openshift-frr-k8s get pod -owide
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                                      READY   STATUS    RESTARTS   AGE   IP               NODE                                       NOMINATED NODE   READINESS GATES
    frr-k8s-86wmq                             6/6     Running   0          25h   192.168.111.20   master-0                                   <none>           <none>
    frr-k8s-h2wl6                             6/6     Running   0          25h   192.168.111.21   master-1                                   <none>           <none>
    frr-k8s-jlbgs                             6/6     Running   0          25h   192.168.111.40   node1.example.com   <none>           <none>
    frr-k8s-qc6l5                             6/6     Running   0          25h   192.168.111.25   worker-2                                   <none>           <none>
    frr-k8s-qtxdc                             6/6     Running   0          25h   192.168.111.47   node2.example.com   <none>           <none>
    frr-k8s-s5bxh                             6/6     Running   0          25h   192.168.111.24   worker-1                                   <none>           <none>
    frr-k8s-szgj9                             6/6     Running   0          25h   192.168.111.22   master-2                                   <none>           <none>
    frr-k8s-webhook-server-6cd8b8d769-kmctw   1/1     Running   0          25h   10.131.2.9       node3.example.com   <none>           <none>
    frr-k8s-zwmgh                             6/6     Running   0          25h   192.168.111.23   worker-0                                   <none>           <none>
    Copy to Clipboard Toggle word wrap

  5. OpenShift Container Platform 클러스터에서 다음 명령을 실행하여 FRR 컨테이너의 클러스터 노드 frr-k8s Pod에서 BGP 경로를 확인합니다.

    $ oc -n openshift-frr-k8s -c frr rsh frr-k8s-86wmq
    Copy to Clipboard Toggle word wrap
  6. 다음 명령을 실행하여 클러스터 노드의 IP 경로를 확인하세요.

    sh-5.1# vtysh
    Copy to Clipboard Toggle word wrap

    출력 예

    Hello, this is FRRouting (version 8.5.3).
    Copyright 1996-2005 Kunihiro Ishiguro, et al.
    Copy to Clipboard Toggle word wrap

  7. 다음 명령을 실행하여 IP 경로를 확인하세요.

    worker-2# show ip bgp
    Copy to Clipboard Toggle word wrap

    출력 예

    BGP table version is 10, local router ID is 192.168.111.25, vrf id 0
    Default local pref 100, local AS 64512
    Status codes:  s suppressed, d damped, h history, * valid, > best, = multipath,
                   i internal, r RIB-failure, S Stale, R Removed
    Nexthop codes: @NNN nexthop's vrf id, < announce-nh-self
    Origin codes:  i - IGP, e - EGP, ? - incomplete
    RPKI validation codes: V valid, I invalid, N Not found
    
        Network          Next Hop            Metric LocPrf Weight Path
     *>i10.128.0.0/23    192.168.111.22           0    100      0 i
     *>i10.128.2.0/23    192.168.111.23           0    100      0 i
     *>i10.129.0.0/23    192.168.111.20           0    100      0 i
     *>i10.129.2.0/23    192.168.111.24           0    100      0 i
     *>i10.130.0.0/23    192.168.111.21           0    100      0 i
     *>i10.130.2.0/23    192.168.111.40           0    100      0 i
     *> 10.131.0.0/23    0.0.0.0                  0         32768 i
     *>i10.131.2.0/23    192.168.111.47           0    100      0 i
     *>i192.168.1.0/24   192.168.111.1            0    100      0 i
     *>i192.169.1.1/32   192.168.111.1            0    100      0 i
    
    Displayed  10 routes and 10 total paths
    Copy to Clipboard Toggle word wrap

  8. OpenShift Container Platform 클러스터에서 다음 명령을 실행하여 노드를 디버깅합니다.

    $ oc debug node/<node_name>
    Copy to Clipboard Toggle word wrap

    출력 예

    Temporary namespace openshift-debug-lbtgh is created for debugging node...
    Starting pod/worker-2-debug-zrg4v ...
    To use host binaries, run `chroot /host`
    Pod IP: 192.168.111.25
    If you don't see a command prompt, try pressing enter.
    Copy to Clipboard Toggle word wrap

  9. 다음 명령을 실행하여 BGP 경로가 광고되는지 확인하세요.

    sh-5.1# ip route show | grep bgp
    Copy to Clipboard Toggle word wrap

    출력 예

    10.128.0.0/23 nhid 268 via 192.168.111.22 dev br-ex proto bgp metric 20
    10.128.2.0/23 nhid 259 via 192.168.111.23 dev br-ex proto bgp metric 20
    10.129.0.0/23 nhid 260 via 192.168.111.20 dev br-ex proto bgp metric 20
    10.129.2.0/23 nhid 261 via 192.168.111.24 dev br-ex proto bgp metric 20
    10.130.0.0/23 nhid 266 via 192.168.111.21 dev br-ex proto bgp metric 20
    10.130.2.0/23 nhid 262 via 192.168.111.40 dev br-ex proto bgp metric 20
    10.131.2.0/23 nhid 263 via 192.168.111.47 dev br-ex proto bgp metric 20
    192.168.1.0/24 nhid 264 via 192.168.111.1 dev br-ex proto bgp metric 20
    192.169.1.1 nhid 264 via 192.168.111.1 dev br-ex proto bgp metric 20
    Copy to Clipboard Toggle word wrap

7장. PTP 하드웨어 사용

7.1. OpenShift 클러스터 노드의 PTP에 관하여

PTP(Precision Time Protocol)는 네트워크에서 클록을 동기화하는 데 사용됩니다. 하드웨어 지원과 함께 사용할 경우 PTP는 마이크로초 미만의 정확성을 수행할 수 있으며 NTP(Network Time Protocol)보다 더 정확합니다.

중요

PTP가 있는 OpenShift-SDN 클러스터가 하드웨어 타임스탬핑에 UDP(사용자 데이터그램 프로토콜)를 사용하고 OVN-Kubernetes 플러그인으로 마이그레이션하는 경우, 하드웨어 타임스탬핑을 Open vSwitch(OVS) 브리지와 같은 기본 인터페이스 장치에 적용할 수 없습니다. 결과적으로 UDP 버전 4 구성은 br-ex 인터페이스와 함께 작동할 수 없습니다.

OpenShift Container Platform 클러스터 노드에서 linuxptp 서비스를 구성하고 PTP 지원 하드웨어를 사용할 수 있습니다.

PTP Operator를 배포하여 OpenShift Container Platform 웹 콘솔이나 OpenShift CLI( oc )를 사용하여 PTP를 설치합니다. PTP Operator는 linuxptp 서비스를 생성 및 관리하고 다음 기능을 제공합니다.

  • 클러스터에서 PTP 가능 장치 검색.
  • linuxptp 서비스의 구성 관리.
  • PTP Operator cloud-event-proxy 사이드카를 사용하여 애플리케이션의 성능 및 안정성에 부정적인 영향을 주는 PTP 클록 이벤트 알림
참고

PTP Operator는 베어 메탈 인프라에서만 프로비저닝된 클러스터에서 PTP 가능 장치와 함께 작동합니다.

7.1.1. PTP 도메인의 요소

PTP는 네트워크에 연결된 여러 노드를 각 노드의 클럭과 동기화하는 데 사용됩니다. PTP에 의해 동기화된 시계는 리더-팔로워 계층 구조로 구성됩니다. 계층 구조는 모든 클록에서 실행되는 최적 마스터 클록(BMC) 알고리즘에 의해 자동으로 생성되고 업데이트됩니다. 팔로워 클록은 리더 클록과 동기화되며, 팔로워 클록 자체가 다른 다운스트림 클록의 소스가 될 수 있습니다.

그림 7.1. 네트워크의 PTP 노드

PTP 클록의 세 가지 주요 유형은 아래와 같습니다.

GRandmaster 클록
마스터 클록은 네트워크의 다른 클록에 표준 시간 정보를 제공하며 정확하고 안정적인 동기화를 보장합니다. 타임스탬프를 작성하고 다른 시계의 시간 요청에 응답합니다. 그랜드마스터 시계는 GNSS(Global Navigation Satellite System) 시간 소스와 동기화됩니다. 그랜드마스터 클록은 네트워크에서 시간의 권위 있는 소스이며, 다른 모든 장치에 시간 동기화를 제공하는 역할을 합니다.
경계 클록
경계 클록에는 두 개 이상의 통신 경로에 포트가 있으며, 동시에 소스와 다른 대상 클록의 대상일 수 있습니다. 경계 클록은 대상 클록으로 작동합니다. 대상 클럭이 타이밍 메시지를 수신하고 지연을 조정한 다음 네트워크를 전달하기 위한 새 소스 시간 신호를 생성합니다. 경계 클록은 소스 클록과 정확하게 동기화되는 새로운 타이밍 패킷을 생성하며 소스 클럭에 직접 보고하는 연결된 장치의 수를 줄일 수 있습니다.
일반 클록
일반 클록에는 네트워크의 위치에 따라 소스 또는 대상 클록의 역할을 수행할 수 있는 단일 포트가 연결되어 있습니다. 일반 클록은 타임스탬프를 읽고 쓸 수 있습니다.
7.1.1.1. NTP를 통한 PTP의 이점

PTP가 NTP를 능가하는 주요 이점 중 하나는 다양한 NIC(네트워크 인터페이스 컨트롤러) 및 네트워크 스위치에 있는 하드웨어 지원입니다. 특수 하드웨어를 사용하면 PTP가 메시지 전송 지연을 고려하여 시간 동기화의 정확성을 향상시킬 수 있습니다. 최대한의 정확성을 달성하려면 PTP 클록 사이의 모든 네트워킹 구성 요소를 PTP 하드웨어를 사용하도록 설정하는 것이 좋습니다.

NIC는 전송 및 수신 즉시 PTP 패킷을 타임스탬프할 수 있으므로 하드웨어 기반 PTP는 최적의 정확성을 제공합니다. 이를 운영 체제에서 PTP 패킷을 추가로 처리해야 하는 소프트웨어 기반 PTP와 비교합니다.

중요

PTP를 활성화하기 전에 필수 노드에 대해 NTP가 비활성화되어 있는지 확인합니다. MachineConfig 사용자 정의 리소스를 사용하여 chrony 타임 서비스 (chronyd)를 비활성화할 수 있습니다. 자세한 내용은 chrony 타임 서비스 비활성화를 참조하십시오.

7.1.2. OpenShift Container Platform 노드의 linuxptp 및 gpsd 개요

OpenShift Container Platform은 고정밀 네트워크 동기화를 위해 linuxptpgpsd 패키지와 함께 PTP Operator를 사용합니다. linuxptp 패키지는 네트워크에서 PTP 타이밍을 위한 도구와 데몬을 제공합니다. GNSS(Global Navigation Satellite System) 지원 NIC가 있는 클러스터 호스트는 gpsd를 사용하여 GNSS 클럭 소스와 인터페이스합니다.

linuxptp 패키지에는 시스템 시계 동기화를 위한 ts2phc , pmc , ptp4lphc2sys 프로그램이 포함되어 있습니다.

ts2phc

ts2phc는 높은 정밀도로 PTP 장치 전체에서 PTP 하드웨어 클록(PHC)을 동기화합니다. ts2phc 는 그랜드마스터 클럭 구성에 사용됩니다. 이는 GNSS(Global Navigation Satellite System)와 같은 고정밀 클럭 소스로부터 정밀 타이밍 신호를 수신합니다. GNSS는 대규모 분산 네트워크에서 사용할 수 있는 정확하고 신뢰할 수 있는 동기화된 시간 소스를 제공합니다. GNSS 시계는 일반적으로 수 나노초 단위의 정밀도로 시간 정보를 제공합니다.

ts2phc 시스템 데몬은 그랜드마스터 클럭에서 시간 정보를 읽고 PHC 형식으로 변환하여 네트워크의 다른 PTP 장치로 그랜드마스터 클럭의 타이밍 정보를 전송합니다. PHC 시간은 네트워크의 다른 장치가 자신의 시계를 그랜드마스터 시계와 동기화하는 데 사용됩니다.

pmc
pmc는 IEEE 표준 1588.1588에 따라 PTP 관리 클라이언트( pmc )를 구현합니다. pmc는 ptp4l 시스템 데몬에 대한 기본 관리 액세스를 제공합니다. pmc는 표준 입력에서 읽어서 선택된 전송방식으로 출력을 전송하고, 수신한 응답을 모두 인쇄합니다.
ptp4l

ptp4l은 PTP 경계 클록과 일반 클록을 구현하고 시스템 데몬으로 실행됩니다. ptp4l은 다음을 수행합니다.

  • 하드웨어 타임 스탬핑을 사용하여 PHC를 소스 클록과 동기화합니다.
  • 소프트웨어 타임스탬핑을 사용하여 시스템 클록을 소스 클록과 동기화합니다.
phc2sys
phc2sys는 시스템 시계를 네트워크 인터페이스 컨트롤러(NIC)의 PHC와 동기화합니다. phc2sys 시스템 데몬은 PHC의 타이밍 정보를 지속적으로 모니터링합니다. PHC는 타이밍 오류를 감지하면 시스템 시계를 수정합니다.

gpsd 패키지에는 호스트 시계와 GNSS 시계 동기화를 위한 ubxtool , gspipe , gpsd 프로그램이 포함되어 있습니다.

ubxtool
ubxtool CLI를 사용하면 u-blox GPS 시스템과 통신할 수 있습니다. ubxtool CLI는 u-blox 바이너리 프로토콜을 사용하여 GPS와 통신합니다.
gpspipe
gpspipe는 gpsd 출력에 연결하여 stdout 으로 파이프합니다.
gpsd
gpsd는 호스트에 연결된 하나 이상의 GPS 또는 AIS 수신기를 모니터링하는 서비스 데몬입니다.

7.1.3. PTP 그랜드마스터 클록의 GNSS 타이밍 개요

OpenShift Container Platform은 클러스터의 GNSS(Global Navigation Satellite System) 소스와 T-GM(Grandmaster Clock)으로부터 정밀한 PTP 타이밍을 수신하는 것을 지원합니다.

중요

OpenShift Container Platform은 Intel E810 Westport 채널 NIC가 있는 GNSS 소스에서만 PTP 타이밍을 지원합니다.

그림 7.2. GNSS 및 T-GM 동기화 개요

글로벌 항법 위성 시스템(GNSS)

GNSS는 전 세계 수신기에 위치, 항법, 시간 정보를 제공하는 데 사용되는 위성 기반 시스템입니다. PTP에서 GNSS 수신기는 종종 정확도와 안정성이 높은 기준 클록 소스로 사용됩니다. 이러한 수신기는 여러 GNSS 위성으로부터 신호를 수신하여 정확한 시간 정보를 계산할 수 있습니다. GNSS에서 얻은 타이밍 정보는 PTP 그랜드마스터 클록의 기준으로 사용됩니다.

PTP 네트워크의 그랜드마스터 클록은 GNSS를 기준으로 사용하여 다른 장치에 매우 정확한 타임스탬프를 제공함으로써 전체 네트워크에서 정밀한 동기화를 구현할 수 있습니다.

디지털 위상 잠금 루프(DPLL)
DPLL은 네트워크 내의 서로 다른 PTP 노드 간에 클록 동기화를 제공합니다. DPLL은 로컬 시스템 클록 신호의 위상을 들어오는 동기화 신호(예: PTP 그랜드마스터 클록에서 오는 PTP 메시지)의 위상과 비교합니다. DPLL은 로컬 클록 주파수와 위상을 지속적으로 조정하여 로컬 클록과 기준 클록 간의 위상 차이를 최소화합니다.
7.1.3.1. GNSS 동기화 PTP 그랜드마스터 시계에서 윤초 이벤트 처리

윤초는 가끔 국제 원자시(TAI)와 동기화를 유지하기 위해 협정 세계시(UTC)에 적용되는 1초 조정입니다. UTC 윤초는 예측할 수 없습니다. 국제적으로 합의된 윤초는 leap-seconds.list 에 나열되어 있습니다. 이 파일은 국제 지구 자전 및 기준계 서비스(IERS)에서 정기적으로 업데이트됩니다. 처리되지 않은 윤초는 원격 RAN 네트워크에 상당한 영향을 미칠 수 있습니다. 이로 인해 원거리 RAN 애플리케이션이 음성 통화 및 데이터 세션을 즉시 끊을 수 있습니다.

7.1.4. PTP 및 클럭 동기화 오류 이벤트 정보

가상 RAN과 같은 클라우드 네이티브 애플리케이션에서는 전체 네트워크의 작동에 중요한 하드웨어 타이밍 이벤트에 대한 알림에 액세스해야 합니다. PTP 클럭 동기화 오류는 낮은 대기 시간 애플리케이션의 성능과 안정성에 부정적인 영향을 줄 수 있습니다(예: 분산 장치(DU)에서 실행되는 vRAN 애플리케이션).

PTP 동기화 손실은 RAN 네트워크에 심각한 오류입니다. 노드에서 동기화가 손실된 경우 라디오가 종료될 수 있으며 네트워크 Over the Air (OTA) 트래픽이 무선 네트워크의 다른 노드로 이동될 수 있습니다. 클러스터 노드에서 PTP 클럭 동기화 상태를 DU에서 실행 중인 vRAN 애플리케이션에 통신할 수 있도록 함으로써 이벤트 알림이 워크로드 오류와 비교하여 완화됩니다.

동일한 DU 노드에서 실행되는 RAN 애플리케이션에서 이벤트 알림을 사용할 수 있습니다. 게시/서브스크립션 REST API는 이벤트 알림을 메시징 버스에 전달합니다. 게시/서브스크립션 메시징 또는 pub/sub 메시징은 주제에 게시된 모든 메시지가 해당 주제에 대한 모든 가입자에 의해 즉시 수신되는 서비스 통신 아키텍처에 대한 비동기식 서비스입니다.

PTP 운영자는 PTP가 가능한 모든 네트워크 인터페이스에 대해 빠른 이벤트 알림을 생성합니다. 소비자 애플리케이션은 PTP 이벤트 REST API v2를 사용하여 PTP 이벤트를 구독할 수 있습니다.

참고

PTP 빠른 이벤트 알림은 PTP 일반 클록, PTP 그랜드마스터 클록 또는 PTP 경계 클록을 사용하도록 구성된 네트워크 인터페이스에서 사용할 수 있습니다.

7.1.5. 2카드 E810 NIC 구성 참조

OpenShift Container Platform은 그랜드마스터 클록(T-GM) 및 경계 클록(T-BC)의 PTP 타이밍을 위한 단일 및 이중 NIC Intel E810 하드웨어를 지원합니다.

듀얼 NIC 그랜드마스터 클럭

듀얼 NIC 하드웨어가 있는 클러스터 호스트를 PTP 그랜드마스터 클록으로 사용할 수 있습니다. 하나의 NIC는 GNSS(전역 항법 위성 시스템)로부터 타이밍 정보를 수신합니다. 두 번째 NIC는 E810 NIC 페이스플레이트의 SMA1 Tx/Rx 연결을 사용하여 첫 번째 NIC로부터 타이밍 정보를 수신합니다. 클러스터 호스트의 시스템 시계는 GNSS 위성에 연결된 NIC에서 동기화됩니다.

듀얼 NIC 그랜드마스터 클록은 원격 무선 장치(RRU)와 기저대역 장치(BBU)가 동일한 무선 셀 사이트에 위치하는 분산 RAN(D-RAN) 구성의 특징입니다. D-RAN은 여러 사이트에 무선 기능을 분산시키고, 백홀 연결을 통해 이를 코어 네트워크에 연결합니다.

그림 7.3. 듀얼 NIC 그랜드마스터 클럭

참고

듀얼 NIC T-GM 구성에서는 단일 ts2phc 프로그램이 각 NIC당 하나씩, 두 개의 PTP 하드웨어 클록(PHC)에서 작동합니다.

듀얼 NIC 경계 클럭

중간 대역 스펙트럼 범위를 제공하는 5G 통신 네트워크의 경우, 각 가상 분산 장치(vDU)는 6개의 무선 장치(RU)에 연결되어야 합니다. 이러한 연결을 하려면 각 vDU 호스트에 경계 클록으로 구성된 2개의 NIC가 필요합니다.

듀얼 NIC 하드웨어를 사용하면 각 NIC를 동일한 업스트림 리더 클록에 연결할 수 있으며, 각 NIC에 대해 별도의 ptp4l 인스턴스를 통해 다운스트림 클록을 공급할 수 있습니다.

듀얼 NIC 경계 클록을 갖춘 고가용성 시스템 클록

Intel E810-XXVDA4 Salem 채널 듀얼 NIC 하드웨어를 고가용성 시스템 클록에 대한 타이밍을 제공하는 듀얼 PTP 경계 클록으로 구성할 수 있습니다. 이 구성은 서로 다른 NIC에 여러 시간 소스가 있는 경우에 유용합니다. 고가용성은 두 타이밍 소스 중 하나가 손실되거나 연결이 끊어지더라도 노드의 타이밍 동기화가 손실되지 않도록 보장합니다.

각 NIC는 동일한 업스트림 리더 클럭에 연결됩니다. 가용성이 높은 경계 클록은 여러 개의 PTP 도메인을 사용하여 대상 시스템 클록과 동기화합니다. T-BC가 고가용성인 경우, NIC PHC 클럭을 동기화하는 하나 이상의 ptp4l 인스턴스가 실패하더라도 호스트 시스템 클럭은 올바른 오프셋을 유지할 수 있습니다. 단일 SFP 포트나 케이블에 오류가 발생하면 경계 클록은 리더 클록과 동기화 상태를 유지합니다.

경계 클록 리더 소스 선택은 A-BMCA 알고리즘을 사용하여 수행됩니다. 자세한 내용은 ITU-T 권장사항 G.8275.1을 참조하세요.

7.1.6. PTP 일반 클록의 중복성을 개선하기 위해 듀얼 포트 NIC 사용

OpenShift Container Platform은 PTP 타이밍을 위한 일반 클록으로 단일 포트 네트워킹 인터페이스 카드(NIC)를 지원합니다. 중복성을 개선하려면 한 포트를 활성으로, 다른 포트를 대기로 설정하는 듀얼 포트 NIC를 구성할 수 있습니다.

중요

듀얼 포트 NIC 중복성을 갖춘 일반 시계로 linuxptp 서비스를 구성하는 것은 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

이 구성에서 듀얼 포트 NIC의 포트는 다음과 같이 작동합니다.

  • 활성 포트는 다음 포트 상태에서 일반 클록으로 기능합니다.
  • 대기 포트는 수신 포트 상태를 유지합니다.
  • 활성 포트에 장애가 발생하면 대기 포트가 활성으로 전환되어 PTP 타이밍 동기화가 계속됩니다.
  • 두 포트 모두에 오류가 발생하면 클록 상태는 HOLDOVER 상태로 전환되고, 홀드오버 타임아웃이 만료되면 리더 클록과 다시 동기화되기 전에 FREERUN 상태로 전환됩니다.
참고

듀얼 포트 NIC가 있는 x86 아키텍처 노드에서만 중복성을 추가하여 PTP 일반 클록을 구성할 수 있습니다.

7.1.7. 3카드 Intel E810 PTP 그랜드마스터 클럭

OpenShift Container Platform은 PTP 그랜드마스터 클록(T-GM)으로 3개의 Intel E810 NIC가 있는 클러스터 호스트를 지원합니다.

3카드 그랜드마스터 시계

3개의 NIC가 있는 클러스터 호스트를 PTP 그랜드마스터 클록으로 사용할 수 있습니다. 하나의 NIC는 GNSS(전역 항법 위성 시스템)로부터 타이밍 정보를 수신합니다. 두 번째와 세 번째 NIC는 E810 NIC 페이스플레이트의 SMA1 Tx/Rx 연결을 사용하여 첫 번째 NIC로부터 타이밍 정보를 수신합니다. 클러스터 호스트의 시스템 시계는 GNSS 위성에 연결된 NIC에서 동기화됩니다.

3카드 NIC 그랜드마스터 클록은 프런트 홀 스위치 없이 무선 장치(RU)가 분산 장치(DU)에 직접 연결되는 분산 RAN(D-RAN) 구성에 사용될 수 있습니다. 예를 들어, RU와 DU가 동일한 무선 셀 사이트에 있는 경우가 그렇습니다. D-RAN은 여러 사이트에 무선 기능을 분산시키고, 백홀 연결을 통해 이를 코어 네트워크에 연결합니다.

그림 7.4. 3카드 Intel E810 PTP 그랜드마스터 클럭

참고

3장 T-GM 구성에서는 단일 ts2phc 프로세스가 시스템에 3개의 ts2phc 인스턴스를 보고합니다.

7.2. PTP 장치 구성

PTP Operator는 NodePtpDevice.ptp.openshift.io CRD(custom resource definition)를 OpenShift Container Platform에 추가합니다.

PTP 운영자가 설치되면 각 노드에서 PTP(Precision Time Protocol) 지원 네트워크 장치를 클러스터에서 검색합니다. Operator는 호환 가능한 PTP 장치를 제공하는 각 노드에 대해 NodePtpDevice CR(사용자 정의 리소스)을 생성하고 업데이트합니다.

PTP 기능이 내장된 네트워크 인터페이스 컨트롤러(NIC) 하드웨어에는 때때로 장치별 구성이 필요합니다. PtpConfig 사용자 정의 리소스(CR)에서 플러그인을 구성하여 PTP 운영자를 통해 지원되는 하드웨어에 대한 하드웨어별 NIC 기능을 사용할 수 있습니다. linuxptp-daemon 서비스는 플러그인 스탠자에 지정된 매개변수를 사용하여 특정 하드웨어 구성에 따라 linuxptp 프로세스, ptp4lphc2sys를 시작합니다.

중요

OpenShift Container Platform 4.19에서는 Intel E810 NIC가 PtpConfig 플러그인을 통해 지원됩니다.

7.2.1. CLI를 사용하여 PTP Operator 설치

클러스터 관리자는 CLI를 사용하여 Operator를 설치할 수 있습니다.

사전 요구 사항

  • PTP를 지원하는 하드웨어가 있는 노드로 베어 메탈 하드웨어에 설치된 클러스터
  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.

프로세스

  1. PTP 운영자에 대한 네임스페이스를 만듭니다.

    1. 다음 YAML을 ptp-namespace.yaml 파일에 저장합니다.

      apiVersion: v1
      kind: Namespace
      metadata:
        name: openshift-ptp
        annotations:
          workload.openshift.io/allowed: management
        labels:
          name: openshift-ptp
          openshift.io/cluster-monitoring: "true"
      Copy to Clipboard Toggle word wrap
    2. Namespace CR을 생성합니다.

      $ oc create -f ptp-namespace.yaml
      Copy to Clipboard Toggle word wrap
  2. PTP 운영자에 대한 운영자 그룹을 만듭니다.

    1. 다음 YAML을 ptp-operatorgroup.yaml 파일에 저장합니다.

      apiVersion: operators.coreos.com/v1
      kind: OperatorGroup
      metadata:
        name: ptp-operators
        namespace: openshift-ptp
      spec:
        targetNamespaces:
        - openshift-ptp
      Copy to Clipboard Toggle word wrap
    2. OperatorGroup CR을 생성합니다.

      $ oc create -f ptp-operatorgroup.yaml
      Copy to Clipboard Toggle word wrap
  3. PTP Operator에 등록합니다.

    1. 다음 YAML을 ptp-sub.yaml 파일에 저장합니다.

      apiVersion: operators.coreos.com/v1alpha1
      kind: Subscription
      metadata:
        name: ptp-operator-subscription
        namespace: openshift-ptp
      spec:
        channel: "stable"
        name: ptp-operator
        source: redhat-operators
        sourceNamespace: openshift-marketplace
      Copy to Clipboard Toggle word wrap
    2. Subscription CR을 생성합니다.

      $ oc create -f ptp-sub.yaml
      Copy to Clipboard Toggle word wrap
  4. Operator가 설치되었는지 확인하려면 다음 명령을 입력합니다.

    $ oc get csv -n openshift-ptp -o custom-columns=Name:.metadata.name,Phase:.status.phase
    Copy to Clipboard Toggle word wrap

    출력 예

    Name                         Phase
    4.19.0-202301261535          Succeeded
    Copy to Clipboard Toggle word wrap

7.2.2. 웹 콘솔을 사용하여 PTP Operator 설치

클러스터 관리자는 웹 콘솔을 사용하여 PTP Operator를 설치할 수 있습니다.

참고

이전 섹션에서 언급한 것처럼 네임스페이스 및 Operator group을 생성해야 합니다.

프로세스

  1. OpenShift Container Platform 웹 콘솔을 사용하여 PTP Operator를 설치합니다.

    1. OpenShift Container Platform 웹 콘솔에서 OperatorOperatorHub를 클릭합니다.
    2. 사용 가능한 Operator 목록에서 PTP Operator를 선택한 다음 설치를 클릭합니다.
    3. Operator 설치 페이지의 클러스터의 특정 네임스페이스에서 openshift-ptp를 선택합니다. 그런 다음, 설치를 클릭합니다.
  2. 선택 사항: PTP Operator가 설치되었는지 확인합니다.

    1. Operator설치된 Operator 페이지로 전환합니다.
    2. PTP Operatoropenshift-ptp 프로젝트에 InstallSucceeded 상태로 나열되어 있는지 확인합니다.

      참고

      설치 중에 Operator는 실패 상태를 표시할 수 있습니다. 나중에 InstallSucceeded 메시지와 함께 설치에 성공하면 이 실패 메시지를 무시할 수 있습니다.

      Operator가 설치된 것으로 나타나지 않으면 다음과 같이 추가 문제 해결을 수행합니다.

      • Operator설치된 Operator 페이지로 이동하고 Operator 서브스크립션설치 계획 탭의 상태에 장애나 오류가 있는지 검사합니다.
      • WorkloadsPod 페이지로 이동하여 openshift-ptp 프로젝트에서 Pod 로그를 확인합니다.

7.2.3. 클러스터에서 PTP 지원 네트워크 장치 검색

클러스터에 있는 PTP 지원 네트워크 장치를 식별하여 구성할 수 있습니다.

전제 조건

  • PTP Operator를 설치했습니다.

프로세스

  • 클러스터에서 PTP 가능 네트워크 장치의 전체 목록을 반환하려면 다음 명령을 실행합니다.

    $ oc get NodePtpDevice -n openshift-ptp -o yaml
    Copy to Clipboard Toggle word wrap

    출력 예

    apiVersion: v1
    items:
    - apiVersion: ptp.openshift.io/v1
      kind: NodePtpDevice
      metadata:
        creationTimestamp: "2022-01-27T15:16:28Z"
        generation: 1
        name: dev-worker-0 
    1
    
        namespace: openshift-ptp
        resourceVersion: "6538103"
        uid: d42fc9ad-bcbf-4590-b6d8-b676c642781a
      spec: {}
      status:
        devices: 
    2
    
        - name: eno1
        - name: eno2
        - name: eno3
        - name: eno4
        - name: enp5s0f0
        - name: enp5s0f1
    ...
    Copy to Clipboard Toggle word wrap

    1
    name 매개변수의 값은 노드 이름과 같습니다.
    2
    장치 컬렉션에는 PTP 운영자가 노드에 대해 검색한 PTP 지원 장치 목록이 포함되어 있습니다.

7.2.4. linuxptp 서비스를 그랜드마스터 시계로 구성

PtpConfig 사용자 정의 리소스(CR)를 생성하여 호스트 NIC를 구성함으로써 linuxptp 서비스( ptp4l , phc2sys , ts2phc )를 그랜드마스터 클럭(T-GM)으로 구성할 수 있습니다.

ts2phc 유틸리티를 사용하면 시스템 클록을 PTP 그랜드마스터 클록과 동기화하여 노드가 다운스트림 PTP 일반 클록 및 경계 클록으로 정밀 클록 신호를 스트리밍할 수 있습니다.

참고

다음 예제 PtpConfig CR을 기반으로 Intel Westport Channel E810-XXVDA4T 네트워크 인터페이스에 대한 T-GM으로 linuxptp 서비스를 구성합니다.

PTP 빠른 이벤트를 구성하려면 ptp4lOpts , ptp4lConfptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold는 이벤트가 활성화된 경우에만 사용됩니다. 자세한 내용은 "PTP 빠른 이벤트 알림 게시자 구성"을 참조하세요.

사전 요구 사항

  • 프로덕션 환경에서 T-GM 클록을 사용하려면 베어 메탈 클러스터 호스트에 Intel E810 Westport 채널 NIC를 설치합니다.
  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. PtpConfig CR을 생성합니다. 예를 들면 다음과 같습니다.

    1. 요구 사항에 따라 배포에 다음 T-GM 구성 중 하나를 사용하세요. grandmaster-clock-ptp-config.yaml 파일에 YAML을 저장합니다.

      예 7.1. E810 NIC용 PTP 그랜드마스터 클럭 구성

      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: grandmaster
        namespace: openshift-ptp
        annotations: {}
      spec:
        profile:
          - name: "grandmaster"
            ptp4lOpts: "-2 --summary_interval -4"
            phc2sysOpts: -r -u 0 -m -N 8 -R 16 -s $iface_master -n 24
            ptpSchedulingPolicy: SCHED_FIFO
            ptpSchedulingPriority: 10
            ptpSettings:
              logReduce: "true"
            plugins:
              e810:
                enableDefaultConfig: false
                settings:
                  LocalMaxHoldoverOffSet: 1500
                  LocalHoldoverTimeout: 14400
                  MaxInSpecOffset: 1500
                pins: $e810_pins
                #  "$iface_master":
                #    "U.FL2": "0 2"
                #    "U.FL1": "0 1"
                #    "SMA2": "0 2"
                #    "SMA1": "0 1"
                ublxCmds:
                  - args: #ubxtool -P 29.20 -z CFG-HW-ANT_CFG_VOLTCTRL,1
                      - "-P"
                      - "29.20"
                      - "-z"
                      - "CFG-HW-ANT_CFG_VOLTCTRL,1"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -e GPS
                      - "-P"
                      - "29.20"
                      - "-e"
                      - "GPS"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d Galileo
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "Galileo"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d GLONASS
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "GLONASS"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d BeiDou
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "BeiDou"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d SBAS
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "SBAS"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -t -w 5 -v 1 -e SURVEYIN,600,50000
                      - "-P"
                      - "29.20"
                      - "-t"
                      - "-w"
                      - "5"
                      - "-v"
                      - "1"
                      - "-e"
                      - "SURVEYIN,600,50000"
                    reportOutput: true
                  - args: #ubxtool -P 29.20 -p MON-HW
                      - "-P"
                      - "29.20"
                      - "-p"
                      - "MON-HW"
                    reportOutput: true
                  - args: #ubxtool -P 29.20 -p CFG-MSG,1,38,248
                      - "-P"
                      - "29.20"
                      - "-p"
                      - "CFG-MSG,1,38,248"
                    reportOutput: true
            ts2phcOpts: " "
            ts2phcConf: |
              [nmea]
              ts2phc.master 1
              [global]
              use_syslog  0
              verbose 1
              logging_level 7
              ts2phc.pulsewidth 100000000
              #cat /dev/GNSS to find available serial port
              #example value of gnss_serialport is /dev/ttyGNSS_1700_0
              ts2phc.nmea_serialport $gnss_serialport
              [$iface_master]
              ts2phc.extts_polarity rising
              ts2phc.extts_correction 0
            ptp4lConf: |
              [$iface_master]
              masterOnly 1
              [$iface_master_1]
              masterOnly 1
              [$iface_master_2]
              masterOnly 1
              [$iface_master_3]
              masterOnly 1
              [global]
              #
              # Default Data Set
              #
              twoStepFlag 1
              priority1 128
              priority2 128
              domainNumber 24
              #utc_offset 37
              clockClass 6
              clockAccuracy 0x27
              offsetScaledLogVariance 0xFFFF
              free_running 0
              freq_est_interval 1
              dscp_event 0
              dscp_general 0
              dataset_comparison G.8275.x
              G.8275.defaultDS.localPriority 128
              #
              # Port Data Set
              #
              logAnnounceInterval -3
              logSyncInterval -4
              logMinDelayReqInterval -4
              logMinPdelayReqInterval 0
              announceReceiptTimeout 3
              syncReceiptTimeout 0
              delayAsymmetry 0
              fault_reset_interval -4
              neighborPropDelayThresh 20000000
              masterOnly 0
              G.8275.portDS.localPriority 128
              #
              # Run time options
              #
              assume_two_step 0
              logging_level 6
              path_trace_enabled 0
              follow_up_info 0
              hybrid_e2e 0
              inhibit_multicast_service 0
              net_sync_monitor 0
              tc_spanning_tree 0
              tx_timestamp_timeout 50
              unicast_listen 0
              unicast_master_table 0
              unicast_req_duration 3600
              use_syslog 1
              verbose 0
              summary_interval -4
              kernel_leap 1
              check_fup_sync 0
              clock_class_threshold 7
              #
              # Servo Options
              #
              pi_proportional_const 0.0
              pi_integral_const 0.0
              pi_proportional_scale 0.0
              pi_proportional_exponent -0.3
              pi_proportional_norm_max 0.7
              pi_integral_scale 0.0
              pi_integral_exponent 0.4
              pi_integral_norm_max 0.3
              step_threshold 2.0
              first_step_threshold 0.00002
              clock_servo pi
              sanity_freq_limit  200000000
              ntpshm_segment 0
              #
              # Transport options
              #
              transportSpecific 0x0
              ptp_dst_mac 01:1B:19:00:00:00
              p2p_dst_mac 01:80:C2:00:00:0E
              udp_ttl 1
              udp6_scope 0x0E
              uds_address /var/run/ptp4l
              #
              # Default interface options
              #
              clock_type BC
              network_transport L2
              delay_mechanism E2E
              time_stamping hardware
              tsproc_mode filter
              delay_filter moving_median
              delay_filter_length 10
              egressLatency 0
              ingressLatency 0
              boundary_clock_jbod 0
              #
              # Clock description
              #
              productDescription ;;
              revisionData ;;
              manufacturerIdentity 00:00:00
              userDescription ;
              timeSource 0x20
        recommend:
          - profile: "grandmaster"
            priority: 4
            match:
              - nodeLabel: "node-role.kubernetes.io/$mcp"
      Copy to Clipboard Toggle word wrap
      참고

      E810 Westport 채널 NIC의 경우 ts2phc.nmea_serialport 값을 /dev/gnss0 으로 설정합니다.

    2. 다음 명령을 실행하여 CR을 생성합니다.

      $ oc create -f grandmaster-clock-ptp-config.yaml
      Copy to Clipboard Toggle word wrap

검증

  1. PtpConfig 프로필이 노드에 적용되었는지 확인합니다.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                          READY   STATUS    RESTARTS   AGE     IP             NODE
      linuxptp-daemon-74m2g         3/3     Running   3          4d15h   10.16.230.7    compute-1.example.com
      ptp-operator-5f4f48d7c-x7zkf  1/1     Running   1          4d15h   10.128.1.145   compute-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 프로필이 올바른지 확인합니다. PtpConfig 프로필에 지정한 노드에 해당하는 linuxptp 데몬의 로그를 검사합니다. 다음 명령을 실행합니다.

      $ oc logs linuxptp-daemon-74m2g -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      ts2phc[94980.334]: [ts2phc.0.config] nmea delay: 98690975 ns
      ts2phc[94980.334]: [ts2phc.0.config] ens3f0 extts index 0 at 1676577329.999999999 corr 0 src 1676577330.901342528 diff -1
      ts2phc[94980.334]: [ts2phc.0.config] ens3f0 master offset         -1 s2 freq      -1
      ts2phc[94980.441]: [ts2phc.0.config] nmea sentence: GNRMC,195453.00,A,4233.24427,N,07126.64420,W,0.008,,160223,,,A,V
      phc2sys[94980.450]: [ptp4l.0.config] CLOCK_REALTIME phc offset       943 s2 freq  -89604 delay    504
      phc2sys[94980.512]: [ptp4l.0.config] CLOCK_REALTIME phc offset      1000 s2 freq  -89264 delay    474
      Copy to Clipboard Toggle word wrap

PtpConfig 사용자 정의 리소스(CR)를 생성하여 NIC를 구성함으로써 linuxptp 서비스( ptp4l , phc2sys , ts2phc )를 2개의 E810 NIC에 대한 그랜드마스터 클록(T-GM)으로 구성할 수 있습니다.

다음 E810 NIC에 대해 linuxptp 서비스를 T-GM으로 구성할 수 있습니다.

  • 인텔 E810-XXVDA4T 웨스트포트 채널 NIC
  • 인텔 E810-CQDA2T 로건 비치 NIC

분산 RAN(D-RAN) 사용 사례의 경우 다음과 같이 2개의 NIC에 대해 PTP를 구성할 수 있습니다.

  • NIC 1은 GNSS(전역 항법 위성 시스템) 시간 소스와 동기화됩니다.
  • NIC 2는 NIC 1에서 제공하는 1PPS 타이밍 출력과 동기화됩니다. 이 구성은 PtpConfig CR의 PTP 하드웨어 플러그인을 통해 제공됩니다.

2카드 PTP T-GM 구성은 ptp4l 인스턴스 하나와 ts2phc 인스턴스 하나를 사용합니다. ptp4lts2phc 프로그램은 각각 NIC당 하나씩, 두 개의 PTP 하드웨어 클록(PHC)에서 작동하도록 구성되어 있습니다. 호스트 시스템 시계는 GNSS 시간 소스에 연결된 NIC에서 동기화됩니다.

참고

다음 예제 PtpConfig CR을 기반으로 듀얼 Intel E810 네트워크 인터페이스에 대한 T-GM으로 linuxptp 서비스를 구성합니다.

PTP 빠른 이벤트를 구성하려면 ptp4lOpts , ptp4lConfptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold는 이벤트가 활성화된 경우에만 사용됩니다. 자세한 내용은 "PTP 빠른 이벤트 알림 게시자 구성"을 참조하세요.

사전 요구 사항

  • 프로덕션 환경에서 T-GM 클록을 사용하려면 베어 메탈 클러스터 호스트에 Intel E810 NIC 두 개를 설치합니다.
  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. PtpConfig CR을 생성합니다. 예를 들면 다음과 같습니다.

    1. 다음 YAML을 grandmaster-clock-ptp-config-dual-nics.yaml 파일에 저장합니다.

      예 7.2. 듀얼 E810 NIC를 위한 PTP 그랜드마스터 클럭 구성

      # In this example two cards $iface_nic1 and $iface_nic2 are connected via
      # SMA1 ports by a cable and $iface_nic2 receives 1PPS signals from $iface_nic1
      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: grandmaster
        namespace: openshift-ptp
        annotations: {}
      spec:
        profile:
          - name: "grandmaster"
            ptp4lOpts: "-2 --summary_interval -4"
            phc2sysOpts: -r -u 0 -m -N 8 -R 16 -s $iface_nic1 -n 24
            ptpSchedulingPolicy: SCHED_FIFO
            ptpSchedulingPriority: 10
            ptpSettings:
              logReduce: "true"
            plugins:
              e810:
                enableDefaultConfig: false
                settings:
                  LocalMaxHoldoverOffSet: 1500
                  LocalHoldoverTimeout: 14400
                  MaxInSpecOffset: 1500
                pins: $e810_pins
                #  "$iface_nic1":
                #    "U.FL2": "0 2"
                #    "U.FL1": "0 1"
                #    "SMA2": "0 2"
                #    "SMA1": "2 1"
                #  "$iface_nic2":
                #    "U.FL2": "0 2"
                #    "U.FL1": "0 1"
                #    "SMA2": "0 2"
                #    "SMA1": "1 1"
                ublxCmds:
                  - args: #ubxtool -P 29.20 -z CFG-HW-ANT_CFG_VOLTCTRL,1
                      - "-P"
                      - "29.20"
                      - "-z"
                      - "CFG-HW-ANT_CFG_VOLTCTRL,1"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -e GPS
                      - "-P"
                      - "29.20"
                      - "-e"
                      - "GPS"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d Galileo
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "Galileo"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d GLONASS
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "GLONASS"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d BeiDou
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "BeiDou"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -d SBAS
                      - "-P"
                      - "29.20"
                      - "-d"
                      - "SBAS"
                    reportOutput: false
                  - args: #ubxtool -P 29.20 -t -w 5 -v 1 -e SURVEYIN,600,50000
                      - "-P"
                      - "29.20"
                      - "-t"
                      - "-w"
                      - "5"
                      - "-v"
                      - "1"
                      - "-e"
                      - "SURVEYIN,600,50000"
                    reportOutput: true
                  - args: #ubxtool -P 29.20 -p MON-HW
                      - "-P"
                      - "29.20"
                      - "-p"
                      - "MON-HW"
                    reportOutput: true
                  - args: #ubxtool -P 29.20 -p CFG-MSG,1,38,248
                      - "-P"
                      - "29.20"
                      - "-p"
                      - "CFG-MSG,1,38,248"
                    reportOutput: true
            ts2phcOpts: " "
            ts2phcConf: |
              [nmea]
              ts2phc.master 1
              [global]
              use_syslog  0
              verbose 1
              logging_level 7
              ts2phc.pulsewidth 100000000
              #cat /dev/GNSS to find available serial port
              #example value of gnss_serialport is /dev/ttyGNSS_1700_0
              ts2phc.nmea_serialport $gnss_serialport
              [$iface_nic1]
              ts2phc.extts_polarity rising
              ts2phc.extts_correction 0
              [$iface_nic2]
              ts2phc.master 0
              ts2phc.extts_polarity rising
              #this is a measured value in nanoseconds to compensate for SMA cable delay
              ts2phc.extts_correction -10
            ptp4lConf: |
              [$iface_nic1]
              masterOnly 1
              [$iface_nic1_1]
              masterOnly 1
              [$iface_nic1_2]
              masterOnly 1
              [$iface_nic1_3]
              masterOnly 1
              [$iface_nic2]
              masterOnly 1
              [$iface_nic2_1]
              masterOnly 1
              [$iface_nic2_2]
              masterOnly 1
              [$iface_nic2_3]
              masterOnly 1
              [global]
              #
              # Default Data Set
              #
              twoStepFlag 1
              priority1 128
              priority2 128
              domainNumber 24
              #utc_offset 37
              clockClass 6
              clockAccuracy 0x27
              offsetScaledLogVariance 0xFFFF
              free_running 0
              freq_est_interval 1
              dscp_event 0
              dscp_general 0
              dataset_comparison G.8275.x
              G.8275.defaultDS.localPriority 128
              #
              # Port Data Set
              #
              logAnnounceInterval -3
              logSyncInterval -4
              logMinDelayReqInterval -4
              logMinPdelayReqInterval 0
              announceReceiptTimeout 3
              syncReceiptTimeout 0
              delayAsymmetry 0
              fault_reset_interval -4
              neighborPropDelayThresh 20000000
              masterOnly 0
              G.8275.portDS.localPriority 128
              #
              # Run time options
              #
              assume_two_step 0
              logging_level 6
              path_trace_enabled 0
              follow_up_info 0
              hybrid_e2e 0
              inhibit_multicast_service 0
              net_sync_monitor 0
              tc_spanning_tree 0
              tx_timestamp_timeout 50
              unicast_listen 0
              unicast_master_table 0
              unicast_req_duration 3600
              use_syslog 1
              verbose 0
              summary_interval -4
              kernel_leap 1
              check_fup_sync 0
              clock_class_threshold 7
              #
              # Servo Options
              #
              pi_proportional_const 0.0
              pi_integral_const 0.0
              pi_proportional_scale 0.0
              pi_proportional_exponent -0.3
              pi_proportional_norm_max 0.7
              pi_integral_scale 0.0
              pi_integral_exponent 0.4
              pi_integral_norm_max 0.3
              step_threshold 2.0
              first_step_threshold 0.00002
              clock_servo pi
              sanity_freq_limit  200000000
              ntpshm_segment 0
              #
              # Transport options
              #
              transportSpecific 0x0
              ptp_dst_mac 01:1B:19:00:00:00
              p2p_dst_mac 01:80:C2:00:00:0E
              udp_ttl 1
              udp6_scope 0x0E
              uds_address /var/run/ptp4l
              #
              # Default interface options
              #
              clock_type BC
              network_transport L2
              delay_mechanism E2E
              time_stamping hardware
              tsproc_mode filter
              delay_filter moving_median
              delay_filter_length 10
              egressLatency 0
              ingressLatency 0
              boundary_clock_jbod 1
              #
              # Clock description
              #
              productDescription ;;
              revisionData ;;
              manufacturerIdentity 00:00:00
              userDescription ;
              timeSource 0x20
        recommend:
          - profile: "grandmaster"
            priority: 4
            match:
              - nodeLabel: "node-role.kubernetes.io/$mcp"
      Copy to Clipboard Toggle word wrap
      참고

      ts2phc.nmea_serialport 의 값을 /dev/gnss0 으로 설정합니다.

    2. 다음 명령을 실행하여 CR을 생성합니다.

      $ oc create -f grandmaster-clock-ptp-config-dual-nics.yaml
      Copy to Clipboard Toggle word wrap

검증

  1. PtpConfig 프로필이 노드에 적용되었는지 확인합니다.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                          READY   STATUS    RESTARTS   AGE     IP             NODE
      linuxptp-daemon-74m2g         3/3     Running   3          4d15h   10.16.230.7    compute-1.example.com
      ptp-operator-5f4f48d7c-x7zkf  1/1     Running   1          4d15h   10.128.1.145   compute-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 프로필이 올바른지 확인합니다. PtpConfig 프로필에 지정한 노드에 해당하는 linuxptp 데몬의 로그를 검사합니다. 다음 명령을 실행합니다.

      $ oc logs linuxptp-daemon-74m2g -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      ts2phc[509863.660]: [ts2phc.0.config] nmea delay: 347527248 ns
      ts2phc[509863.660]: [ts2phc.0.config] ens2f0 extts index 0 at 1705516553.000000000 corr 0 src 1705516553.652499081 diff 0
      ts2phc[509863.660]: [ts2phc.0.config] ens2f0 master offset          0 s2 freq      -0
      I0117 18:35:16.000146 1633226 stats.go:57] state updated for ts2phc =s2
      I0117 18:35:16.000163 1633226 event.go:417] dpll State s2, gnss State s2, tsphc state s2, gm state s2,
      ts2phc[1705516516]:[ts2phc.0.config] ens2f0 nmea_status 1 offset 0 s2
      GM[1705516516]:[ts2phc.0.config] ens2f0 T-GM-STATUS s2
      ts2phc[509863.677]: [ts2phc.0.config] ens7f0 extts index 0 at 1705516553.000000010 corr -10 src 1705516553.652499081 diff 0
      ts2phc[509863.677]: [ts2phc.0.config] ens7f0 master offset          0 s2 freq      -0
      I0117 18:35:16.016597 1633226 stats.go:57] state updated for ts2phc =s2
      phc2sys[509863.719]: [ptp4l.0.config] CLOCK_REALTIME phc offset        -6 s2 freq  +15441 delay    510
      phc2sys[509863.782]: [ptp4l.0.config] CLOCK_REALTIME phc offset        -7 s2 freq  +15438 delay    502
      Copy to Clipboard Toggle word wrap

PtpConfig 사용자 정의 리소스(CR)를 생성하여 NIC를 구성함으로써 linuxptp 서비스( ptp4l , phc2sys , ts2phc )를 3개의 E810 NIC에 대한 그랜드마스터 클록(T-GM)으로 구성할 수 있습니다.

다음 E810 NIC에 대해 3개의 NIC를 사용하여 linuxptp 서비스를 T-GM으로 구성할 수 있습니다.

  • 인텔 E810-XXVDA4T 웨스트포트 채널 NIC
  • 인텔 E810-CQDA2T 로건 비치 NIC

분산 RAN(D-RAN) 사용 사례의 경우 다음과 같이 3개의 NIC에 대해 PTP를 구성할 수 있습니다.

  • NIC 1은 GNSS(Global Navigation Satellite System)와 동기화됩니다.
  • NIC 2와 3은 1PPS 페이스플레이트 연결을 통해 NIC 1과 동기화됩니다.

다음 예제 PtpConfig CR을 기반으로 linuxptp 서비스를 3카드 Intel E810 T-GM으로 구성합니다.

사전 요구 사항

  • 프로덕션 환경에서 T-GM 클록을 사용하려면 베어 메탈 클러스터 호스트에 Intel E810 NIC 3개를 설치합니다.
  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. PtpConfig CR을 생성합니다. 예를 들면 다음과 같습니다.

    1. 다음 YAML을 three-nic-grandmaster-clock-ptp-config.yaml 파일에 저장합니다.

      예 7.3. 3개의 E810 NIC에 대한 PTP 그랜드마스터 클럭 구성

      # In this example, the three cards are connected via SMA cables:
      # - $iface_timeTx1 has the GNSS signal input
      # - $iface_timeTx2 SMA1 is connected to $iface_timeTx1 SMA1
      # - $iface_timeTx3 SMA1 is connected to $iface_timeTx1 SMA2
      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: gm-3card
        namespace: openshift-ptp
        annotations:
          ran.openshift.io/ztp-deploy-wave: "10"
      spec:
        profile:
        - name: grandmaster
          ptp4lOpts: -2 --summary_interval -4
          phc2sysOpts: -r -u 0 -m -N 8 -R 16 -s $iface_timeTx1 -n 24
          ptpSchedulingPolicy: SCHED_FIFO
          ptpSchedulingPriority: 10
          ptpSettings:
            logReduce: "true"
          plugins:
            e810:
              enableDefaultConfig: false
              settings:
                LocalHoldoverTimeout: 14400
                LocalMaxHoldoverOffSet: 1500
                MaxInSpecOffset: 1500
              pins:
                # Syntax guide:
                # - The 1st number in each pair must be one of:
                #    0 - Disabled
                #    1 - RX
                #    2 - TX
                # - The 2nd number in each pair must match the channel number
                $iface_timeTx1:
                  SMA1: 2 1
                  SMA2: 2 2
                  U.FL1: 0 1
                  U.FL2: 0 2
                $iface_timeTx2:
                  SMA1: 1 1
                  SMA2: 0 2
                  U.FL1: 0 1
                  U.FL2: 0 2
                $iface_timeTx3:
                  SMA1: 1 1
                  SMA2: 0 2
                  U.FL1: 0 1
                  U.FL2: 0 2
              ublxCmds:
                - args: #ubxtool -P 29.20 -z CFG-HW-ANT_CFG_VOLTCTRL,1
                    - "-P"
                    - "29.20"
                    - "-z"
                    - "CFG-HW-ANT_CFG_VOLTCTRL,1"
                  reportOutput: false
                - args: #ubxtool -P 29.20 -e GPS
                    - "-P"
                    - "29.20"
                    - "-e"
                    - "GPS"
                  reportOutput: false
                - args: #ubxtool -P 29.20 -d Galileo
                    - "-P"
                    - "29.20"
                    - "-d"
                    - "Galileo"
                  reportOutput: false
                - args: #ubxtool -P 29.20 -d GLONASS
                    - "-P"
                    - "29.20"
                    - "-d"
                    - "GLONASS"
                  reportOutput: false
                - args: #ubxtool -P 29.20 -d BeiDou
                    - "-P"
                    - "29.20"
                    - "-d"
                    - "BeiDou"
                  reportOutput: false
                - args: #ubxtool -P 29.20 -d SBAS
                    - "-P"
                    - "29.20"
                    - "-d"
                    - "SBAS"
                  reportOutput: false
                - args: #ubxtool -P 29.20 -t -w 5 -v 1 -e SURVEYIN,600,50000
                    - "-P"
                    - "29.20"
                    - "-t"
                    - "-w"
                    - "5"
                    - "-v"
                    - "1"
                    - "-e"
                    - "SURVEYIN,600,50000"
                  reportOutput: true
                - args: #ubxtool -P 29.20 -p MON-HW
                    - "-P"
                    - "29.20"
                    - "-p"
                    - "MON-HW"
                  reportOutput: true
                - args: #ubxtool -P 29.20 -p CFG-MSG,1,38,248
                    - "-P"
                    - "29.20"
                    - "-p"
                    - "CFG-MSG,1,38,248"
                  reportOutput: true
          ts2phcOpts: " "
          ts2phcConf: |
            [nmea]
            ts2phc.master 1
            [global]
            use_syslog  0
            verbose 1
            logging_level 7
            ts2phc.pulsewidth 100000000
            #example value of nmea_serialport is /dev/gnss0
            ts2phc.nmea_serialport (?<gnss_serialport>[/\w\s/]+)
            leapfile /usr/share/zoneinfo/leap-seconds.list
            [$iface_timeTx1]
            ts2phc.extts_polarity rising
            ts2phc.extts_correction 0
            [$iface_timeTx2]
            ts2phc.master 0
            ts2phc.extts_polarity rising
            #this is a measured value in nanoseconds to compensate for SMA cable delay
            ts2phc.extts_correction -10
            [$iface_timeTx3]
            ts2phc.master 0
            ts2phc.extts_polarity rising
            #this is a measured value in nanoseconds to compensate for SMA cable delay
            ts2phc.extts_correction -10
          ptp4lConf: |
            [$iface_timeTx1]
            masterOnly 1
            [$iface_timeTx1_1]
            masterOnly 1
            [$iface_timeTx1_2]
            masterOnly 1
            [$iface_timeTx1_3]
            masterOnly 1
            [$iface_timeTx2]
            masterOnly 1
            [$iface_timeTx2_1]
            masterOnly 1
            [$iface_timeTx2_2]
            masterOnly 1
            [$iface_timeTx2_3]
            masterOnly 1
            [$iface_timeTx3]
            masterOnly 1
            [$iface_timeTx3_1]
            masterOnly 1
            [$iface_timeTx3_2]
            masterOnly 1
            [$iface_timeTx3_3]
            masterOnly 1
            [global]
            #
            # Default Data Set
            #
            twoStepFlag 1
            priority1 128
            priority2 128
            domainNumber 24
            #utc_offset 37
            clockClass 6
            clockAccuracy 0x27
            offsetScaledLogVariance 0xFFFF
            free_running 0
            freq_est_interval 1
            dscp_event 0
            dscp_general 0
            dataset_comparison G.8275.x
            G.8275.defaultDS.localPriority 128
            #
            # Port Data Set
            #
            logAnnounceInterval -3
            logSyncInterval -4
            logMinDelayReqInterval -4
            logMinPdelayReqInterval 0
            announceReceiptTimeout 3
            syncReceiptTimeout 0
            delayAsymmetry 0
            fault_reset_interval -4
            neighborPropDelayThresh 20000000
            masterOnly 0
            G.8275.portDS.localPriority 128
            #
            # Run time options
            #
            assume_two_step 0
            logging_level 6
            path_trace_enabled 0
            follow_up_info 0
            hybrid_e2e 0
            inhibit_multicast_service 0
            net_sync_monitor 0
            tc_spanning_tree 0
            tx_timestamp_timeout 50
            unicast_listen 0
            unicast_master_table 0
            unicast_req_duration 3600
            use_syslog 1
            verbose 0
            summary_interval -4
            kernel_leap 1
            check_fup_sync 0
            clock_class_threshold 7
            #
            # Servo Options
            #
            pi_proportional_const 0.0
            pi_integral_const 0.0
            pi_proportional_scale 0.0
            pi_proportional_exponent -0.3
            pi_proportional_norm_max 0.7
            pi_integral_scale 0.0
            pi_integral_exponent 0.4
            pi_integral_norm_max 0.3
            step_threshold 2.0
            first_step_threshold 0.00002
            clock_servo pi
            sanity_freq_limit 200000000
            ntpshm_segment 0
            #
            # Transport options
            #
            transportSpecific 0x0
            ptp_dst_mac 01:1B:19:00:00:00
            p2p_dst_mac 01:80:C2:00:00:0E
            udp_ttl 1
            udp6_scope 0x0E
            uds_address /var/run/ptp4l
            #
            # Default interface options
            #
            clock_type BC
            network_transport L2
            delay_mechanism E2E
            time_stamping hardware
            tsproc_mode filter
            delay_filter moving_median
            delay_filter_length 10
            egressLatency 0
            ingressLatency 0
            boundary_clock_jbod 1
            #
            # Clock description
            #
            productDescription ;;
            revisionData ;;
            manufacturerIdentity 00:00:00
            userDescription ;
            timeSource 0x20
          ptpClockThreshold:
            holdOverTimeout: 5
            maxOffsetThreshold: 1500
            minOffsetThreshold: -1500
        recommend:
        - profile: grandmaster
          priority: 4
          match:
          - nodeLabel: node-role.kubernetes.io/$mcp
      Copy to Clipboard Toggle word wrap
      참고

      ts2phc.nmea_serialport 의 값을 /dev/gnss0 으로 설정합니다.

    2. 다음 명령을 실행하여 CR을 생성합니다.

      $ oc create -f three-nic-grandmaster-clock-ptp-config.yaml
      Copy to Clipboard Toggle word wrap

검증

  1. PtpConfig 프로필이 노드에 적용되었는지 확인합니다.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                          READY   STATUS    RESTARTS   AGE     IP             NODE
      linuxptp-daemon-74m3q         3/3     Running   3          4d15h   10.16.230.7    compute-1.example.com
      ptp-operator-5f4f48d7c-x6zkn  1/1     Running   1          4d15h   10.128.1.145   compute-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 프로필이 올바른지 확인합니다. 다음 명령을 실행하고 PtpConfig 프로필에서 지정한 노드에 해당하는 linuxptp 데몬의 로그를 조사합니다.

      $ oc logs linuxptp-daemon-74m3q -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      ts2phc[2527.586]: [ts2phc.0.config:7] adding tstamp 1742826342.000000000 to clock /dev/ptp11 
      1
      
      ts2phc[2527.586]: [ts2phc.0.config:7] adding tstamp 1742826342.000000000 to clock /dev/ptp7 
      2
      
      ts2phc[2527.586]: [ts2phc.0.config:7] adding tstamp 1742826342.000000000 to clock /dev/ptp14 
      3
      
      ts2phc[2527.586]: [ts2phc.0.config:7] nmea delay: 56308811 ns
      ts2phc[2527.586]: [ts2phc.0.config:6] /dev/ptp14 offset          0 s2 freq      +0 
      4
      
      ts2phc[2527.587]: [ts2phc.0.config:6] /dev/ptp7 offset          0 s2 freq      +0 
      5
      
      ts2phc[2527.587]: [ts2phc.0.config:6] /dev/ptp11 offset          0 s2 freq      -0 
      6
      
      I0324 14:25:05.000439  106907 stats.go:61] state updated for ts2phc =s2
      I0324 14:25:05.000504  106907 event.go:419] dpll State s2, gnss State s2, tsphc state s2, gm state s2,
      I0324 14:25:05.000906  106907 stats.go:61] state updated for ts2phc =s2
      I0324 14:25:05.001059  106907 stats.go:61] state updated for ts2phc =s2
      ts2phc[1742826305]:[ts2phc.0.config] ens4f0 nmea_status 1 offset 0 s2
      GM[1742826305]:[ts2phc.0.config] ens4f0 T-GM-STATUS s2 
      7
      Copy to Clipboard Toggle word wrap

      1 2 3
      ts2phc가 PTP 하드웨어 시계를 업데이트하고 있습니다.
      4 5 6
      PTP 장치와 참조 클럭 사이의 추정 PTP 장치 오프셋은 0나노초입니다. PTP 장치는 리더 클록과 동기화됩니다.
      7
      T-GM은 잠금 상태입니다(s2).

7.2.5. 그랜드마스터 클럭 PtpConfig 구성 참조

다음 참조 정보는 linuxptp 서비스( ptp4l , phc2sys , ts2phc )를 그랜드마스터 클럭으로 구성하는 PtpConfig 사용자 정의 리소스(CR)에 대한 구성 옵션을 설명합니다.

Expand
표 7.1. PTP Grandmaster 클럭을 위한 PtpConfig 구성 옵션
PtpConfig CR 필드설명

plugins

그랜드마스터 클럭 작업을 위해 NIC를 구성하는 .exec.cmdline 옵션 배열을 지정합니다. 그랜드마스터 클록 구성에는 특정 PTP 핀을 비활성화해야 합니다.

플러그인 메커니즘을 사용하면 PTP 운영자가 하드웨어를 자동으로 구성할 수 있습니다. Intel Westport Channel NIC 또는 Intel Logan Beach NIC의 경우 enableDefaultConfig 필드가 true 로 설정되면 PTP 운영자는 하드코딩된 스크립트를 실행하여 NIC에 필요한 구성을 수행합니다.

ptp4lOpts

ptp4l 서비스에 대한 시스템 구성 옵션을 지정합니다. 옵션은 네트워크 인터페이스 이름과 서비스 구성 파일이 자동으로 추가되므로 네트워크 인터페이스 이름 -i <interface> 및 서비스 구성 파일 -f /etc/ptp4l.conf를 포함하지 않아야 합니다.

ptp4lConf

ptp4l을 그랜드마스터 클록으로 시작하는 데 필요한 구성을 지정합니다. 예를 들어, ens2f1 인터페이스는 다운스트림 연결 장치를 동기화합니다. 그랜드마스터 클록의 경우 clockClass를 6 으로 설정하고 clockAccuracy를 0x27 로 설정합니다. GNSS(전역 항법 위성 시스템)에서 타이밍 신호를 수신하는 경우 timeSource를 0x20 으로 설정합니다.

tx_timestamp_timeout

데이터를 삭제하기 전에 보낸 사람의 전송(TX) 타임스탬프를 기다리는 최대 시간을 지정합니다.

boundary_clock_jbod

JBOD 경계 클록 시간 지연 값을 지정합니다. 이 값은 네트워크 시간 장치 간에 전달되는 시간 값을 수정하는 데 사용됩니다.

phc2sysOpts

phc2sys 서비스에 대한 시스템 구성 옵션을 지정합니다. 이 필드가 비어 있으면 PTP Operator에서 phc2sys 서비스를 시작하지 않습니다.

참고

여기에 나열된 네트워크 인터페이스가 그랜드마스터로 구성되었고 ts2phcConfptp4lConf 필드에서 필요에 따라 참조되는지 확인하세요.

ptpSchedulingPolicy

ptp4lphc2sys 프로세스에 대한 스케줄링 정책을 구성합니다. 기본값은 SCHED_OTHER 입니다. FIFO 스케줄링을 지원하는 시스템에서 SCHED_FIFO를 사용합니다.

ptpSchedulingPriority

ptpSchedulingPolicy가 SCHED_FIFO 로 설정된 경우 ptp4lphc2sys 프로세스에 대한 FIFO 우선 순위를 구성하려면 1~65 사이의 정수 값을 설정합니다. ptpSchedulingPolicy가 SCHED_OTHER 로 설정된 경우 ptpSchedulingPriority 필드는 사용되지 않습니다.

ptpClockThreshold

선택 사항: ptpClockThreshold 스탠자가 없으면 ptpClockThreshold 필드에 기본값이 사용됩니다. Stanza는 기본 ptpClockThreshold 값을 보여줍니다. ptpClockThreshold 값은 PTP 마스터 클록이 분리된 후 PTP 이벤트가 트리거되기까지 걸리는 시간을 구성합니다. holdOverTimeout은 PTP 마스터 클록이 연결 해제될 때 PTP 클록 이벤트 상태가 FREERUN 으로 변경되기 전의 시간 값(초)입니다. maxOffsetThresholdminOffsetThreshold 설정은 CLOCK_REALTIME ( phc2sys ) 또는 마스터 오프셋( ptp4l ) 값과 비교하는 나노초 단위의 오프셋 값을 구성합니다. ptp4l 또는 phc2sys 오프셋 값이 이 범위를 벗어나면 PTP 클록 상태가 FREERUN 으로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클록 상태가 LOCKED 로 설정됩니다.

ts2phcConf

ts2phc 명령에 대한 구성을 설정합니다.

leapfile 은 PTP Operator 컨테이너 이미지의 현재 윤초 정의 파일에 대한 기본 경로입니다.

ts2phc.nmea_serialport 는 NMEA GPS 클럭 소스에 연결된 직렬 포트 장치입니다. 구성된 경우 GNSS 수신기는 /dev/gnss<id> 에서 접근할 수 있습니다. 호스트에 여러 개의 GNSS 수신기가 있는 경우 다음 장치 중 하나를 열거하여 올바른 장치를 찾을 수 있습니다.

  • /sys/class/net/<eth_port>/device/gnss/
  • /sys/class/gnss/gnss<id>/device/

ts2phcOpts

ts2phc 명령에 대한 옵션을 설정합니다.

recommend[]

profile이 노드에 적용되는 방법에 대한 규칙을 정의하는 하나 이상의 recommend 오브젝트 배열을 지정합니다.

.recommend.profile

프로필 섹션에 정의된 .recommend.profile 개체 이름을 지정합니다.

.recommend.priority

0에서 99 사이의 정수 값으로 priority를 지정합니다. 숫자가 클수록 우선순위가 낮으므로 우선순위 99는 우선순위 10보다 낮습니다. match 필드에 정의된 규칙에 따라 여러 프로필과 노드를 일치시킬 수 있는 경우 우선 순위가 높은 프로필이 해당 노드에 적용됩니다.

.recommend.match

nodeLabel 또는 nodeName 값으로 .recommend.match 규칙을 지정합니다.

.recommend.match.nodeLabel

oc get nodes --show-labels 명령을 사용하여 노드 객체의 node.Labels 필드의 키로 nodeLabel을 설정합니다. 예를 들어, node-role.kubernetes.io/worker .

.recommend.match.nodeName

oc get nodes 명령을 사용하여 노드 객체의 node.Name 필드 값으로 nodeName을 설정합니다. 예를 들어, compute-1.example.com .

7.2.5.1. 그랜드마스터 클록 클래스 동기화 상태 참조

다음 표는 PTP 그랜드마스터 클록(T-GM) gm.ClockClass 상태를 설명합니다. 클록 클래스 상태는 PRTC(주 기준 시간 클록) 또는 기타 타이밍 소스와 관련된 정확도와 안정성을 기준으로 T-GM 클록을 분류합니다.

홀드오버 사양은 PTP 클록이 기본 시간 소스로부터 업데이트를 받지 않고도 동기화를 유지할 수 있는 시간의 양입니다.

Expand
표 7.2. T-GM 시계 클래스 상태
클록 클래스 상태설명

gm.ClockClass 6

T-GM 클록은 LOCKED 모드의 PRTC에 연결됩니다. 예를 들어, PRTC는 GNSS 시간 소스로 추적 가능합니다.

gm.ClockClass 7

T-GM 시계는 HOLDOVER 모드이며, HOLDOVER 사양 내에 있습니다. 클록 소스를 1등급 주파수 소스로 추적할 수 없을 수도 있습니다.

gm.ClockClass 248

T-GM 시계가 FREERUN 모드입니다.

자세한 내용은 "위상/시간 추적 정보", ITU-T G.8275.1/Y.1369.1 권장 사항을 참조하세요.

7.2.5.2. Intel E810 NIC 하드웨어 구성 참조

이 정보를 사용하면 Intel E810 하드웨어 플러그인을 사용하여 E810 네트워크 인터페이스를 PTP 그랜드마스터 클록으로 구성하는 방법을 알아볼 수 있습니다. 하드웨어 핀 구성은 네트워크 인터페이스가 시스템의 다른 구성 요소 및 장치와 상호 작용하는 방식을 결정합니다. Intel E810 NIC에는 외부 1PPS 신호를 위한 4개의 커넥터가 있습니다: SMA1 , SMA2 , U.FL1 , U.FL2 .

Expand
표 7.3. Intel E810 NIC 하드웨어 커넥터 구성
하드웨어 핀권장 설정설명

U.FL1

0 1

U.FL1 커넥터 입력을 비활성화합니다. U.FL1 커넥터는 출력 전용입니다.

U.FL2

0 2

U.FL2 커넥터 출력을 비활성화합니다. U.FL2 커넥터는 입력 전용입니다.

SMA1

0 1

SMA1 커넥터 입력을 비활성화합니다. SMA1 커넥터는 양방향입니다.

SMA2

0 2

SMA2 커넥터 출력을 비활성화합니다. SMA2 커넥터는 양방향입니다.

다음 예와 같이 spec.profile.plugins.e810.pins 매개변수를 사용하여 Intel E810 NIC의 핀 구성을 설정할 수 있습니다.

pins:
      <interface_name>:
        <connector_name>: <function> <channel_number>
Copy to Clipboard Toggle word wrap

다음과 같습니다.

<함수> : 핀의 역할을 지정합니다. 다음 값은 핀 역할과 연관되어 있습니다.

  • 비활성화됨
  • 1 : Rx (수신 타임스탬프)
  • 2 : Tx (전송 타임스탬프)

<채널 번호> : 물리적 커넥터와 연결된 번호입니다. 다음 채널 번호는 물리적 커넥터와 연결되어 있습니다.

  • 1 : SMA1 또는 U.FL1
  • 2 : SMA2 또는 U.FL2

예:

  • 0 1 : SMA1 또는 U.FL1 에 매핑된 핀을 비활성화합니다.
  • 1 2 : SMA2 또는 U.FL2 에 Rx 기능을 할당합니다.
참고

SMA1U.FL1 커넥터는 채널 1을 공유합니다. SMA2U.FL2 커넥터는 채널 2를 공유합니다.

PtpConfig 사용자 정의 리소스(CR)에서 GNSS 시계를 구성하려면 spec.profile.plugins.e810.ublxCmds 매개변수를 설정합니다.

중요

T-GM GPS 안테나 케이블 신호 지연을 보상하기 위해 오프셋 값을 구성해야 합니다. 최적의 T-GM 안테나 오프셋 값을 구성하려면 GNSS 안테나 케이블 신호 지연을 정확하게 측정하세요. Red Hat은 이 측정을 지원하거나 필요한 지연 오프셋에 대한 값을 제공할 수 없습니다.

이러한 각 ublxCmds 스탠자는 ubxtool 명령을 사용하여 호스트 NIC에 적용되는 구성에 해당합니다. 예를 들면 다음과 같습니다.

ublxCmds:
  - args:
      - "-P"
      - "29.20"
      - "-z"
      - "CFG-HW-ANT_CFG_VOLTCTRL,1"
      - "-z"
      - "CFG-TP-ANT_CABLEDELAY,<antenna_delay_offset>"
1

    reportOutput: false
Copy to Clipboard Toggle word wrap
1
나노초 단위로 측정된 T-GM 안테나 지연 오프셋입니다. 필요한 지연 오프셋 값을 얻으려면 외부 테스트 장비를 사용하여 케이블 지연을 측정해야 합니다.

다음 표에서는 동등한 ubxtool 명령을 설명합니다.

Expand
표 7.4. Intel E810 ublxCmds 구성
ubxtool 명령어설명

ubxtool -P 29.20 -z CFG-HW-ANT_CFG_VOLTCTRL,1 -z CFG-TP-ANT_CABLEDELAY,<antenna_delay_offset>

안테나 전압 제어를 활성화하고, UBX-MON-RFUBX-INF-NOTICE 로그 메시지에서 안테나 상태를 보고하고, GPS 안테나 케이블 신호 지연을 오프셋하는 <antenna_delay_offset> 값을 나노초 단위로 설정합니다.

ubxtool -P 29.20 -e GPS

안테나가 GPS 신호를 수신할 수 있도록 합니다.

ubxtool -P 29.20 -d 갈릴레오

갈릴레오 GPS 위성으로부터 신호를 수신하도록 안테나를 구성합니다.

ubxtool -P 29.20 -d 글로나스

GLONASS GPS 위성에서 신호를 수신하는 안테나를 비활성화합니다.

ubxtool -P 29.20 -d BeiDou

BeiDou GPS 위성에서 신호를 수신하는 안테나를 비활성화합니다.

ubxtool -P 29.20 -d SBAS

SBAS GPS 위성에서 신호를 수신하는 안테나를 비활성화합니다.

ubxtool -P 29.20 -t -w 5 -v 1 -e SURVEYIN,600,50000

GNSS 수신기 조사 프로세스를 구성하여 초기 위치 추정치를 개선합니다. 최적의 결과를 얻으려면 최대 24시간이 걸릴 수 있습니다.

ubxtool -P 29.20 -p 월-하드웨어

하드웨어에 대한 단일 자동 스캔을 실행하고 NIC 상태 및 구성 설정에 대해 보고합니다.

7.2.5.3. 듀얼 E810 NIC 구성 참조

이 정보를 사용하면 Intel E810 하드웨어 플러그인을 사용하여 E810 네트워크 인터페이스 쌍을 PTP 그랜드마스터 클록(T-GM)으로 구성하는 방법을 알아볼 수 있습니다.

듀얼 NIC 클러스터 호스트를 구성하기 전에 1PPS 페이스플레이스 연결을 사용하여 두 개의 NIC를 SMA1 케이블로 연결해야 합니다.

듀얼 NIC T-GM을 구성하는 경우 SMA1 연결 포트를 사용하여 NIC를 연결할 때 발생하는 1PPS 신호 지연을 보상해야 합니다. 케이블 길이, 주변 온도, 구성 요소 및 제조 허용 오차와 같은 다양한 요소가 신호 지연에 영향을 미칠 수 있습니다. 지연을 보상하려면 신호 지연을 오프셋하는 데 사용하는 특정 값을 계산해야 합니다.

Expand
표 7.5. E810 듀얼 NIC T-GM PtpConfig CR 참조
PtpConfig 필드설명

spec.profile.plugins.e810.pins

PTP Operator E810 하드웨어 플러그인을 사용하여 E810 하드웨어 핀을 구성합니다.

  • 2 1은 NIC 1의 SMA1 에 대한 1PPS OUT 연결을 활성화합니다.
  • 1 1은 NIC 2의 SMA1 에 대한 1PPS IN 연결을 활성화합니다.

spec.profile.ts2phcConf

ts2phcConf 필드를 사용하여 NIC 1과 NIC 2에 대한 매개변수를 구성합니다. NIC 2에 대해 ts2phc.master 0을 설정합니다. 이는 GNSS가 아닌 1PPS 입력에서 NIC 2의 타이밍 소스를 구성합니다. 사용하는 특정 SMA 케이블과 케이블 길이로 인해 발생하는 지연을 보상하기 위해 NIC 2에 대한 ts2phc.extts_correction 값을 구성합니다. 구성하는 값은 구체적인 측정값과 SMA1 케이블 길이에 따라 달라집니다.

spec.profile.ptp4lConf

여러 NIC에 대한 지원을 활성화하려면 boundary_clock_jbod 값을 1로 설정합니다.

spec.profile.plugins.e810.pins 목록의 각 값은 <function> <channel_number> 형식을 따릅니다.

다음과 같습니다.

<함수> : 핀 역할을 지정합니다. 다음 값은 핀 역할과 연관되어 있습니다.

  • 비활성화됨
  • 1 : 수신(Rx) – 1PPS IN용
  • 2 : 전송(Tx) – 1PPS OUT용

<channel_number> : 물리적 커넥터와 연결된 번호입니다. 다음 채널 번호는 물리적 커넥터와 연결되어 있습니다.

  • 1 : SMA1 또는 U.FL1
  • 2 : SMA2 또는 U.FL2

예:

  • 2 1 : SMA1 에서 1PPS OUT (Tx)을 활성화합니다.
  • 1 1 : SMA1 에서 1PPS IN (Rx)을 활성화합니다.

PTP 운영자는 이러한 값을 Intel E810 하드웨어 플러그인에 전달하고 이를 각 NIC의 sysfs 핀 구성 인터페이스에 기록합니다.

7.2.5.4. 3카드 E810 NIC 구성 참조

이 정보를 사용하여 3개의 E810 NIC를 PTP 그랜드마스터 클록(T-GM)으로 구성하는 방법을 알아보세요.

3카드 클러스터 호스트를 구성하기 전에 1PPS 페이스플레이트 연결을 사용하여 3개의 NIC를 연결해야 합니다. 기본 NIC 1PPS_out 출력은 다른 2개의 NIC에 전원을 공급합니다.

3카드 T-GM을 구성할 경우 SMA1 연결 포트를 사용하여 NIC를 연결할 때 발생하는 1PPS 신호 지연을 보상해야 합니다. 케이블 길이, 주변 온도, 구성 요소 및 제조 허용 오차와 같은 다양한 요소가 신호 지연에 영향을 미칠 수 있습니다. 지연을 보상하려면 신호 지연을 오프셋하는 데 사용하는 특정 값을 계산해야 합니다.

Expand
표 7.6. 3카드 E810 T-GM PtpConfig CR 참조
PtpConfig 필드설명

spec.profile.plugins.e810.pins

PTP Operator E810 하드웨어 플러그인을 사용하여 E810 하드웨어 핀을 구성합니다.

  • $iface_timeTx1.SMA1은 NIC 1의 SMA1 에 대한 1PPS OUT 연결을 활성화합니다.
  • $iface_timeTx1.SMA2는 NIC 1의 SMA2 에 대한 1PPS OUT 연결을 활성화합니다.
  • $iface_timeTx2.SMA1$iface_timeTx3.SMA1은 NIC 2와 NIC 3의 SMA1 에 대한 1PPS IN 연결을 활성화합니다.
  • $iface_timeTx2.SMA2$iface_timeTx3.SMA2는 NIC 2와 NIC 3에서 SMA2 연결을 비활성화합니다.

spec.profile.ts2phcConf

ts2phcConf 필드를 사용하여 NIC에 대한 매개변수를 구성합니다. NIC 2와 NIC 3에 대해 ts2phc.master 0을 설정합니다. 이는 GNSS가 아닌 1PPS 입력에서 NIC 2와 NIC 3의 타이밍 소스를 구성합니다. 사용하는 특정 SMA 케이블과 케이블 길이로 인해 발생하는 지연을 보상하기 위해 NIC 2와 NIC 3에 대한 ts2phc.extts_correction 값을 구성합니다. 구성하는 값은 구체적인 측정값과 SMA1 케이블 길이에 따라 달라집니다.

spec.profile.ptp4lConf

여러 NIC에 대한 지원을 활성화하려면 boundary_clock_jbod 값을 1로 설정합니다.

7.2.6. GNSS를 소스로 사용하는 그랜드마스터 시계의 홀드오버

홀드오버를 사용하면 GNSS(전역 항법 위성 시스템) 소스를 사용할 수 없을 때 그랜드마스터(T-GM) 클록이 동기화 성능을 유지할 수 있습니다. 이 기간 동안 T-GM 클록은 내부 발진기와 홀드오버 매개변수를 사용하여 타이밍 혼란을 줄입니다.

PTPConfig 사용자 정의 리소스(CR)에서 다음 홀드오버 매개변수를 구성하여 홀드오버 동작을 정의할 수 있습니다.

MaxInSpecOffset
허용되는 최대 오프셋을 나노초 단위로 지정합니다. T-GM 클록이 MaxInSpecOffset 값을 초과하면 FREERUN 상태(클록 클래스 상태 gm.ClockClass 248 )로 전환됩니다.
LocalHoldoverTimeout
T-GM 클록이 FREERUN 상태로 전환되기 전에 홀드오버 상태를 유지하는 최대 기간(초)을 지정합니다.
LocalMaxHoldoverOffSet
홀드오버 상태 동안 T-GM 클록이 도달할 수 있는 최대 오프셋을 나노초 단위로 지정합니다.

MaxInSpecOffset 값이 LocalMaxHoldoverOffset 값보다 작고 T-GM 클록이 최대 오프셋 값을 초과하는 경우, T-GM 클록은 홀드오버 상태에서 FREERUN 상태로 전환됩니다.

중요

LocalMaxHoldoverOffSet 값이 MaxInSpecOffset 값보다 작으면 클록이 최대 오프셋에 도달하기 전에 홀드오버 타임아웃이 발생합니다. 이 문제를 해결하려면 MaxInSpecOffset 필드와 LocalMaxHoldoverOffset 필드를 같은 값으로 설정합니다.

클록 클래스 상태에 대한 자세한 내용은 "그랜드마스터 클록 클래스 동기화 상태 참조" 문서를 참조하세요.

T-GM 클록은 홀드오버 매개변수 LocalMaxHoldoverOffSetLocalHoldoverTimeout 을 사용하여 기울기를 계산합니다. 기울기는 위상 오프셋이 시간에 따라 변하는 비율입니다. 오프셋은 초당 나노초 단위로 측정되며, 설정된 값은 주어진 기간 동안 오프셋이 얼마나 증가하는지를 나타냅니다.

T-GM 시계는 기울기 값을 사용하여 시간 편차를 예측하고 보상하므로 홀드오버 동안 타이밍 중단이 줄어듭니다. T-GM 시계는 다음 공식을 사용하여 기울기를 계산합니다.

  • Slope = localMaxHoldoverOffSet / localHoldoverTimeout

    예를 들어, LocalHoldOverTimeout 매개변수가 60초로 설정되고 LocalMaxHoldoverOffset 매개변수가 3000나노초로 설정된 경우 기울기는 다음과 같이 계산됩니다.

    기울기 = 3000나노초 / 60초 = 초당 50나노초

    T-GM 시계는 60초 만에 최대 오프셋에 도달합니다.

참고

위상 오프셋은 피코초에서 나노초로 변환됩니다. 결과적으로 홀드오버 동안 계산된 위상 오프셋은 나노초 단위로 표현되고, 결과 기울기는 초당 나노초 단위로 표현됩니다.

다음 그림은 GNSS를 소스로 하는 T-GM 시계의 홀드오버 동작을 보여줍니다.

그림 7.5. GNSS를 소스로 하는 T-GM 시계의 홀드오버

20 GNSS 신호가 손실되어 T-GM 시계가 HOLDOVER 모드로 전환됩니다. T-GM 시계는 내부 시계를 사용하여 시간 정확도를 유지합니다.

20 GNSS 신호가 복구되고 T-GM 시계가 다시 LOCKED 모드로 들어갑니다. GNSS 신호가 복구되면 T-GM 클록은 동기화 체인의 모든 종속 구성 요소(예: ts2phc 오프셋, 디지털 위상 잠금 루프(DPLL) 위상 오프셋, GNSS 오프셋)가 안정적인 LOCKED 모드에 도달한 후에만 LOCKED 모드로 다시 들어갑니다.

20 GNSS 신호가 다시 손실되고 T-GM 시계는 다시 HOLDOVER 모드로 들어갑니다. 시간 오차가 증가하기 시작합니다.

20 추적성이 장기간 손실되어 시간 오류가 MaxInSpecOffset 임계값을 초과했습니다.

20 GNSS 신호가 복구되고 T-GM 시계가 동기화를 재개합니다. 시간 오차가 감소하기 시작합니다.

20 시간 오차는 감소하여 MaxInSpecOffset 임계값 내로 떨어집니다.

7.2.7. PTP 그랜드마스터 클록에 대한 동적 윤초 처리 구성

PTP Operator 컨테이너 이미지에는 출시 당시 사용 가능한 최신 leap-seconds.list 파일이 포함되어 있습니다. GPS(Global Positioning System) 알림을 사용하여 PTP 운영자가 윤초 파일을 자동으로 업데이트하도록 구성할 수 있습니다.

윤초 정보는 openshift-ptp 네임스페이스의 leap-configmap 이라는 자동 생성된 ConfigMap 리소스에 저장됩니다. PTP 운영자는 ts2phc 프로세스가 접근할 수 있는 linuxptp-daemon 포드의 볼륨으로 leap-configmap 리소스를 마운트합니다.

GPS 위성이 새로운 윤초 데이터를 방송하면 PTP 운영자는 새로운 데이터로 leap-configmap 리소스를 업데이트합니다. ts2phc 프로세스는 변경 사항을 자동으로 적용합니다.

참고

다음 절차는 참고용으로 제공됩니다. PTP Operator의 4.19 버전은 기본적으로 자동 윤초 관리를 활성화합니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • cluster-admin 권한이 있는 사용자로 로그인했습니다.
  • 클러스터에 PTP 운영자를 설치하고 PTP 그랜드마스터 클록(T-GM)을 구성했습니다.

프로세스

  1. PtpConfig CR의 phc2sysOpts 섹션에서 자동 윤초 처리를 구성합니다. 다음 옵션을 설정하세요.

    phc2sysOpts: -r -u 0 -m -N 8 -R 16 -S 2 -s ens2f0 -n 24 
    1
    Copy to Clipboard Toggle word wrap
    참고

    이전에는 T-GM에서 과거 윤초를 고려하기 위해 phc2sys 구성( -O -37 )에서 오프셋 조정이 필요했습니다. 더 이상 필요하지 않습니다.

  2. PtpConfig CR의 spec.profile.plugins.e810.ublxCmds 섹션에서 GPS 수신기가 NAV-TIMELS 메시지를 주기적으로 보고할 수 있도록 Intel e810 NIC를 구성합니다. 예를 들면 다음과 같습니다.

    - args: #ubxtool -P 29.20 -p CFG-MSG,1,38,248
        - "-P"
        - "29.20"
        - "-p"
        - "CFG-MSG,1,38,248"
    Copy to Clipboard Toggle word wrap

검증

  1. 구성된 T-GM이 연결된 GPS로부터 NAV-TIMELS 메시지를 수신하고 있는지 확인합니다. 다음 명령을 실행합니다.

    $ oc -n openshift-ptp -c linuxptp-daemon-container exec -it $(oc -n openshift-ptp get pods -o name | grep daemon) -- ubxtool -t -p NAV-TIMELS -P 29.20
    Copy to Clipboard Toggle word wrap

    출력 예

    1722509534.4417
    UBX-NAV-STATUS:
      iTOW 384752000 gpsFix 5 flags 0xdd fixStat 0x0 flags2 0x8
      ttff 18261, msss 1367642864
    
    1722509534.4419
    UBX-NAV-TIMELS:
      iTOW 384752000 version 0 reserved2 0 0 0 srcOfCurrLs 2
      currLs 18 srcOfLsChange 2 lsChange 0 timeToLsEvent 70376866
      dateOfLsGpsWn 2441 dateOfLsGpsDn 7 reserved2 0 0 0
      valid x3
    
    1722509534.4421
    UBX-NAV-CLOCK:
      iTOW 384752000 clkB 784281 clkD 435 tAcc 3 fAcc 215
    
    1722509535.4477
    UBX-NAV-STATUS:
      iTOW 384753000 gpsFix 5 flags 0xdd fixStat 0x0 flags2 0x8
      ttff 18261, msss 1367643864
    
    1722509535.4479
    UBX-NAV-CLOCK:
      iTOW 384753000 clkB 784716 clkD 435 tAcc 3 fAcc 218
    Copy to Clipboard Toggle word wrap

  2. PTP 운영자가 leap-configmap 리소스를 성공적으로 생성했고 최신 버전의 leap-seconds.list 로 업데이트되었는지 확인합니다. 다음 명령을 실행합니다.

    $ oc -n openshift-ptp get configmap leap-configmap -o jsonpath='{.data.<node_name>}' 
    1
    Copy to Clipboard Toggle word wrap
    1 1
    <노드_이름>을 자동 윤초 관리 기능이 있는 PTP T-GM 시계를 설치하고 구성한 노드로 바꾸세요. 노드 이름에 특수문자를 이스케이프합니다. 예를 들어, node-1\.example\.com .

    출력 예

    # Do not edit
    # This file is generated automatically by linuxptp-daemon
    #$  3913697179
    #@  4291747200
    2272060800     10    # 1 Jan 1972
    2287785600     11    # 1 Jul 1972
    2303683200     12    # 1 Jan 1973
    2335219200     13    # 1 Jan 1974
    2366755200     14    # 1 Jan 1975
    2398291200     15    # 1 Jan 1976
    2429913600     16    # 1 Jan 1977
    2461449600     17    # 1 Jan 1978
    2492985600     18    # 1 Jan 1979
    2524521600     19    # 1 Jan 1980
    2571782400     20    # 1 Jul 1981
    2603318400     21    # 1 Jul 1982
    2634854400     22    # 1 Jul 1983
    2698012800     23    # 1 Jul 1985
    2776982400     24    # 1 Jan 1988
    2840140800     25    # 1 Jan 1990
    2871676800     26    # 1 Jan 1991
    2918937600     27    # 1 Jul 1992
    2950473600     28    # 1 Jul 1993
    2982009600     29    # 1 Jul 1994
    3029443200     30    # 1 Jan 1996
    3076704000     31    # 1 Jul 1997
    3124137600     32    # 1 Jan 1999
    3345062400     33    # 1 Jan 2006
    3439756800     34    # 1 Jan 2009
    3550089600     35    # 1 Jul 2012
    3644697600     36    # 1 Jul 2015
    3692217600     37    # 1 Jan 2017
    
    #h  e65754d4 8f39962b aa854a61 661ef546 d2af0bfa
    Copy to Clipboard Toggle word wrap

7.2.8. linuxptp 서비스를 경계 클록으로 구성

PtpConfig 사용자 정의 리소스(CR) 객체를 생성하여 linuxptp 서비스( ptp4l , phc2sys )를 경계 클록으로 구성할 수 있습니다.

참고

다음 예제 PtpConfig CR을 기반으로 특정 하드웨어 및 환경에 대한 경계 클록으로 linuxptp 서비스를 구성합니다. 이 예제 CR은 PTP 빠른 이벤트를 구성하지 않습니다. PTP 빠른 이벤트를 구성하려면 ptp4lOpts , ptp4lConfptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold는 이벤트가 활성화된 경우에만 사용됩니다. 자세한 내용은 "PTP 빠른 이벤트 알림 게시자 구성"을 참조하세요.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. 다음 PtpConfig CR을 만든 다음 YAML을 boundary-clock-ptp-config.yaml 파일에 저장합니다.

    PTP 경계 클록 구성 예

    apiVersion: ptp.openshift.io/v1
    kind: PtpConfig
    metadata:
      name: boundary-clock
      namespace: openshift-ptp
      annotations: {}
    spec:
      profile:
        - name: boundary-clock
          ptp4lOpts: "-2"
          phc2sysOpts: "-a -r -n 24"
          ptpSchedulingPolicy: SCHED_FIFO
          ptpSchedulingPriority: 10
          ptpSettings:
            logReduce: "true"
          ptp4lConf: |
            # The interface name is hardware-specific
            [$iface_slave]
            masterOnly 0
            [$iface_master_1]
            masterOnly 1
            [$iface_master_2]
            masterOnly 1
            [$iface_master_3]
            masterOnly 1
            [global]
            #
            # Default Data Set
            #
            twoStepFlag 1
            slaveOnly 0
            priority1 128
            priority2 128
            domainNumber 24
            #utc_offset 37
            clockClass 248
            clockAccuracy 0xFE
            offsetScaledLogVariance 0xFFFF
            free_running 0
            freq_est_interval 1
            dscp_event 0
            dscp_general 0
            dataset_comparison G.8275.x
            G.8275.defaultDS.localPriority 128
            #
            # Port Data Set
            #
            logAnnounceInterval -3
            logSyncInterval -4
            logMinDelayReqInterval -4
            logMinPdelayReqInterval -4
            announceReceiptTimeout 3
            syncReceiptTimeout 0
            delayAsymmetry 0
            fault_reset_interval -4
            neighborPropDelayThresh 20000000
            masterOnly 0
            G.8275.portDS.localPriority 128
            #
            # Run time options
            #
            assume_two_step 0
            logging_level 6
            path_trace_enabled 0
            follow_up_info 0
            hybrid_e2e 0
            inhibit_multicast_service 0
            net_sync_monitor 0
            tc_spanning_tree 0
            tx_timestamp_timeout 50
            unicast_listen 0
            unicast_master_table 0
            unicast_req_duration 3600
            use_syslog 1
            verbose 0
            summary_interval 0
            kernel_leap 1
            check_fup_sync 0
            clock_class_threshold 135
            #
            # Servo Options
            #
            pi_proportional_const 0.0
            pi_integral_const 0.0
            pi_proportional_scale 0.0
            pi_proportional_exponent -0.3
            pi_proportional_norm_max 0.7
            pi_integral_scale 0.0
            pi_integral_exponent 0.4
            pi_integral_norm_max 0.3
            step_threshold 2.0
            first_step_threshold 0.00002
            max_frequency 900000000
            clock_servo pi
            sanity_freq_limit 200000000
            ntpshm_segment 0
            #
            # Transport options
            #
            transportSpecific 0x0
            ptp_dst_mac 01:1B:19:00:00:00
            p2p_dst_mac 01:80:C2:00:00:0E
            udp_ttl 1
            udp6_scope 0x0E
            uds_address /var/run/ptp4l
            #
            # Default interface options
            #
            clock_type BC
            network_transport L2
            delay_mechanism E2E
            time_stamping hardware
            tsproc_mode filter
            delay_filter moving_median
            delay_filter_length 10
            egressLatency 0
            ingressLatency 0
            boundary_clock_jbod 0
            #
            # Clock description
            #
            productDescription ;;
            revisionData ;;
            manufacturerIdentity 00:00:00
            userDescription ;
            timeSource 0xA0
      recommend:
        - profile: boundary-clock
          priority: 4
          match:
            - nodeLabel: "node-role.kubernetes.io/$mcp"
    Copy to Clipboard Toggle word wrap

    Expand
    표 7.7. PTP 경계 클록 CR 구성 옵션
    CR 필드설명

    name

    PtpConfig CR의 이름입니다.

    profile

    하나 이상의 profile 오브젝트의 배열을 지정합니다.

    name

    프로파일 오브젝트를 고유하게 식별하는 프로파일 오브젝트의 이름을 지정합니다.

    ptp4lOpts

    ptp4l 서비스에 대한 시스템 구성 옵션을 지정합니다. 옵션은 네트워크 인터페이스 이름과 서비스 구성 파일이 자동으로 추가되므로 네트워크 인터페이스 이름 -i <interface> 및 서비스 구성 파일 -f /etc/ptp4l.conf를 포함하지 않아야 합니다.

    ptp4lConf

    ptp4l을 경계 클록으로 시작하는 데 필요한 구성을 지정합니다. 예를 들어 ens1f0 은 그랜드 마스터 클록에서 동기화되고 ens1f3은 연결된 장치를 동기화합니다.

    <interface_1>

    동기화 클럭을 수신하는 인터페이스입니다.

    <interface_2>

    동기화 클럭을 전송하는 인터페이스입니다.

    tx_timestamp_timeout

    Intel Columbiaville 800 시리즈 NIC의 경우 tx_timestamp_timeout을 50 으로 설정합니다.

    boundary_clock_jbod

    Intel Columbiaville 800 시리즈 NIC의 경우 boundary_clock_jbod가 0 으로 설정되어 있는지 확인하세요. Intel Fortville X710 시리즈 NIC의 경우 boundary_clock_jbod가 1 로 설정되어 있는지 확인하세요.

    phc2sysOpts

    phc2sys 서비스에 대한 시스템 구성 옵션을 지정합니다. 이 필드가 비어 있으면 PTP Operator에서 phc2sys 서비스를 시작하지 않습니다.

    ptpSchedulingPolicy

    ptp4l 및 phc2sys 프로세스에 대한 스케줄링 정책. 기본값은 SCHED_OTHER 입니다. FIFO 스케줄링을 지원하는 시스템에서 SCHED_FIFO를 사용합니다.

    ptpSchedulingPriority

    ptpSchedulingPolicy가 SCHED_FIFO 로 설정된 경우 ptp4lphc2sys 프로세스에 대한 FIFO 우선 순위를 설정하는 데 사용되는 1~65의 정수 값입니다. ptpSchedulingPolicy가 SCHED_OTHER 로 설정된 경우 ptpSchedulingPriority 필드는 사용되지 않습니다.

    ptpClockThreshold

    선택 사항: ptpClockThreshold 가 없으면 ptpClockThreshold 필드에 기본값이 사용됩니다. ptpClockThreshold는 PTP 마스터 클록의 연결이 끊긴 후 PTP 이벤트가 트리거되기까지 걸리는 시간을 구성합니다. holdOverTimeout은 PTP 마스터 클록이 연결 해제될 때 PTP 클록 이벤트 상태가 FREERUN 으로 변경되기 전의 시간 값(초)입니다. maxOffsetThresholdminOffsetThreshold 설정은 CLOCK_REALTIME ( phc2sys ) 또는 마스터 오프셋( ptp4l ) 값과 비교하는 나노초 단위의 오프셋 값을 구성합니다. ptp4l 또는 phc2sys 오프셋 값이 이 범위를 벗어나면 PTP 클록 상태가 FREERUN 으로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클록 상태가 LOCKED 로 설정됩니다.

    recommend[]

    profile이 노드에 적용되는 방법에 대한 규칙을 정의하는 하나 이상의 recommend 오브젝트 배열을 지정합니다.

    .recommend.profile

    프로필 섹션에 정의된 .recommend.profile 개체 이름을 지정합니다.

    .recommend.priority

    0에서 99 사이의 정수 값으로 priority를 지정합니다. 숫자가 클수록 우선순위가 낮으므로 우선순위 99는 우선순위 10보다 낮습니다. match 필드에 정의된 규칙에 따라 여러 프로필과 노드를 일치시킬 수 있는 경우 우선 순위가 높은 프로필이 해당 노드에 적용됩니다.

    .recommend.match

    nodeLabel 또는 nodeName 값으로 .recommend.match 규칙을 지정합니다.

    .recommend.match.nodeLabel

    oc get nodes --show-labels 명령을 사용하여 노드 객체의 node.Labels 필드의 키로 nodeLabel을 설정합니다. 예를 들어, node-role.kubernetes.io/worker .

    .recommend.match.nodeName

    oc get nodes 명령을 사용하여 노드 객체의 node.Name 필드 값으로 nodeName을 설정합니다. 예를 들어, compute-1.example.com .

  2. 다음 명령을 실행하여 CR을 생성합니다.

    $ oc create -f boundary-clock-ptp-config.yaml
    Copy to Clipboard Toggle word wrap

검증

  1. PtpConfig 프로필이 노드에 적용되었는지 확인합니다.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                            READY   STATUS    RESTARTS   AGE   IP               NODE
      linuxptp-daemon-4xkbb           1/1     Running   0          43m   10.1.196.24      compute-0.example.com
      linuxptp-daemon-tdspf           1/1     Running   0          43m   10.1.196.25      compute-1.example.com
      ptp-operator-657bbb64c8-2f8sj   1/1     Running   0          43m   10.129.0.61      control-plane-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 프로필이 올바른지 확인합니다. PtpConfig 프로필에 지정한 노드에 해당하는 linuxptp 데몬의 로그를 검사합니다. 다음 명령을 실행합니다.

      $ oc logs linuxptp-daemon-4xkbb -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      I1115 09:41:17.117596 4143292 daemon.go:107] in applyNodePTPProfile
      I1115 09:41:17.117604 4143292 daemon.go:109] updating NodePTPProfile to:
      I1115 09:41:17.117607 4143292 daemon.go:110] ------------------------------------
      I1115 09:41:17.117612 4143292 daemon.go:102] Profile Name: profile1
      I1115 09:41:17.117616 4143292 daemon.go:102] Interface:
      I1115 09:41:17.117620 4143292 daemon.go:102] Ptp4lOpts: -2
      I1115 09:41:17.117623 4143292 daemon.go:102] Phc2sysOpts: -a -r -n 24
      I1115 09:41:17.117626 4143292 daemon.go:116] ------------------------------------
      Copy to Clipboard Toggle word wrap

7.2.8.1. 듀얼 NIC 하드웨어에 대한 경계 클록으로 linuxptp 서비스 구성

각 NIC에 대한 PtpConfig 사용자 정의 리소스(CR) 객체를 생성하여 linuxptp 서비스( ptp4l , phc2sys )를 듀얼 NIC 하드웨어의 경계 클록으로 구성할 수 있습니다.

듀얼 NIC 하드웨어를 사용하면 각 NIC를 동일한 업스트림 리더 클록에 연결할 수 있으며, 각 NIC에 대해 별도의 ptp4l 인스턴스를 통해 다운스트림 클록을 공급할 수 있습니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. "경계 클록으로 linuxptp 서비스 구성"의 참조 CR을 각 CR의 기준으로 사용하여 각 NIC에 대해 하나씩 두 개의 별도 PtpConfig CR을 만듭니다. 예를 들면 다음과 같습니다.

    1. phc2sysOpts 에 대한 값을 지정하여 boundary-clock-ptp-config-nic1.yaml을 생성합니다.

      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: boundary-clock-ptp-config-nic1
        namespace: openshift-ptp
      spec:
        profile:
        - name: "profile1"
          ptp4lOpts: "-2 --summary_interval -4"
          ptp4lConf: | 
      1
      
            [ens5f1]
            masterOnly 1
            [ens5f0]
            masterOnly 0
          ...
          phc2sysOpts: "-a -r -m -n 24 -N 8 -R 16" 
      2
      Copy to Clipboard Toggle word wrap
      1
      ptp4l을 경계 클록으로 시작하는 데 필요한 인터페이스를 지정합니다. 예를 들어, ens5f0은 그랜드마스터 클럭과 동기화하고, ens5f1은 연결된 장치와 동기화합니다.
      2
      필수 phc2sysOpts 값. -m은 stdout 에 메시지를 출력합니다. linuxptp-daemon DaemonSet은 로그를 구문 분석하고 Prometheus 메트릭을 생성합니다.
    2. 두 번째 NIC에 대한 phc2sys 서비스를 비활성화하려면 boundary-clock-ptp-config-nic2.yaml을 만들고 phc2sysOpts 필드를 완전히 제거합니다.

      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: boundary-clock-ptp-config-nic2
        namespace: openshift-ptp
      spec:
        profile:
        - name: "profile2"
          ptp4lOpts: "-2 --summary_interval -4"
          ptp4lConf: | 
      1
      
            [ens7f1]
            masterOnly 1
            [ens7f0]
            masterOnly 0
      ...
      Copy to Clipboard Toggle word wrap
      1
      두 번째 NIC에서 경계 클록으로 ptp4l을 시작하는 데 필요한 인터페이스를 지정합니다.
      참고

      두 번째 NIC에서 phc2sys 서비스를 비활성화하려면 두 번째 PtpConfig CR에서 phc2sysOpts 필드를 완전히 제거해야 합니다.

  2. 다음 명령을 실행하여 듀얼 NIC PtpConfig CR을 만듭니다.

    1. 첫 번째 NIC에 대한 PTP를 구성하는 CR을 만듭니다.

      $ oc create -f boundary-clock-ptp-config-nic1.yaml
      Copy to Clipboard Toggle word wrap
    2. 두 번째 NIC에 대한 PTP를 구성하는 CR을 만듭니다.

      $ oc create -f boundary-clock-ptp-config-nic2.yaml
      Copy to Clipboard Toggle word wrap

검증

  • PTP 운영자가 두 NIC 모두에 PtpConfig CR을 적용했는지 확인하세요. 듀얼 NIC 하드웨어가 설치된 노드에 해당하는 linuxptp 데몬의 로그를 조사합니다. 예를 들어 다음 명령을 실행합니다.

    $ oc logs linuxptp-daemon-cvgr6 -n openshift-ptp -c linuxptp-daemon-container
    Copy to Clipboard Toggle word wrap

    출력 예

    ptp4l[80828.335]: [ptp4l.1.config] master offset          5 s2 freq   -5727 path delay       519
    ptp4l[80828.343]: [ptp4l.0.config] master offset         -5 s2 freq  -10607 path delay       533
    phc2sys[80828.390]: [ptp4l.0.config] CLOCK_REALTIME phc offset         1 s2 freq  -87239 delay    539
    Copy to Clipboard Toggle word wrap

이중 PTP 경계 클럭(T-BC)의 linuxptp 서비스 ptp4lphc2sys 를 고가용성(HA) 시스템 클럭으로 구성할 수 있습니다.

고가용성 시스템 클록은 두 개의 경계 클록으로 구성된 듀얼 NIC Intel E810 Salem 채널 하드웨어의 여러 시간 소스를 사용합니다. 두 개의 경계 클록 인스턴스가 HA 설정에 참여하며, 각각 고유한 구성 프로필을 갖습니다. 각 NIC를 다운스트림 클럭에 공급하는 각 NIC에 대한 별도의 ptp4l 인스턴스를 사용하여 동일한 업스트림 리더 클럭에 연결합니다.

NIC를 T-BC로 구성하는 두 개의 PtpConfig 사용자 정의 리소스(CR) 개체와 두 NIC 간의 고가용성을 구성하는 세 번째 PtpConfig CR을 만듭니다.

중요

HA를 구성하는 PtpConfig CR에서 phc2SysOpts 옵션을 한 번 설정합니다. 두 NIC를 구성하는 PtpConfig CR에서 phc2sysOpts 필드를 빈 문자열로 설정합니다. 이렇게 하면 두 프로필에 대해 개별 phc2sys 프로세스가 설정되는 것을 방지할 수 있습니다.

세 번째 PtpConfig CR은 고가용성 시스템 클록 서비스를 구성합니다. CR은 ptp4l 프로세스가 실행되지 않도록 ptp4lOpts 필드를 빈 문자열로 설정합니다. CR은 spec.profile.ptpSettings.haProfiles 키 아래에 ptp4l 구성에 대한 프로필을 추가하고 해당 프로필의 커널 소켓 경로를 phc2sys 서비스에 전달합니다. ptp4l 오류가 발생하면 phc2sys 서비스는 백업 ptp4l 구성으로 전환합니다. 기본 프로필이 다시 활성화되면 phc2sys 서비스는 원래 상태로 돌아갑니다.

중요

HA를 구성하는 데 사용하는 세 개의 PtpConfig CR 모두에 대해 spec.recommend.priority를 동일한 값으로 설정했는지 확인하세요.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.
  • Intel E810 Salem 채널 듀얼 NIC를 사용하여 클러스터 노드를 구성합니다.

프로세스

  1. "듀얼 NIC 하드웨어에 대한 경계 클록으로 linuxptp 서비스 구성"의 CR을 각 CR에 대한 참조로 사용하여 각 NIC에 대해 하나씩 두 개의 별도 PtpConfig CR을 만듭니다.

    1. phc2sysOpts 필드에 빈 문자열을 지정하여 ha-ptp-config-nic1.yaml 파일을 만듭니다. 예를 들면 다음과 같습니다.

      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: ha-ptp-config-nic1
        namespace: openshift-ptp
      spec:
        profile:
        - name: "ha-ptp-config-profile1"
          ptp4lOpts: "-2 --summary_interval -4"
          ptp4lConf: | 
      1
      
            [ens5f1]
            masterOnly 1
            [ens5f0]
            masterOnly 0
          #...
          phc2sysOpts: "" 
      2
      Copy to Clipboard Toggle word wrap
      1
      ptp4l을 경계 클록으로 시작하는 데 필요한 인터페이스를 지정합니다. 예를 들어, ens5f0은 그랜드마스터 클럭과 동기화하고, ens5f1은 연결된 장치와 동기화합니다.
      2
      phc2sysOpts를 빈 문자열로 설정합니다. 이러한 값은 고가용성을 구성하는 PtpConfig CR의 spec.profile.ptpSettings.haProfiles 필드에서 채워집니다.
    2. 다음 명령을 실행하여 NIC 1에 PtpConfig CR을 적용합니다.

      $ oc create -f ha-ptp-config-nic1.yaml
      Copy to Clipboard Toggle word wrap
    3. phc2sysOpts 필드에 빈 문자열을 지정하여 ha-ptp-config-nic2.yaml 파일을 만듭니다. 예를 들면 다음과 같습니다.

      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: ha-ptp-config-nic2
        namespace: openshift-ptp
      spec:
        profile:
        - name: "ha-ptp-config-profile2"
          ptp4lOpts: "-2 --summary_interval -4"
          ptp4lConf: |
            [ens7f1]
            masterOnly 1
            [ens7f0]
            masterOnly 0
          #...
          phc2sysOpts: ""
      Copy to Clipboard Toggle word wrap
    4. 다음 명령을 실행하여 NIC 2에 PtpConfig CR을 적용합니다.

      $ oc create -f ha-ptp-config-nic2.yaml
      Copy to Clipboard Toggle word wrap
  2. HA 시스템 클록을 구성하는 PtpConfig CR을 만듭니다. 예를 들면 다음과 같습니다.

    1. ptp-config-for-ha.yaml 파일을 만듭니다. PtpConfig CR에 설정된 metadata.name 필드와 일치하도록 haProfiles를 설정합니다. 이 필드는 두 NIC를 구성합니다. 예: haProfiles: ha-ptp-config-nic1,ha-ptp-config-nic2

      apiVersion: ptp.openshift.io/v1
      kind: PtpConfig
      metadata:
        name: boundary-ha
        namespace: openshift-ptp
        annotations: {}
      spec:
        profile:
          - name: "boundary-ha"
            ptp4lOpts: "" 
      1
      
            phc2sysOpts: "-a -r -n 24"
            ptpSchedulingPolicy: SCHED_FIFO
            ptpSchedulingPriority: 10
            ptpSettings:
              logReduce: "true"
              haProfiles: "$profile1,$profile2"
        recommend:
          - profile: "boundary-ha"
            priority: 4
            match:
              - nodeLabel: "node-role.kubernetes.io/$mcp"
      Copy to Clipboard Toggle word wrap
      1
      ptp4lOpts 필드를 빈 문자열로 설정합니다. 비어 있지 않으면 p4ptl 프로세스가 심각한 오류로 시작됩니다.
    중요

    개별 NIC를 구성하는 PtpConfig CR 앞에 고가용성 PtpConfig CR을 적용하지 마세요.

    1. 다음 명령을 실행하여 HA PtpConfig CR을 적용합니다.

      $ oc create -f ptp-config-for-ha.yaml
      Copy to Clipboard Toggle word wrap

검증

  • PTP 운영자가 PtpConfig CR을 올바르게 적용했는지 확인하세요. 다음 단계를 수행하세요.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                            READY   STATUS    RESTARTS   AGE   IP               NODE
      linuxptp-daemon-4xkrb           1/1     Running   0          43m   10.1.196.24      compute-0.example.com
      ptp-operator-657bbq64c8-2f8sj   1/1     Running   0          43m   10.129.0.61      control-plane-1.example.com
      Copy to Clipboard Toggle word wrap

      참고

      linuxptp-daemon 포드는 하나만 있어야 합니다.

    2. 다음 명령을 실행하여 프로필이 올바른지 확인하세요. PtpConfig 프로필에 지정한 노드에 해당하는 linuxptp 데몬의 로그를 검사합니다.

      $ oc logs linuxptp-daemon-4xkrb -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      I1115 09:41:17.117596 4143292 daemon.go:107] in applyNodePTPProfile
      I1115 09:41:17.117604 4143292 daemon.go:109] updating NodePTPProfile to:
      I1115 09:41:17.117607 4143292 daemon.go:110] ------------------------------------
      I1115 09:41:17.117612 4143292 daemon.go:102] Profile Name: ha-ptp-config-profile1
      I1115 09:41:17.117616 4143292 daemon.go:102] Interface:
      I1115 09:41:17.117620 4143292 daemon.go:102] Ptp4lOpts: -2
      I1115 09:41:17.117623 4143292 daemon.go:102] Phc2sysOpts: -a -r -n 24
      I1115 09:41:17.117626 4143292 daemon.go:116] ------------------------------------
      Copy to Clipboard Toggle word wrap

7.2.9. linuxptp 서비스를 일반 클록으로 구성

PtpConfig 사용자 정의 리소스(CR) 객체를 생성하여 linuxptp 서비스( ptp4l , phc2sys )를 일반 시계로 구성할 수 있습니다.

참고

다음 예제 PtpConfig CR을 기반으로 특정 하드웨어 및 환경에 맞는 일반 시계로 linuxptp 서비스를 구성하세요. 이 예제 CR은 PTP 빠른 이벤트를 구성하지 않습니다. PTP 빠른 이벤트를 구성하려면 ptp4lOpts , ptp4lConfptpClockThreshold 에 적절한 값을 설정합니다. ptpClockThreshold 는 이벤트가 활성화된 경우에만 필요합니다. 자세한 내용은 "PTP 빠른 이벤트 알림 게시자 구성"을 참조하세요.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. 다음 PtpConfig CR을 생성한 다음 YAML을 ordinary-clock-ptp-config.yaml 파일에 저장합니다.

    PTP 일반 클록 구성 예

    apiVersion: ptp.openshift.io/v1
    kind: PtpConfig
    metadata:
      name: ordinary-clock
      namespace: openshift-ptp
      annotations: {}
    spec:
      profile:
        - name: ordinary-clock
          # The interface name is hardware-specific
          interface: $interface
          ptp4lOpts: "-2 -s"
          phc2sysOpts: "-a -r -n 24"
          ptpSchedulingPolicy: SCHED_FIFO
          ptpSchedulingPriority: 10
          ptpSettings:
            logReduce: "true"
          ptp4lConf: |
            [global]
            #
            # Default Data Set
            #
            twoStepFlag 1
            slaveOnly 1
            priority1 128
            priority2 128
            domainNumber 24
            #utc_offset 37
            clockClass 255
            clockAccuracy 0xFE
            offsetScaledLogVariance 0xFFFF
            free_running 0
            freq_est_interval 1
            dscp_event 0
            dscp_general 0
            dataset_comparison G.8275.x
            G.8275.defaultDS.localPriority 128
            #
            # Port Data Set
            #
            logAnnounceInterval -3
            logSyncInterval -4
            logMinDelayReqInterval -4
            logMinPdelayReqInterval -4
            announceReceiptTimeout 3
            syncReceiptTimeout 0
            delayAsymmetry 0
            fault_reset_interval -4
            neighborPropDelayThresh 20000000
            masterOnly 0
            G.8275.portDS.localPriority 128
            #
            # Run time options
            #
            assume_two_step 0
            logging_level 6
            path_trace_enabled 0
            follow_up_info 0
            hybrid_e2e 0
            inhibit_multicast_service 0
            net_sync_monitor 0
            tc_spanning_tree 0
            tx_timestamp_timeout 50
            unicast_listen 0
            unicast_master_table 0
            unicast_req_duration 3600
            use_syslog 1
            verbose 0
            summary_interval 0
            kernel_leap 1
            check_fup_sync 0
            clock_class_threshold 7
            #
            # Servo Options
            #
            pi_proportional_const 0.0
            pi_integral_const 0.0
            pi_proportional_scale 0.0
            pi_proportional_exponent -0.3
            pi_proportional_norm_max 0.7
            pi_integral_scale 0.0
            pi_integral_exponent 0.4
            pi_integral_norm_max 0.3
            step_threshold 2.0
            first_step_threshold 0.00002
            max_frequency 900000000
            clock_servo pi
            sanity_freq_limit 200000000
            ntpshm_segment 0
            #
            # Transport options
            #
            transportSpecific 0x0
            ptp_dst_mac 01:1B:19:00:00:00
            p2p_dst_mac 01:80:C2:00:00:0E
            udp_ttl 1
            udp6_scope 0x0E
            uds_address /var/run/ptp4l
            #
            # Default interface options
            #
            clock_type OC
            network_transport L2
            delay_mechanism E2E
            time_stamping hardware
            tsproc_mode filter
            delay_filter moving_median
            delay_filter_length 10
            egressLatency 0
            ingressLatency 0
            boundary_clock_jbod 0
            #
            # Clock description
            #
            productDescription ;;
            revisionData ;;
            manufacturerIdentity 00:00:00
            userDescription ;
            timeSource 0xA0
      recommend:
        - profile: ordinary-clock
          priority: 4
          match:
            - nodeLabel: "node-role.kubernetes.io/$mcp"
    Copy to Clipboard Toggle word wrap

    Expand
    표 7.8. PTP 일반 클록 CR 구성 옵션
    CR 필드설명

    name

    PtpConfig CR의 이름입니다.

    profile

    하나 이상의 profile 오브젝트의 배열을 지정합니다. 각 프로필의 이름은 고유해야 합니다.

    interface

    ptp4l 서비스에서 사용할 네트워크 인터페이스를 지정합니다(예: ens787f1 ).

    ptp4lOpts

    예를 들어 IEEE 802.3 네트워크 전송을 선택하려면 -2를 지정하는 등 ptp4l 서비스에 대한 시스템 구성 옵션을 지정합니다. 옵션은 네트워크 인터페이스 이름과 서비스 구성 파일이 자동으로 추가되므로 네트워크 인터페이스 이름 -i <interface> 및 서비스 구성 파일 -f /etc/ptp4l.conf를 포함하지 않아야 합니다. 이 인터페이스에서 PTP 빠른 이벤트를 사용하려면 --summary_interval -4를 추가합니다.

    phc2sysOpts

    phc2sys 서비스에 대한 시스템 구성 옵션을 지정합니다. 이 필드가 비어 있으면 PTP Operator에서 phc2sys 서비스를 시작하지 않습니다. Intel Columbiaville 800 시리즈 NIC의 경우 phc2sysOpts 옵션을 -a -r -m -n 24 -N 8 -R 16 으로 설정합니다. -m은 stdout 에 메시지를 출력합니다. linuxptp-daemon DaemonSet은 로그를 구문 분석하고 Prometheus 메트릭을 생성합니다.

    ptp4lConf

    기본 /etc/ptp4l.conf 파일을 대체할 구성이 포함된 문자열을 지정합니다. 기본 구성을 사용하려면 필드를 비워 둡니다.

    tx_timestamp_timeout

    Intel Columbiaville 800 시리즈 NIC의 경우 tx_timestamp_timeout을 50 으로 설정합니다.

    boundary_clock_jbod

    Intel Columbiaville 800 시리즈 NIC의 경우 boundary_clock_jbod를 0 으로 설정합니다.

    ptpSchedulingPolicy

    ptp4lphc2sys 프로세스에 대한 스케줄링 정책. 기본값은 SCHED_OTHER 입니다. FIFO 스케줄링을 지원하는 시스템에서 SCHED_FIFO를 사용합니다.

    ptpSchedulingPriority

    ptpSchedulingPolicy가 SCHED_FIFO 로 설정된 경우 ptp4lphc2sys 프로세스에 대한 FIFO 우선 순위를 설정하는 데 사용되는 1~65의 정수 값입니다. ptpSchedulingPolicy가 SCHED_OTHER 로 설정된 경우 ptpSchedulingPriority 필드는 사용되지 않습니다.

    ptpClockThreshold

    선택 사항: ptpClockThreshold 가 없으면 ptpClockThreshold 필드에 기본값이 사용됩니다. ptpClockThreshold는 PTP 마스터 클록의 연결이 끊긴 후 PTP 이벤트가 트리거되기까지 걸리는 시간을 구성합니다. holdOverTimeout은 PTP 마스터 클록이 연결 해제될 때 PTP 클록 이벤트 상태가 FREERUN 으로 변경되기 전의 시간 값(초)입니다. maxOffsetThresholdminOffsetThreshold 설정은 CLOCK_REALTIME ( phc2sys ) 또는 마스터 오프셋( ptp4l ) 값과 비교하는 나노초 단위의 오프셋 값을 구성합니다. ptp4l 또는 phc2sys 오프셋 값이 이 범위를 벗어나면 PTP 클록 상태가 FREERUN 으로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클록 상태가 LOCKED 로 설정됩니다.

    recommend[]

    profile이 노드에 적용되는 방법에 대한 규칙을 정의하는 하나 이상의 recommend 오브젝트 배열을 지정합니다.

    .recommend.profile

    프로필 섹션에 정의된 .recommend.profile 개체 이름을 지정합니다.

    .recommend.priority

    일반 시계의 경우 .recommend.priority를 0 으로 설정합니다.

    .recommend.match

    nodeLabel 또는 nodeName 값으로 .recommend.match 규칙을 지정합니다.

    .recommend.match.nodeLabel

    oc get nodes --show-labels 명령을 사용하여 노드 객체의 node.Labels 필드의 키로 nodeLabel을 설정합니다. 예를 들어, node-role.kubernetes.io/worker .

    .recommend.match.nodeName

    oc get nodes 명령을 사용하여 노드 객체의 node.Name 필드 값으로 nodeName을 설정합니다. 예를 들어, compute-1.example.com .

  2. 다음 명령을 실행하여 PtpConfig CR을 만듭니다.

    $ oc create -f ordinary-clock-ptp-config.yaml
    Copy to Clipboard Toggle word wrap

검증

  1. PtpConfig 프로필이 노드에 적용되었는지 확인합니다.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                            READY   STATUS    RESTARTS   AGE   IP               NODE
      linuxptp-daemon-4xkbb           1/1     Running   0          43m   10.1.196.24      compute-0.example.com
      linuxptp-daemon-tdspf           1/1     Running   0          43m   10.1.196.25      compute-1.example.com
      ptp-operator-657bbb64c8-2f8sj   1/1     Running   0          43m   10.129.0.61      control-plane-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 프로필이 올바른지 확인합니다. PtpConfig 프로필에 지정한 노드에 해당하는 linuxptp 데몬의 로그를 검사합니다. 다음 명령을 실행합니다.

      $ oc logs linuxptp-daemon-4xkbb -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      I1115 09:41:17.117596 4143292 daemon.go:107] in applyNodePTPProfile
      I1115 09:41:17.117604 4143292 daemon.go:109] updating NodePTPProfile to:
      I1115 09:41:17.117607 4143292 daemon.go:110] ------------------------------------
      I1115 09:41:17.117612 4143292 daemon.go:102] Profile Name: profile1
      I1115 09:41:17.117616 4143292 daemon.go:102] Interface: ens787f1
      I1115 09:41:17.117620 4143292 daemon.go:102] Ptp4lOpts: -2 -s
      I1115 09:41:17.117623 4143292 daemon.go:102] Phc2sysOpts: -a -r -n 24
      I1115 09:41:17.117626 4143292 daemon.go:116] ------------------------------------
      Copy to Clipboard Toggle word wrap

7.2.9.1. PTP 일반 클록 참조로 Intel Columbiaville E800 시리즈 NIC 사용

다음 표에서는 Intel Columbiaville E800 시리즈 NIC를 일반 클록으로 사용하기 위해 참조 PTP 구성에 해야 하는 변경 사항을 설명합니다. 클러스터에 적용하는 PtpConfig 사용자 정의 리소스(CR)에서 변경 작업을 수행합니다.

Expand
표 7.9. Intel Columbiaville NIC에 권장되는 PTP 설정
PTP 구성권장 설정

phc2sysOpts

-a -r -m -n 24 -N 8 -R 16

tx_timestamp_timeout

50

boundary_clock_jbod

0

참고

phc2sysOpts 의 경우 -m은 stdout 에 메시지를 출력합니다. linuxptp-daemon DaemonSet은 로그를 구문 분석하고 Prometheus 메트릭을 생성합니다.

7.2.9.2. 듀얼 포트 NIC 중복성을 갖춘 일반 시계로 linuxptp 서비스 구성

PtpConfig 사용자 정의 리소스(CR) 객체를 생성하여 linuxptp 서비스( ptp4l , phc2sys )를 듀얼 포트 NIC 중복성을 갖춘 일반 클록으로 구성할 수 있습니다. 일반 클럭을 위한 듀얼 포트 NIC 구성에서 한 포트에 장애가 발생하면 대기 포트가 이를 대신하여 PTP 타이밍 동기화를 유지합니다.

중요

듀얼 포트 NIC 중복성을 갖춘 일반 시계로 linuxptp 서비스를 구성하는 것은 기술 미리 보기 기능에 불과합니다. 기술 프리뷰 기능은 Red Hat 프로덕션 서비스 수준 계약(SLA)에서 지원되지 않으며 기능적으로 완전하지 않을 수 있습니다. 따라서 프로덕션 환경에서 사용하는 것은 권장하지 않습니다. 이러한 기능을 사용하면 향후 제품 기능을 조기에 이용할 수 있어 개발 과정에서 고객이 기능을 테스트하고 피드백을 제공할 수 있습니다.

Red Hat 기술 프리뷰 기능의 지원 범위에 대한 자세한 내용은 기술 프리뷰 기능 지원 범위를 참조하십시오.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.
  • 노드는 듀얼 포트 NIC가 있는 x86_64 아키텍처를 사용합니다.

프로세스

  1. 다음 PtpConfig CR을 만든 다음 YAML을 oc-dual-port-ptp-config.yaml 파일에 저장합니다.

    PTP 일반 클록 듀얼 포트 구성 예

    apiVersion: ptp.openshift.io/v1
    kind: PtpConfig
    metadata:
      name: ordinary-clock-1
      namespace: openshift-ptp
    spec:
      profile:
      - name: oc-dual-port
        phc2sysOpts: -a -r -n 24 -N 8 -R 16 -u 0 
    1
    
        ptp4lConf: |- 
    2
    
          [ens3f2]
          masterOnly 0
          [ens3f3]
          masterOnly 0
    
          [global]
          #
          # Default Data Set
          #
          slaveOnly 1 
    3
    
    #...
    Copy to Clipboard Toggle word wrap

    1
    ptp4l 서비스에 대한 시스템 구성 옵션을 지정합니다.
    2
    ptp4l 서비스에 대한 인터페이스 구성을 지정합니다. 이 예에서 ens3f2ens3f3 인터페이스에 대해 masterOnly를 0으로 설정하면 ens3 인터페이스의 두 포트 모두 리더 또는 팔로워 클록으로 실행될 수 있습니다. 이 구성은 slaveOnly 1 사양과 결합하여 한 포트가 활성 일반 클록으로 작동하고 다른 포트가 Listening 포트 상태에서 대기 일반 클록으로 작동하도록 보장합니다.
    3
    ptp4l을 일반 시계로만 실행되도록 구성합니다.
  2. 다음 명령을 실행하여 PtpConfig CR을 만듭니다.

    $ oc create -f oc-dual-port-ptp-config.yaml
    Copy to Clipboard Toggle word wrap

검증

  1. PtpConfig 프로필이 노드에 적용되었는지 확인합니다.

    1. 다음 명령을 실행하여 openshift-ptp 네임스페이스에서 Pod 목록을 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                            READY   STATUS    RESTARTS   AGE   IP               NODE
      linuxptp-daemon-4xkbb           1/1     Running   0          43m   10.1.196.24      compute-0.example.com
      linuxptp-daemon-tdspf           1/1     Running   0          43m   10.1.196.25      compute-1.example.com
      ptp-operator-657bbb64c8-2f8sj   1/1     Running   0          43m   10.129.0.61      control-plane-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 프로필이 올바른지 확인합니다. PtpConfig 프로필에 지정한 노드에 해당하는 linuxptp 데몬의 로그를 검사합니다. 다음 명령을 실행합니다.

      $ oc logs linuxptp-daemon-4xkbb -n openshift-ptp -c linuxptp-daemon-container
      Copy to Clipboard Toggle word wrap

      출력 예

      I1115 09:41:17.117596 4143292 daemon.go:107] in applyNodePTPProfile
      I1115 09:41:17.117604 4143292 daemon.go:109] updating NodePTPProfile to:
      I1115 09:41:17.117607 4143292 daemon.go:110] ------------------------------------
      I1115 09:41:17.117612 4143292 daemon.go:102] Profile Name: oc-dual-port
      I1115 09:41:17.117616 4143292 daemon.go:102] Interface: ens787f1
      I1115 09:41:17.117620 4143292 daemon.go:102] Ptp4lOpts: -2 --summary_interval -4
      I1115 09:41:17.117623 4143292 daemon.go:102] Phc2sysOpts: -a -r -n 24 -N 8 -R 16 -u 0
      I1115 09:41:17.117626 4143292 daemon.go:116] ------------------------------------
      Copy to Clipboard Toggle word wrap

7.2.10. PTP 하드웨어에 대한 FIFO 우선 순위 스케줄링 구성

낮은 지연 시간이 필요한 통신사나 기타 배포 유형에서 PTP 데몬 스레드는 나머지 인프라 구성 요소와 함께 제한된 CPU 공간에서 실행됩니다. 기본적으로 PTP 스레드는 SCHED_OTHER 정책에 따라 실행됩니다. 높은 부하가 걸리면 이러한 스레드는 오류 없는 작업에 필요한 스케줄링 지연 시간을 얻지 못할 수 있습니다.

잠재적인 스케줄링 지연 오류를 완화하기 위해 PTP Operator linuxptp 서비스를 구성하여 스레드가 SCHED_FIFO 정책으로 실행되도록 할 수 있습니다. PtpConfig CR에 대해 SCHED_FIFO가 설정된 경우 ptp4lphc2sysPtpConfig CR의 ptpSchedulingPriority 필드에 의해 설정된 우선 순위로 chrt 아래의 부모 컨테이너에서 실행됩니다.

참고

ptpSchedulingPolicy 설정은 선택 사항이며, 지연 오류가 발생하는 경우에만 필요합니다.

프로세스

  1. PtpConfig CR 프로필을 편집하세요.

    $ oc edit PtpConfig -n openshift-ptp
    Copy to Clipboard Toggle word wrap
  2. ptpSchedulingPolicyptpSchedulingPriority 필드를 변경합니다.

    apiVersion: ptp.openshift.io/v1
    kind: PtpConfig
    metadata:
      name: <ptp_config_name>
      namespace: openshift-ptp
    ...
    spec:
      profile:
      - name: "profile1"
    ...
        ptpSchedulingPolicy: SCHED_FIFO 
    1
    
        ptpSchedulingPriority: 10 
    2
    Copy to Clipboard Toggle word wrap
    1
    ptp4lphc2sys 프로세스에 대한 스케줄링 정책. FIFO 스케줄링을 지원하는 시스템에서 SCHED_FIFO를 사용하세요.
    2
    필수 항목입니다. ptp4lphc2sys 프로세스에 대한 FIFO 우선 순위를 구성하는 데 사용되는 정수 값 1~65를 설정합니다.
  3. 저장하고 종료하여 PtpConfig CR에 변경 사항을 적용합니다.

검증

  1. PtpConfig CR이 적용된 linuxptp-daemon 포드와 해당 노드의 이름을 가져옵니다.

    $ oc get pods -n openshift-ptp -o wide
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                            READY   STATUS    RESTARTS   AGE     IP            NODE
    linuxptp-daemon-gmv2n           3/3     Running   0          1d17h   10.1.196.24   compute-0.example.com
    linuxptp-daemon-lgm55           3/3     Running   0          1d17h   10.1.196.25   compute-1.example.com
    ptp-operator-3r4dcvf7f4-zndk7   1/1     Running   0          1d7h    10.129.0.61   control-plane-1.example.com
    Copy to Clipboard Toggle word wrap

  2. ptp4l 프로세스가 업데이트된 chrt FIFO 우선 순위로 실행 중인지 확인하세요.

    $ oc -n openshift-ptp logs linuxptp-daemon-lgm55 -c linuxptp-daemon-container|grep chrt
    Copy to Clipboard Toggle word wrap

    출력 예

    I1216 19:24:57.091872 1600715 daemon.go:285] /bin/chrt -f 65 /usr/sbin/ptp4l -f /var/run/ptp4l.0.config -2  --summary_interval -4 -m
    Copy to Clipboard Toggle word wrap

7.2.11. linuxptp 서비스에 대한 로그 필터링 구성

linuxptp 데몬은 디버깅 목적으로 사용할 수 있는 로그를 생성합니다. 저장 용량이 제한된 통신사나 기타 배포 유형의 경우, 이러한 로그는 저장 수요를 증가시킬 수 있습니다.

로그 메시지 수를 줄이려면 PtpConfig 사용자 정의 리소스(CR)를 구성하여 마스터 오프셋 값을 보고하는 로그 메시지를 제외할 수 있습니다. 마스터 오프셋 로그 메시지는 현재 노드의 클록과 마스터 클록의 차이를 나노초 단위로 보고합니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP Operator를 설치합니다.

프로세스

  1. PtpConfig CR을 편집하세요:

    $ oc edit PtpConfig -n openshift-ptp
    Copy to Clipboard Toggle word wrap
  2. spec.profile 에서 ptpSettings.logReduce 사양을 추가하고 값을 true 로 설정합니다.

    apiVersion: ptp.openshift.io/v1
    kind: PtpConfig
    metadata:
      name: <ptp_config_name>
      namespace: openshift-ptp
    ...
    spec:
      profile:
      - name: "profile1"
    ...
        ptpSettings:
          logReduce: "true"
    Copy to Clipboard Toggle word wrap
    참고

    디버깅 목적으로 이 사양을 False 로 되돌려 마스터 오프셋 메시지를 포함할 수 있습니다.

  3. 저장하고 종료하여 PtpConfig CR에 변경 사항을 적용합니다.

검증

  1. PtpConfig CR이 적용된 linuxptp-daemon 포드와 해당 노드의 이름을 가져옵니다.

    $ oc get pods -n openshift-ptp -o wide
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                            READY   STATUS    RESTARTS   AGE     IP            NODE
    linuxptp-daemon-gmv2n           3/3     Running   0          1d17h   10.1.196.24   compute-0.example.com
    linuxptp-daemon-lgm55           3/3     Running   0          1d17h   10.1.196.25   compute-1.example.com
    ptp-operator-3r4dcvf7f4-zndk7   1/1     Running   0          1d7h    10.129.0.61   control-plane-1.example.com
    Copy to Clipboard Toggle word wrap

  2. 다음 명령을 실행하여 마스터 오프셋 메시지가 로그에서 제외되었는지 확인하세요.

    $ oc -n openshift-ptp logs <linux_daemon_container> -c linuxptp-daemon-container | grep "master offset" 
    1
    Copy to Clipboard Toggle word wrap
    1
    <linux_daemon_container>는 linuxptp-daemon pod의 이름입니다(예: linuxptp-daemon-gmv2n) .

    logReduce 사양을 구성할 때 이 명령은 linuxptp 데몬의 로그에서 마스터 오프셋 의 인스턴스를 보고하지 않습니다.

7.2.12. 일반적인 PTP Operator 문제 해결

다음 단계를 수행하여 PTP Operator의 일반적인 문제를 해결합니다.

사전 요구 사항

  • OpenShift Container Platform CLI (oc)를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP를 지원하는 호스트가 있는 베어 메탈 클러스터에 PTP Operator를 설치합니다.

프로세스

  1. 구성된 노드를 위해 Operator 및 Operand가 클러스터에 성공적으로 배포되었는지 확인합니다.

    $ oc get pods -n openshift-ptp -o wide
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                            READY   STATUS    RESTARTS   AGE     IP            NODE
    linuxptp-daemon-lmvgn           3/3     Running   0          4d17h   10.1.196.24   compute-0.example.com
    linuxptp-daemon-qhfg7           3/3     Running   0          4d17h   10.1.196.25   compute-1.example.com
    ptp-operator-6b8dcbf7f4-zndk7   1/1     Running   0          5d7h    10.129.0.61   control-plane-1.example.com
    Copy to Clipboard Toggle word wrap

    참고

    PTP 빠른 이벤트 버스가 활성화되면 준비된 linuxptp-daemon Pod 수는 3/3가 됩니다. PTP 빠른 이벤트 버스가 활성화되지 않으면 2/2가 표시됩니다.

  2. 지원되는 하드웨어가 클러스터에 있는지 확인합니다.

    $ oc -n openshift-ptp get nodeptpdevices.ptp.openshift.io
    Copy to Clipboard Toggle word wrap

    출력 예

    NAME                                  AGE
    control-plane-0.example.com           10d
    control-plane-1.example.com           10d
    compute-0.example.com                 10d
    compute-1.example.com                 10d
    compute-2.example.com                 10d
    Copy to Clipboard Toggle word wrap

  3. 노드에 사용 가능한 PTP 네트워크 인터페이스를 확인합니다.

    $ oc -n openshift-ptp get nodeptpdevices.ptp.openshift.io <node_name> -o yaml
    Copy to Clipboard Toggle word wrap

    다음과 같습니다.

    <node_name>

    쿼리할 노드를 지정합니다 (예: compute-0.example.com).

    출력 예

    apiVersion: ptp.openshift.io/v1
    kind: NodePtpDevice
    metadata:
      creationTimestamp: "2021-09-14T16:52:33Z"
      generation: 1
      name: compute-0.example.com
      namespace: openshift-ptp
      resourceVersion: "177400"
      uid: 30413db0-4d8d-46da-9bef-737bacd548fd
    spec: {}
    status:
      devices:
      - name: eno1
      - name: eno2
      - name: eno3
      - name: eno4
      - name: enp5s0f0
      - name: enp5s0f1
    Copy to Clipboard Toggle word wrap

  4. 해당 노드의 linuxptp-daemon Pod에 액세스하여 PTP 인터페이스가 기본 클록에 성공적으로 동기화되었는지 확인합니다.

    1. 다음 명령을 실행하여 linuxptp-daemon Pod의 이름과 문제를 해결하려는 해당 노드를 가져옵니다.

      $ oc get pods -n openshift-ptp -o wide
      Copy to Clipboard Toggle word wrap

      출력 예

      NAME                            READY   STATUS    RESTARTS   AGE     IP            NODE
      linuxptp-daemon-lmvgn           3/3     Running   0          4d17h   10.1.196.24   compute-0.example.com
      linuxptp-daemon-qhfg7           3/3     Running   0          4d17h   10.1.196.25   compute-1.example.com
      ptp-operator-6b8dcbf7f4-zndk7   1/1     Running   0          5d7h    10.129.0.61   control-plane-1.example.com
      Copy to Clipboard Toggle word wrap

    2. 필수 linuxptp-daemon 컨테이너로의 원격 쉘:

      $ oc rsh -n openshift-ptp -c linuxptp-daemon-container <linux_daemon_container>
      Copy to Clipboard Toggle word wrap

      다음과 같습니다.

      <linux_daemon_container>
      진단할 컨테이너입니다 (예: linuxptp-daemon-lmvgn).
    3. linuxptp-daemon 컨테이너에 대한 원격 쉘 연결에서 PTP 관리 클라이언트(pmc) 툴을 사용하여 네트워크 인터페이스를 진단합니다. 다음 pmc 명령을 실행하여 PTP 장치의 동기화 상태를 확인합니다(예: ptp4l ).

      # pmc -u -f /var/run/ptp4l.0.config -b 0 'GET PORT_DATA_SET'
      Copy to Clipboard Toggle word wrap

      노드가 기본 클록에 성공적으로 동기화되었을 때의 출력 예

      sending: GET PORT_DATA_SET
          40a6b7.fffe.166ef0-1 seq 0 RESPONSE MANAGEMENT PORT_DATA_SET
              portIdentity            40a6b7.fffe.166ef0-1
              portState               SLAVE
              logMinDelayReqInterval  -4
              peerMeanPathDelay       0
              logAnnounceInterval     -3
              announceReceiptTimeout  3
              logSyncInterval         -4
              delayMechanism          1
              logMinPdelayReqInterval -4
              versionNumber           2
      Copy to Clipboard Toggle word wrap

  5. GNSS 소스 그랜드마스터 클록의 경우 다음 명령을 실행하여 트리 내 NIC ice 드라이버가 올바른지 확인합니다. 예:

    $ oc rsh -n openshift-ptp -c linuxptp-daemon-container linuxptp-daemon-74m2g ethtool -i ens7f0
    Copy to Clipboard Toggle word wrap

    출력 예

    driver: ice
    version: 5.14.0-356.bz2232515.el9.x86_64
    firmware-version: 4.20 0x8001778b 1.3346.0
    Copy to Clipboard Toggle word wrap

  6. GNSS 소스 그랜드마스터 시계의 경우, linuxptp-daemon 컨테이너가 GNSS 안테나로부터 신호를 수신하고 있는지 확인하세요. 컨테이너가 GNSS 신호를 수신하지 못하면 /dev/gnss0 파일이 채워지지 않습니다. 확인하려면 다음 명령을 실행하세요.

    $ oc rsh -n openshift-ptp -c linuxptp-daemon-container linuxptp-daemon-jnz6r cat /dev/gnss0
    Copy to Clipboard Toggle word wrap

    출력 예

    $GNRMC,125223.00,A,4233.24463,N,07126.64561,W,0.000,,300823,,,A,V*0A
    $GNVTG,,T,,M,0.000,N,0.000,K,A*3D
    $GNGGA,125223.00,4233.24463,N,07126.64561,W,1,12,99.99,98.6,M,-33.1,M,,*7E
    $GNGSA,A,3,25,17,19,11,12,06,05,04,09,20,,,99.99,99.99,99.99,1*37
    $GPGSV,3,1,10,04,12,039,41,05,31,222,46,06,50,064,48,09,28,064,42,1*62
    Copy to Clipboard Toggle word wrap

7.2.13. Intel 800 시리즈 NIC의 CGU에 대한 DPLL 펌웨어 버전 가져오기

Intel 800 시리즈 NIC의 CGU(클럭 생성 장치)에 대한 DPLL(디지털 위상 잠금 루프) 펌웨어 버전을 얻으려면 클러스터 노드에 디버그 셸을 열고 NIC 하드웨어를 쿼리하면 됩니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • cluster-admin 권한이 있는 사용자로 로그인했습니다.
  • 클러스터 호스트에 Intel 800 시리즈 NIC를 설치했습니다.
  • PTP를 지원하는 호스트가 있는 베어 메탈 클러스터에 PTP 운영자를 설치했습니다.

프로세스

  1. 다음 명령을 실행하여 디버그 포드를 시작합니다.

    $ oc debug node/<node_name>
    Copy to Clipboard Toggle word wrap

    다음과 같습니다.

    <node_name>
    Intel 800 시리즈 NIC를 설치한 노드입니다.
  2. devlink 도구와 NIC가 설치된 버스 및 장치 이름을 사용하여 NIC의 CGU 펌웨어 버전을 확인합니다. 예를 들어 다음 명령을 실행합니다.

    sh-4.4# devlink dev info <bus_name>/<device_name> | grep cgu
    Copy to Clipboard Toggle word wrap

    다음과 같습니다.

    <bus_name>
    NIC가 설치되는 버스입니다. 예를 들어, pci .
    <device_name>
    NIC 장치 이름입니다. 예: 10.0.0.0/16

    출력 예

    cgu.id 36 
    1
    
    fw.cgu 8032.16973825.6021 
    2
    Copy to Clipboard Toggle word wrap

    1
    CGU 하드웨어 개정 번호
    2
    CGU에서 실행 중인 DPLL 펌웨어 버전은 6201 이고, DPLL 모델은 8032 입니다. 문자열 16973825 는 DPLL 펌웨어 버전( 1.3.0.1 )의 바이너리 버전을 축약해서 표현한 것입니다.
    참고

    펌웨어 버전은 버전 번호의 각 부분에 대해 선행 니블과 3옥텟으로 구성됩니다. 숫자 16973825를 이진수로 나타내면 0001 0000 0011 0000 0000 0000 0001 입니다. 이진값을 사용하여 펌웨어 버전을 디코딩합니다. 예를 들면 다음과 같습니다.

    Expand
    표 7.10. DPLL 펌웨어 버전
    이진 부분10진수 값

    0001

    1

    0000 0011

    3

    0000 0000

    0

    0000 0001

    1

7.2.14. PTP 운영자 데이터 수집

oc adm must-gather 명령을 사용하면 PTP Operator와 관련된 기능 및 객체를 포함하여 클러스터에 대한 정보를 수집할 수 있습니다.

사전 요구 사항

  • cluster-admin 역할의 사용자로 클러스터에 액세스할 수 있어야 합니다.
  • OpenShift CLI(oc)가 설치되어 있습니다.
  • PTP 운영자를 설치했습니다.

프로세스

  • must-gather 로 PTP 운영자 데이터를 수집하려면 PTP 운영자 must-gather 이미지를 지정해야 합니다.

    $ oc adm must-gather --image=registry.redhat.io/openshift4/ptp-must-gather-rhel9:v4.19
    Copy to Clipboard Toggle word wrap

7.3. REST API v2를 사용하여 PTP 이벤트 소비자 애플리케이션 개발

베어 메탈 클러스터 노드에서 PTP(Precision Time Protocol) 이벤트를 활용하는 소비자 애플리케이션을 개발하는 경우 별도의 애플리케이션 포드에 소비자 애플리케이션을 배포합니다. 소비자 애플리케이션은 PTP 이벤트 REST API v2를 사용하여 PTP 이벤트를 구독합니다.

참고

다음 정보는 PTP 이벤트를 사용하는 소비자 애플리케이션을 개발하기 위한 일반적인 지침을 제공합니다. 완전한 이벤트 소비자 애플리케이션 예제는 이 정보의 범위를 벗어납니다.

7.3.1. PTP 빠른 이벤트 알림 프레임워크 정보

PTP(Precision Time Protocol) 고속 이벤트 REST API v2를 사용하여 베어 메탈 클러스터 노드가 생성하는 PTP 이벤트에 클러스터 애플리케이션을 구독합니다.

참고

빠른 이벤트 알림 프레임워크는 통신을 위해 REST API를 사용합니다. PTP 이벤트 REST API v2는 O-RAN ALLIANCE Specifications 에서 제공하는 Event Consumers 4.0을 위한 O-RAN O-Cloud Notification API Specification을 기반으로 합니다.

7.3.2. PTP 이벤트 REST API v2를 사용하여 PTP 이벤트 검색

애플리케이션은 프로듀서 측 클라우드 이벤트 프록시 사이드카에서 O-RAN v4 호환 REST API를 사용하여 PTP 이벤트를 구독합니다. cloud-event-proxy 사이드카 컨테이너는 기본 애플리케이션의 리소스를 사용하지 않고 대기 시간 없이 기본 vRAN 애플리케이션과 동일한 리소스에 액세스할 수 있습니다.

그림 7.6. PTP 이벤트 생성자 REST API v2에서 PTP 빠른 이벤트 사용 개요

20 클러스터 호스트에서 이벤트가 생성됩니다.
PTP 운영자가 관리하는 포드의 linuxptp-daemon 프로세스는 Kubernetes DaemonSet 으로 실행되고 다양한 linuxptp 프로세스( ptp4l , phc2sys , 그리고 선택적으로 그랜드마스터 클록의 경우 ts2phc )를 관리합니다. linuxptp-daemon은 이벤트를 UNIX 도메인 소켓에 전달합니다.
20 이벤트가 cloud-event-proxy 사이드카로 전달됩니다.
PTP 플러그인은 UNIX 도메인 소켓에서 이벤트를 읽고 PTP 운영자가 관리하는 포드의 cloud-event-proxy 사이드카로 전달합니다. cloud-event-proxy는 Kubernetes 인프라에서 CNF(Cloud-Native Network Functions)로 낮은 지연 시간으로 이벤트를 전달합니다.
20 이벤트가 게시되었습니다
PTP 운영자가 관리하는 포드의 cloud-event-proxy 사이드카는 PTP 이벤트 REST API v2를 사용하여 이벤트를 처리하고 게시합니다.
20 소비자 애플리케이션은 구독을 요청하고 구독된 이벤트를 수신합니다.
소비자 애플리케이션은 PTP 이벤트 구독을 생성하기 위해 프로듀서 cloud-event-proxy 사이드카에 API 요청을 보냅니다. 구독이 완료되면 소비자 애플리케이션은 리소스 한정자에 지정된 주소를 수신하고 PTP 이벤트를 수신하여 처리합니다.

7.3.3. PTP 빠른 이벤트 알림 게시자 구성

클러스터에서 네트워크 인터페이스에 PTP 빠른 이벤트 알림을 사용하려면 PTP Operator PtpOperatorConfig CR(사용자 정의 리소스)에서 빠른 이벤트 게시자를 활성화하고 생성한 PtpConfig CR에서 ptpClockThreshold 값을 구성해야 합니다.

사전 요구 사항

  • OpenShift Container Platform CLI(oc)를 설치했습니다.
  • cluster-admin 권한이 있는 사용자로 로그인했습니다.
  • PTP 운영자를 설치했습니다.

프로세스

  1. 기본 PTP 운영자 구성을 수정하여 PTP 빠른 이벤트를 활성화합니다.

    1. 다음 YAML을 ptp-operatorconfig.yaml 파일에 저장합니다.

      apiVersion: ptp.openshift.io/v1
      kind: PtpOperatorConfig
      metadata:
        name: default
        namespace: openshift-ptp
      spec:
        daemonNodeSelector:
          node-role.kubernetes.io/worker: ""
        ptpEventConfig:
          enableEventPublisher: true 
      1
      Copy to Clipboard Toggle word wrap
      1
      enableEventPublisher를 true 로 설정하여 PTP 빠른 이벤트 알림을 활성화합니다.
    2. PtpOperatorConfig CR을 업데이트하세요.

      $ oc apply -f ptp-operatorconfig.yaml
      Copy to Clipboard Toggle word wrap
  2. PTP 지원 인터페이스에 대한 PtpConfig 사용자 정의 리소스(CR)를 만들고 ptpClockThresholdptp4lOpts 에 필요한 값을 설정합니다. 다음 YAML은 PtpConfig CR에 설정해야 하는 필수 값을 보여줍니다.

    spec:
      profile:
      - name: "profile1"
        interface: "enp5s0f0"
        ptp4lOpts: "-2 -s --summary_interval -4" 
    1
    
        phc2sysOpts: "-a -r -m -n 24 -N 8 -R 16" 
    2
    
        ptp4lConf: "" 
    3
    
        ptpClockThreshold: 
    4
    
          holdOverTimeout: 5
          maxOffsetThreshold: 100
          minOffsetThreshold: -100
    Copy to Clipboard Toggle word wrap
    1
    PTP 빠른 이벤트를 사용하려면 --summary_interval -4를 추가합니다.
    2
    필수 phc2sysOpts 값. -m은 stdout 에 메시지를 출력합니다. linuxptp-daemon DaemonSet은 로그를 구문 분석하고 Prometheus 메트릭을 생성합니다.
    3
    기본 /etc/ptp4l.conf 파일을 대체할 구성이 포함된 문자열을 지정합니다. 기본 구성을 사용하려면 필드를 비워 둡니다.
    4
    선택 사항입니다. ptpClockThreshold 스탠자가 없으면 ptpClockThreshold 필드에 기본값이 사용됩니다. 이 절에서는 기본 ptpClockThreshold 값을 보여줍니다. ptpClockThreshold 값은 PTP 마스터 클록이 분리된 후 PTP 이벤트가 트리거되기까지 걸리는 시간을 구성합니다. holdOverTimeout은 PTP 마스터 클록이 연결 해제될 때 PTP 클록 이벤트 상태가 FREERUN 으로 변경되기 전의 시간 값(초)입니다. maxOffsetThresholdminOffsetThreshold 설정은 CLOCK_REALTIME ( phc2sys ) 또는 마스터 오프셋( ptp4l ) 값과 비교하는 나노초 단위의 오프셋 값을 구성합니다. ptp4l 또는 phc2sys 오프셋 값이 이 범위를 벗어나면 PTP 클록 상태가 FREERUN 으로 설정됩니다. 오프셋 값이 이 범위 내에 있으면 PTP 클록 상태가 LOCKED 로 설정됩니다.

7.3.4. PTP 이벤트 REST API v2 소비자 애플리케이션 참조

PTP 이벤트 소비자 애플리케이션에는 다음과 같은 기능이 필요합니다.

  1. 클라우드 네이티브 PTP 이벤트 JSON 페이로드를 수신하기 위해 POST 핸들러로 실행되는 웹 서비스
  2. PTP 이벤트 프로듀서를 구독하기 위한 createSubscription 함수
  3. PTP 이벤트 제작자의 현재 상태를 폴링하는 getCurrentState 함수

다음 Go 스니펫 예시는 이러한 요구 사항을 보여줍니다.

Go에서 PTP 이벤트 소비자 서버 함수 예제

func server() {
  http.HandleFunc("/event", getEvent)
  http.ListenAndServe(":9043", nil)
}

func getEvent(w http.ResponseWriter, req *http.Request) {
  defer req.Body.Close()
  bodyBytes, err := io.ReadAll(req.Body)
  if err != nil {
    log.Errorf("error reading event %v", err)
  }
  e := string(bodyBytes)
  if e != "" {
    processEvent(bodyBytes)
    log.Infof("received event %s", string(bodyBytes))
  }
  w.WriteHeader(http.StatusNoContent)
}
Copy to Clipboard Toggle word wrap

Go에서 PTP 이벤트 createSubscription 함수 예제

import (
"github.com/redhat-cne/sdk-go/pkg/pubsub"
"github.com/redhat-cne/sdk-go/pkg/types"
v1pubsub "github.com/redhat-cne/sdk-go/v1/pubsub"
)

// Subscribe to PTP events using v2 REST API
s1,_:=createsubscription("/cluster/node/<node_name>/sync/sync-status/sync-state")
s2,_:=createsubscription("/cluster/node/<node_name>/sync/ptp-status/lock-state")
s3,_:=createsubscription("/cluster/node/<node_name>/sync/gnss-status/gnss-sync-status")
s4,_:=createsubscription("/cluster/node/<node_name>/sync/sync-status/os-clock-sync-state")
s5,_:=createsubscription("/cluster/node/<node_name>/sync/ptp-status/clock-class")

// Create PTP event subscriptions POST
func createSubscription(resourceAddress string) (sub pubsub.PubSub, err error) {
  var status int
  apiPath := "/api/ocloudNotifications/v2/"
  localAPIAddr := "consumer-events-subscription-service.cloud-events.svc.cluster.local:9043" // vDU service API address
  apiAddr := "ptp-event-publisher-service-<node_name>.openshift-ptp.svc.cluster.local:9043" 
1

  apiVersion := "2.0"

  subURL := &types.URI{URL: url.URL{Scheme: "http",
    Host: apiAddr
    Path: fmt.Sprintf("%s%s", apiPath, "subscriptions")}}
  endpointURL := &types.URI{URL: url.URL{Scheme: "http",
    Host: localAPIAddr,
    Path: "event"}}

  sub = v1pubsub.NewPubSub(endpointURL, resourceAddress, apiVersion)
  var subB []byte

  if subB, err = json.Marshal(&sub); err == nil {
    rc := restclient.New()
    if status, subB = rc.PostWithReturn(subURL, subB); status != http.StatusCreated {
      err = fmt.Errorf("error in subscription creation api at %s, returned status %d", subURL, status)
    } else {
      err = json.Unmarshal(subB, &sub)
    }
  } else {
    err = fmt.Errorf("failed to marshal subscription for %s", resourceAddress)
  }
  return
}
Copy to Clipboard Toggle word wrap

1
<노드_이름>을 PTP 이벤트를 생성하는 노드의 FQDN으로 바꾸세요. 예를 들어, compute-1.example.com .

Go에서 PTP 이벤트 소비자 getCurrentState 함수의 예

//Get PTP event state for the resource
func getCurrentState(resource string) {
  //Create publisher
  url := &types.URI{URL: url.URL{Scheme: "http",
    Host: "ptp-event-publisher-service-<node_name>.openshift-ptp.svc.cluster.local:9043", 
1

    Path: fmt.SPrintf("/api/ocloudNotifications/v2/%s/CurrentState",resource}}
  rc := restclient.New()
  status, event := rc.Get(url)
  if status != http.StatusOK {
    log.Errorf("CurrentState:error %d from url %s, %s", status, url.String(), event)
  } else {
    log.Debugf("Got CurrentState: %s ", event)
  }
}
Copy to Clipboard Toggle word wrap

1
<노드_이름>을 PTP 이벤트를 생성하는 노드의 FQDN으로 바꾸세요. 예를 들어, compute-1.example.com .

PTP 이벤트 REST API v2와 함께 사용할 PTP 이벤트 소비자 애플리케이션을 배포할 때 다음 예제 PTP 이벤트 소비자 사용자 정의 리소스(CR)를 참조로 사용하세요.

참조 클라우드 이벤트 소비자 네임스페이스

apiVersion: v1
kind: Namespace
metadata:
  name: cloud-events
  labels:
    security.openshift.io/scc.podSecurityLabelSync: "false"
    pod-security.kubernetes.io/audit: "privileged"
    pod-security.kubernetes.io/enforce: "privileged"
    pod-security.kubernetes.io/warn: "privileged"
    name: cloud-events
    openshift.io/cluster-monitoring: "true"
  annotations:
    workload.openshift.io/allowed: management
Copy to Clipboard Toggle word wrap

참조 클라우드 이벤트 소비자 배포

apiVersion: apps/v1
kind: Deployment
metadata:
  name: cloud-consumer-deployment
  namespace: cloud-events
  labels:
    app: consumer
spec:
  replicas: 1
  selector:
    matchLabels:
      app: consumer
  template:
    metadata:
      annotations:
        target.workload.openshift.io/management: '{"effect": "PreferredDuringScheduling"}'
      labels:
        app: consumer
    spec:
      nodeSelector:
        node-role.kubernetes.io/worker: ""
      serviceAccountName: consumer-sa
      containers:
        - name: cloud-event-consumer
          image: cloud-event-consumer
          imagePullPolicy: Always
          args:
            - "--local-api-addr=consumer-events-subscription-service.cloud-events.svc.cluster.local:9043"
            - "--api-path=/api/ocloudNotifications/v2/"
            - "--http-event-publishers=ptp-event-publisher-service-NODE_NAME.openshift-ptp.svc.cluster.local:9043"
          env:
            - name: NODE_NAME
              valueFrom:
                fieldRef:
                  fieldPath: spec.nodeName
            - name: CONSUMER_TYPE
              value: "PTP"
            - name: ENABLE_STATUS_CHECK
              value: "true"
      volumes:
        - name: pubsubstore
          emptyDir: {}
Copy to Clipboard Toggle word wrap

참조 클라우드 이벤트 소비자 서비스 계정

apiVersion: v1
kind: ServiceAccount
metadata:
  name: consumer-sa
  namespace: cloud-events
Copy to Clipboard Toggle word wrap

참조 클라우드 이벤트 소비자 서비스

apiVersion: v1
kind: Service
metadata:
  annotations:
    prometheus.io/scrape: "true"
  name: consumer-events-subscription-service
  namespace: cloud-events
  labels:
    app: consumer-service
spec:
  ports:
    - name: sub-port
      port: 9043
  selector:
    app: consumer
  sessionAffinity: None
  type: ClusterIP
Copy to Clipboard Toggle word wrap

7.3.6. REST API v2를 사용하여 PTP 이벤트 구독

cloud-event-consumer 애플리케이션 컨테이너를 배포하고 PTP 운영자가 관리하는 Pod에 있는 cloud-event-proxy 컨테이너가 게시한 PTP 이벤트에 cloud-event- consumer 애플리케이션을 구독합니다.

http://ptp-event-publisher-service-NODE_NAME.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions 에 적절한 구독 요청 페이로드를 전달하는 POST 요청을 보내 소비자 애플리케이션을 PTP 이벤트에 구독합니다.

참고

9043 은 PTP 이벤트 프로듀서 포드에 배포된 cloud-event-proxy 컨테이너의 기본 포트입니다. 필요에 따라 애플리케이션에 대해 다른 포트를 구성할 수 있습니다.

애플리케이션 포드의 클라우드 이벤트 소비자 컨테이너가 PTP(Precision Time Protocol) 이벤트를 수신하고 있는지 확인합니다.

사전 요구 사항

  • OpenShift CLI(oc)가 설치되어 있습니다.
  • cluster-admin 권한이 있는 사용자로 로그인했습니다.
  • PTP 운영자를 설치하고 구성했습니다.
  • 클라우드 이벤트 애플리케이션 포드와 PTP 이벤트 소비자 애플리케이션을 배포했습니다.

프로세스

  1. 배포된 이벤트 소비자 애플리케이션의 로그를 확인하세요. 예를 들어 다음 명령을 실행합니다.

    $ oc -n cloud-events logs -f deployment/cloud-consumer-deployment
    Copy to Clipboard Toggle word wrap

    출력 예

    time = "2024-09-02T13:49:01Z"
    level = info msg = "transport host path is set to  ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043"
    time = "2024-09-02T13:49:01Z"
    level = info msg = "apiVersion=2.0, updated apiAddr=ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043, apiPath=/api/ocloudNotifications/v2/"
    time = "2024-09-02T13:49:01Z"
    level = info msg = "Starting local API listening to :9043"
    time = "2024-09-02T13:49:06Z"
    level = info msg = "transport host path is set to  ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043"
    time = "2024-09-02T13:49:06Z"
    level = info msg = "checking for rest service health"
    time = "2024-09-02T13:49:06Z"
    level = info msg = "health check http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/health"
    time = "2024-09-02T13:49:07Z"
    level = info msg = "rest service returned healthy status"
    time = "2024-09-02T13:49:07Z"
    level = info msg = "healthy publisher; subscribing to events"
    time = "2024-09-02T13:49:07Z"
    level = info msg = "received event {\"specversion\":\"1.0\",\"id\":\"ab423275-f65d-4760-97af-5b0b846605e4\",\"source\":\"/sync/ptp-status/clock-class\",\"type\":\"event.sync.ptp-status.ptp-clock-class-change\",\"time\":\"2024-09-02T13:49:07.226494483Z\",\"data\":{\"version\":\"1.0\",\"values\":[{\"ResourceAddress\":\"/cluster/node/compute-1.example.com/ptp-not-set\",\"data_type\":\"metric\",\"value_type\":\"decimal64.3\",\"value\":\"0\"}]}}"
    Copy to Clipboard Toggle word wrap

  2. 선택 사항입니다. linuxptp-daemon 배포에서 oc 와 포트 포워딩 포트 9043을 사용하여 REST API를 테스트합니다. 예를 들어 다음 명령을 실행합니다.

    $ oc port-forward -n openshift-ptp ds/linuxptp-daemon 9043:9043
    Copy to Clipboard Toggle word wrap

    출력 예

    Forwarding from 127.0.0.1:9043 -> 9043
    Forwarding from [::1]:9043 -> 9043
    Handling connection for 9043
    Copy to Clipboard Toggle word wrap

    새 셸 프롬프트를 열고 REST API v2 엔드포인트를 테스트합니다.

    $ curl -X GET http://localhost:9043/api/ocloudNotifications/v2/health
    Copy to Clipboard Toggle word wrap

    출력 예

    OK
    Copy to Clipboard Toggle word wrap

7.3.8. PTP 빠른 이벤트 메트릭 모니터링

linuxptp-daemon이 실행 중인 클러스터 노드에서 PTP 빠른 이벤트 메트릭을 모니터링할 수 있습니다. 사전 구성 및 자체 업데이트 Prometheus 모니터링 스택을 사용하여 OpenShift Container Platform 웹 콘솔에서 PTP 빠른 이벤트 메트릭을 모니터링할 수 있습니다.

사전 요구 사항

  • OpenShift Container Platform CLI oc를 설치합니다.
  • cluster-admin 권한이 있는 사용자로 로그인합니다.
  • PTP 지원 하드웨어가 있는 노드에 PTP 운영자를 설치하고 구성합니다.

프로세스

  1. 다음 명령을 실행하여 노드의 디버그 포드를 시작합니다.

    $ oc debug node/<node_name>
    Copy to Clipboard Toggle word wrap
  2. linuxptp-daemon 컨테이너에서 노출된 PTP 메트릭을 확인합니다. 예를 들어 다음 명령을 실행합니다.

    sh-4.4# curl http://localhost:9091/metrics
    Copy to Clipboard Toggle word wrap

    출력 예

    # HELP cne_api_events_published Metric to get number of events published by the rest api
    # TYPE cne_api_events_published gauge
    cne_api_events_published{address="/cluster/node/compute-1.example.com/sync/gnss-status/gnss-sync-status",status="success"} 1
    cne_api_events_published{address="/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",status="success"} 94
    cne_api_events_published{address="/cluster/node/compute-1.example.com/sync/ptp-status/class-change",status="success"} 18
    cne_api_events_published{address="/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",status="success"} 27
    Copy to Clipboard Toggle word wrap

  3. 선택 사항입니다. cloud-event-proxy 컨테이너의 로그에서도 PTP 이벤트를 찾을 수 있습니다. 예를 들어 다음 명령을 실행합니다.

    $ oc logs -f linuxptp-daemon-cvgr6 -n openshift-ptp -c cloud-event-proxy
    Copy to Clipboard Toggle word wrap
  4. OpenShift Container Platform 웹 콘솔에서 PTP 이벤트를 보려면 쿼리하려는 PTP 메트릭의 이름을 복사합니다(예: openshift_ptp_offset_ns ).
  5. OpenShift Container Platform 웹 콘솔에서 모니터링메트릭을 클릭합니다.
  6. PTP 메트릭을 표현식 필드에 붙여넣고 쿼리 실행을 클릭합니다.

7.3.9. PTP 빠른 이벤트 메트릭 참조

다음 표에서는 linuxptp-daemon 서비스가 실행 중인 클러스터 노드에서 사용할 수 있는 PTP 빠른 이벤트 메트릭을 설명합니다.

Expand
표 7.11. PTP 빠른 이벤트 메트릭
지표설명

openshift_ptp_clock_class

인터페이스에 대한 PTP 클록 클래스를 반환합니다. PTP 클럭 클래스에 가능한 값은 6( 잠김 ), 7( PRC 잠금 해제 사양 내 ), 52( PRC 잠금 해제 사양 외 ), 187( PRC 잠금 해제 사양 외 ), 135( T-BC 홀드오버 사양 내 ), 165( T-BC 홀드오버 사양 외 ), 248( 기본값 ), 255( 슬레이브 전용 클럭 )입니다.

{node="compute-1.example.com",process="ptp4l"} 6

openshift_ptp_clock_state

인터페이스의 현재 PTP 클록 상태를 반환합니다. PTP 클록 상태에 대한 가능한 값은 FREERUN , LOCKED 또는 HOLDOVER 입니다.

{iface="CLOCK_REALTIME", node="compute-1.example.com", process="phc2sys"} 1

openshift_ptp_delay_ns

타이밍 패킷을 보내는 기본 클럭과 타이밍 패킷을 받는 보조 클럭 사이의 지연 시간을 나노초 단위로 반환합니다.

{from="master", iface="ens2fx", node="compute-1.example.com", process="ts2phc"} 0

openshift_ptp_ha_profile_status

서로 다른 NIC에 여러 개의 시간 소스가 있는 경우 고가용성 시스템 클록의 현재 상태를 반환합니다. 가능한 값은 0( 비활성 ) 및 1( 활성 )입니다.

{노드="노드1",프로세스="phc2sys",프로필="프로필1"} 1 {노드="노드1",프로세스="phc2sys",프로필="프로필2"} 0

openshift_ptp_frequency_adjustment_ns

2개의 PTP 클록 사이의 주파수 조정을 나노초 단위로 반환합니다. 예를 들어, 업스트림 클럭과 NIC 사이, 시스템 클럭과 NIC 사이, 또는 PTP 하드웨어 클럭( phc )과 NIC 사이입니다.

{from="phc", iface="CLOCK_REALTIME", node="compute-1.example.com", process="phc2sys"} -6768

openshift_ptp_interface_role

인터페이스에 대해 구성된 PTP 클록 역할을 반환합니다. 가능한 값은 0( 수동 ), 1( 슬레이브 ), 2( 마스터 ), 3( 결함 ), 4( 알 수 없음 ), 5( 수신 )입니다.

{iface="ens2f0", node="compute-1.example.com", process="ptp4l"} 2

openshift_ptp_max_offset_ns

2개의 클록 또는 인터페이스 사이의 최대 오프셋을 나노초 단위로 반환합니다. 예를 들어, 업스트림 GNSS 클록과 NIC( ts2phc ) 사이 또는 PTP 하드웨어 클록( phc )과 시스템 클록( phc2sys ) 사이입니다.

{from="master", iface="ens2fx", node="compute-1.example.com", process="ts2phc"} 1.038099569e+09

openshift_ptp_offset_ns

DPLL 클록 또는 GNSS 클록 소스와 NIC 하드웨어 클록 사이의 오프셋을 나노초 단위로 반환합니다.

{from="phc", iface="CLOCK_REALTIME", node="compute-1.example.com", process="phc2sys"} -9

openshift_ptp_process_restart_count

ptp4lts2phc 프로세스가 다시 시작된 횟수를 반환합니다.

{config="ptp4l.0.config", node="compute-1.example.com",process="phc2sys"} 1

openshift_ptp_process_status

PTP 프로세스가 실행 중인지 여부를 나타내는 상태 코드를 반환합니다.

{config="ptp4l.0.config", node="compute-1.example.com",process="phc2sys"} 1

openshift_ptp_threshold

HoldOverTimeout , MaxOffsetThresholdMinOffsetThreshold 에 대한 값을 반환합니다.

  • holdOverTimeout은 PTP 마스터 클록이 연결 해제될 때 PTP 클록 이벤트 상태가 FREERUN 으로 변경되기 전의 시간 값(초)입니다.
  • maxOffsetThresholdminOffsetThreshold는 NIC에 대한 PtpConfig CR에서 구성하는 CLOCK_REALTIME ( phc2sys ) 또는 마스터 오프셋( ptp4l ) 값과 비교하는 나노초 단위의 오프셋 값입니다.

{node="compute-1.example.com", profile="grandmaster", threshold="HoldOverTimeout"} 5

다음 표에서는 PTP 그랜드마스터 클록(T-GM)이 활성화된 경우에만 사용할 수 있는 PTP 빠른 이벤트 메트릭을 설명합니다.

Expand
표 7.12. T-GM이 활성화된 경우 PTP 빠른 이벤트 메트릭
지표설명

openshift_ptp_frequency_status

NIC의 디지털 위상 잠금 루프(DPLL) 주파수의 현재 상태를 반환합니다. 가능한 값은 -1( 알 수 없음 ), 0( 무효 ), 1( FREERUN ), 2( LOCKED ), 3( LOCKED_HO_ACQ ), 또는 4( HOLDOVER )입니다.

{from="dpll",iface="ens2fx",node="compute-1.example.com",process="dpll"} 3

openshift_ptp_nmea_status

NMEA 연결의 현재 상태를 반환합니다. NMEA는 1PPS NIC 연결에 사용되는 프로토콜입니다. 가능한 값은 0( 사용 불가 ) 및 1( 사용 가능 )입니다.

{iface="ens2fx",node="compute-1.example.com",process="ts2phc"} 1

openshift_ptp_phase_status

NIC의 DPLL 단계 상태를 반환합니다. 가능한 값은 -1( 알 수 없음 ), 0( 무효 ), 1( FREERUN ), 2( LOCKED ), 3( LOCKED_HO_ACQ ), 또는 4( HOLDOVER )입니다.

{from="dpll",iface="ens2fx",node="compute-1.example.com",process="dpll"} 3

openshift_ptp_pps_status

NIC 1PPS 연결의 현재 상태를 반환합니다. 1PPS 연결을 사용하면 연결된 NIC 간의 타이밍을 동기화할 수 있습니다. 가능한 값은 0( 사용 불가 ) 및 1( 사용 가능 )입니다.

{from="dpll",iface="ens2fx",node="compute-1.example.com",process="dpll"} 1

openshift_ptp_gnss_status

GNSS(전역 항법 위성 시스템) 연결의 현재 상태를 반환합니다. GNSS는 위성 기반의 위치 지정, 항법, 시간 측정 서비스를 전 세계적으로 제공합니다. 가능한 값은 0( NOFIX ), 1( DEAD RECKONING ONLY ), 2( 2D-FIX ), 3( 3D-FIX ), 4( GPS+DEAD RECKONING FIX ), 5( TIME ONLY FIX )입니다.

{from="gnss",iface="ens2fx",node="compute-1.example.com",process="gnss"} 3

7.4. PTP 이벤트 REST API v2 참조

다음 REST API v2 엔드포인트를 사용하여 cloud-event-consumer 애플리케이션을 PTP 이벤트 프로듀서 포드의 http://ptp-event-publisher-service-NODE_NAME.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2 에 게시된 Precision Time Protocol(PTP) 이벤트에 구독합니다.

7.4.1. PTP 이벤트 REST API v2 엔드포인트

7.4.1.1. api/ocloudNotifications/v2/subscriptions
HTTP 방법

GET api/ocloudNotifications/v2/subscriptions

설명

서브스크립션 목록을 반환합니다. 서브스크립션이 존재하는 경우 200 OK 상태 코드가 서브스크립션 목록과 함께 반환됩니다.

API 응답 예시

[
 {
  "ResourceAddress": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",
  "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
  "SubscriptionId": "ccedbf08-3f96-4839-a0b6-2eb0401855ed",
  "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/ccedbf08-3f96-4839-a0b6-2eb0401855ed"
 },
 {
  "ResourceAddress": "/cluster/node/compute-1.example.com/sync/ptp-status/clock-class",
  "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
  "SubscriptionId": "a939a656-1b7d-4071-8cf1-f99af6e931f2",
  "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/a939a656-1b7d-4071-8cf1-f99af6e931f2"
 },
 {
  "ResourceAddress": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
  "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
  "SubscriptionId": "ba4564a3-4d9e-46c5-b118-591d3105473c",
  "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/ba4564a3-4d9e-46c5-b118-591d3105473c"
 },
 {
  "ResourceAddress": "/cluster/node/compute-1.example.com/sync/gnss-status/gnss-sync-status",
  "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
  "SubscriptionId": "ea0d772e-f00a-4889-98be-51635559b4fb",
  "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/ea0d772e-f00a-4889-98be-51635559b4fb"
 },
 {
  "ResourceAddress": "/cluster/node/compute-1.example.com/sync/sync-status/sync-state",
  "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
  "SubscriptionId": "762999bf-b4a0-4bad-abe8-66e646b65754",
  "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/762999bf-b4a0-4bad-abe8-66e646b65754"
 }
]
Copy to Clipboard Toggle word wrap

HTTP 방법

POST api/ocloudNotifications/v2/subscriptions

설명

적절한 페이로드를 전달하여 필요한 이벤트에 대한 새로운 구독을 만듭니다.

다음 PTP 이벤트에 가입할 수 있습니다.

  • 동기화 상태 이벤트
  • 잠금 상태 이벤트
  • gnss-sync-status 이벤트 이벤트
  • os-clock-sync-state 이벤트
  • 시계 클래스 이벤트
Expand
표 7.13. 쿼리 매개변수
매개변수유형

subscription

data

동기화 상태 구독 페이로드 예시

{
"EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
"ResourceAddress": "/cluster/node/{node_name}/sync/sync-status/sync-state"
}
Copy to Clipboard Toggle word wrap

PTP 잠금 상태 이벤트 구독 페이로드 예시

{
"EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
"ResourceAddress": "/cluster/node/{node_name}/sync/ptp-status/lock-state"
}
Copy to Clipboard Toggle word wrap

PTP gnss-sync-status 이벤트 구독 페이로드 예시

{
"EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
"ResourceAddress": "/cluster/node/{node_name}/sync/gnss-status/gnss-sync-status"
}
Copy to Clipboard Toggle word wrap

PTP os-clock-sync-state 이벤트 구독 페이로드 예시

{
"EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
"ResourceAddress": "/cluster/node/{node_name}/sync/sync-status/os-clock-sync-state"
}
Copy to Clipboard Toggle word wrap

PTP 클록 클래스 이벤트 구독 페이로드 예시

{
"EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
"ResourceAddress": "/cluster/node/{node_name}/sync/ptp-status/clock-class"
}
Copy to Clipboard Toggle word wrap

API 응답 예시

{
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
    "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
    "SubscriptionId": "620283f3-26cd-4a6d-b80a-bdc4b614a96a",
    "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/620283f3-26cd-4a6d-b80a-bdc4b614a96a"
}
Copy to Clipboard Toggle word wrap

다음과 같은 구독 상태 이벤트가 발생할 수 있습니다.

Expand
표 7.14. PTP 이벤트 REST API v2 구독 상태 코드
status_code설명

Created

구독이 생성되었음을 나타냅니다.

400 잘못된 요청

요청이 잘못되었거나 유효하지 않아 서버가 요청을 처리할 수 없음을 나타냅니다.

404 찾을 수 없음

구독 리소스를 사용할 수 없음을 나타냅니다.

409 갈등

구독이 이미 존재함을 나타냅니다.

HTTP 방법

DELETE api/ocloudNotifications/v2/subscriptions

설명

모든 구독을 삭제합니다.

API 응답 예시

{
"status": "deleted all subscriptions"
}
Copy to Clipboard Toggle word wrap

7.4.1.2. api/ocloudNotifications/v2/subscriptions/{subscription_id}
HTTP 방법

GET api/ocloudNotifications/v2/subscriptions/{subscription_id}

설명

id <subscription_id>가 있는 서브스크립션 세부 정보를 반환합니다.

Expand
표 7.15. 글로벌 경로 매개변수
매개변수유형

subscription_id

string

API 응답 예시

{
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
    "EndpointUri": "http://consumer-events-subscription-service.cloud-events.svc.cluster.local:9043/event",
    "SubscriptionId": "620283f3-26cd-4a6d-b80a-bdc4b614a96a",
    "UriLocation": "http://ptp-event-publisher-service-compute-1.openshift-ptp.svc.cluster.local:9043/api/ocloudNotifications/v2/subscriptions/620283f3-26cd-4a6d-b80a-bdc4b614a96a"
}
Copy to Clipboard Toggle word wrap

HTTP 방법

DELETE api/ocloudNotifications/v2/subscriptions/{subscription_id}

설명

ID가 subscription_id 인 구독을 삭제합니다.

Expand
표 7.16. 글로벌 경로 매개변수
매개변수유형

subscription_id

string

Expand
표 7.17. HTTP 응답 코드
HTTP 응답설명

204 콘텐츠 없음

성공

7.4.1.3. api/ocloudNotifications/v2/health
HTTP 방법

GET api/ocloudNotifications/v2/health/

설명

cloudNotifications REST API의 상태를 반환합니다.

Expand
표 7.18. HTTP 응답 코드
HTTP 응답설명

OK

성공

7.4.1.4. api/ocloudNotifications/v2/publishers
HTTP 방법

GET api/ocloudNotifications/v2/publishers

설명

클러스터 노드에 대한 게시자 세부 정보 목록을 반환합니다. 시스템은 관련 장비 상태가 변경되면 알림을 생성합니다.

장비 동기화 상태 구독을 함께 사용하면 시스템의 전반적인 동기화 상태에 대한 자세한 보기를 제공할 수 있습니다.

API 응답 예시

[
  {
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/sync-status/sync-state",
    "EndpointUri": "http://localhost:9043/api/ocloudNotifications/v2/dummy",
    "SubscriptionId": "4ea72bfa-185c-4703-9694-cdd0434cd570",
    "UriLocation": "http://localhost:9043/api/ocloudNotifications/v2/publishers/4ea72bfa-185c-4703-9694-cdd0434cd570"
  },
  {
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",
    "EndpointUri": "http://localhost:9043/api/ocloudNotifications/v2/dummy",
    "SubscriptionId": "71fbb38e-a65d-41fc-823b-d76407901087",
    "UriLocation": "http://localhost:9043/api/ocloudNotifications/v2/publishers/71fbb38e-a65d-41fc-823b-d76407901087"
  },
  {
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/ptp-status/clock-class",
    "EndpointUri": "http://localhost:9043/api/ocloudNotifications/v2/dummy",
    "SubscriptionId": "7bc27cad-03f4-44a9-8060-a029566e7926",
    "UriLocation": "http://localhost:9043/api/ocloudNotifications/v2/publishers/7bc27cad-03f4-44a9-8060-a029566e7926"
  },
  {
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
    "EndpointUri": "http://localhost:9043/api/ocloudNotifications/v2/dummy",
    "SubscriptionId": "6e7b6736-f359-46b9-991c-fbaed25eb554",
    "UriLocation": "http://localhost:9043/api/ocloudNotifications/v2/publishers/6e7b6736-f359-46b9-991c-fbaed25eb554"
  },
  {
    "ResourceAddress": "/cluster/node/compute-1.example.com/sync/gnss-status/gnss-sync-status",
    "EndpointUri": "http://localhost:9043/api/ocloudNotifications/v2/dummy",
    "SubscriptionId": "31bb0a45-7892-45d4-91dd-13035b13ed18",
    "UriLocation": "http://localhost:9043/api/ocloudNotifications/v2/publishers/31bb0a45-7892-45d4-91dd-13035b13ed18"
  }
]
Copy to Clipboard Toggle word wrap

Expand
표 7.19. HTTP 응답 코드
HTTP 응답설명

OK

성공

7.4.1.5. api/ocloudNotifications/v2/{resource_address}/CurrentState
HTTP 방법

GET api/ocloudNotifications/v2/cluster/node/{node_name}/sync/ptp-status/lock-state/CurrentState

GET api/ocloudNotifications/v2/cluster/node/{node_name}/sync/sync-status/os-clock-sync-state/CurrentState

GET api/ocloudNotifications/v2/cluster/node/{node_name}/sync/ptp-status/clock-class/CurrentState

GET api/ocloudNotifications/v2/cluster/node/{node_name}/sync/sync-status/sync-state/CurrentState

GET api/ocloudNotifications/v2/cluster/node/{node_name}/sync/gnss-status/gnss-sync-state/CurrentState

설명

클러스터 노드의 os-clock-sync-state , clock-class , lock-state , gnss-sync-status 또는 sync-state 이벤트의 현재 상태를 반환합니다.

  • os-clock-sync-state 알림은 호스트 운영 체제 클럭 동기화 상태를 설명합니다. LOCKED 또는 FREERUN 상태가 될 수 있습니다.
  • 클록 클래스 알림은 PTP 클록 클래스의 현재 상태를 설명합니다.
  • 잠금 상태 알림은 PTP 장비 잠금 상태의 현재 상태를 설명합니다. LOCKED , HOLDOVER 또는 FREERUN 상태가 될 수 있습니다.
  • 동기화 상태 알림은 PTP 클록 잠금 상태OS 클록 동기화 상태 중 가장 동기화가 덜 된 상태의 현재 상태를 설명합니다.
  • gnss-sync-status 알림은 GNSS 클럭 동기화 상태를 설명합니다.
Expand
표 7.20. 글로벌 경로 매개변수
매개변수유형

resource_address

string

잠금 상태 API 응답 예시

{
  "id": "c1ac3aa5-1195-4786-84f8-da0ea4462921",
  "type": "event.sync.ptp-status.ptp-state-change",
  "source": "/cluster/node/compute-1.example.com/sync/ptp-status/lock-state",
  "dataContentType": "application/json",
  "time": "2023-01-10T02:41:57.094981478Z",
  "data": {
    "version": "1.0",
    "values": [
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/ens5fx/master",
        "data_type": "notification",
        "value_type": "enumeration",
        "value": "LOCKED"
      },
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/ens5fx/master",
        "data_type": "metric",
        "value_type": "decimal64.3",
        "value": "29"
      }
    ]
  }
}
Copy to Clipboard Toggle word wrap

os-clock-sync-state API 응답 예시

{
  "specversion": "0.3",
  "id": "4f51fe99-feaa-4e66-9112-66c5c9b9afcb",
  "source": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",
  "type": "event.sync.sync-status.os-clock-sync-state-change",
  "subject": "/cluster/node/compute-1.example.com/sync/sync-status/os-clock-sync-state",
  "datacontenttype": "application/json",
  "time": "2022-11-29T17:44:22.202Z",
  "data": {
    "version": "1.0",
    "values": [
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/CLOCK_REALTIME",
        "data_type": "notification",
        "value_type": "enumeration",
        "value": "LOCKED"
      },
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/CLOCK_REALTIME",
        "data_type": "metric",
        "value_type": "decimal64.3",
        "value": "27"
      }
    ]
  }
}
Copy to Clipboard Toggle word wrap

클록 클래스 API 응답 예시

{
  "id": "064c9e67-5ad4-4afb-98ff-189c6aa9c205",
  "type": "event.sync.ptp-status.ptp-clock-class-change",
  "source": "/cluster/node/compute-1.example.com/sync/ptp-status/clock-class",
  "dataContentType": "application/json",
  "time": "2023-01-10T02:41:56.785673989Z",
  "data": {
    "version": "1.0",
    "values": [
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/ens5fx/master",
        "data_type": "metric",
        "value_type": "decimal64.3",
        "value": "165"
      }
    ]
  }
}
Copy to Clipboard Toggle word wrap

동기화 상태 API 응답 예시

{
    "specversion": "0.3",
    "id": "8c9d6ecb-ae9f-4106-82c4-0a778a79838d",
    "source": "/sync/sync-status/sync-state",
    "type": "event.sync.sync-status.synchronization-state-change",
    "subject": "/cluster/node/compute-1.example.com/sync/sync-status/sync-state",
    "datacontenttype": "application/json",
    "time": "2024-08-28T14:50:57.327585316Z",
    "data":
    {
        "version": "1.0",
        "values": [
        {
            "ResourceAddress": "/cluster/node/compute-1.example.com/sync/sync-status/sync-state",
            "data_type": "notification",
            "value_type": "enumeration",
            "value": "LOCKED"
        }]
    }
}
Copy to Clipboard Toggle word wrap

gnss-sync-state API 응답 예시

{
  "id": "435e1f2a-6854-4555-8520-767325c087d7",
  "type": "event.sync.gnss-status.gnss-state-change",
  "source": "/cluster/node/compute-1.example.com/sync/gnss-status/gnss-sync-status",
  "dataContentType": "application/json",
  "time": "2023-09-27T19:35:33.42347206Z",
  "data": {
    "version": "1.0",
    "values": [
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/ens2fx/master",
        "data_type": "notification",
        "value_type": "enumeration",
        "value": "SYNCHRONIZED"
      },
      {
        "ResourceAddress": "/cluster/node/compute-1.example.com/ens2fx/master",
        "data_type": "metric",
        "value_type": "decimal64.3",
        "value": "5"
      }
    ]
  }
}
Copy to Clipboard Toggle word wrap

Legal Notice

Copyright © 2025 Red Hat

OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).

Modified versions must remove all Red Hat trademarks.

Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.

Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.

Linux® is the registered trademark of Linus Torvalds in the United States and other countries.

Java® is a registered trademark of Oracle and/or its affiliates.

XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.

MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.

Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.

The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

All other trademarks are the property of their respective owners.

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat