4.2. 에이전트 기반 설치 프로그램을 사용하여 OpenShift 컨테이너 플랫폼 설치


다음 절차에서는 연결이 끊긴 환경에서 단일 노드 OpenShift Container Platform을 배포합니다. 이러한 절차를 기초로 사용하고 요구 사항에 맞게 수정할 수 있습니다.

4.2.1. 에이전트 기반 설치 프로그램 다운로드

이 절차를 사용하여 설치에 필요한 에이전트 기반 설치 프로그램과 CLI를 다운로드하세요.

프로세스

  1. 로그인 인증 정보를 사용하여 OpenShift Container Platform 웹 콘솔에 로그인합니다.
  2. 데이터 센터 로 이동합니다.
  3. 로컬에서 에이전트 기반 설치 프로그램 실행을 클릭합니다.
  4. OpenShift 설치 프로그램명령줄 인터페이스에 대한 운영 체제와 아키텍처를 선택하세요.
  5. 설치 프로그램 다운로드를 클릭하여 설치 프로그램을 다운로드하고 추출하세요.
  6. '풀 시크릿 다운로드' 또는 '풀 시크릿 복사'를 클릭하여 풀 시크릿을 다운로드하거나 복사합니다.
  7. 명령줄 도구 다운로드를 클릭하고 PATH 에 있는 디렉토리에 openshift-install 바이너리를 넣습니다.

4.2.2. 에이전트 기반 설치에 지원되는 아키텍처 확인

에이전트 기반 설치 프로그램을 사용하여 OpenShift Container Platform 클러스터를 설치하기 전에 클러스터를 설치할 수 있는 지원되는 아키텍처를 확인할 수 있습니다. 이 절차는 선택 사항입니다.

사전 요구 사항

  • OpenShift CLI(oc)를 설치합니다.
  • 설치 프로그램을 다운로드했습니다.

프로세스

  1. OpenShift CLI( oc )에 로그인합니다.
  2. 다음 명령을 실행하여 릴리스 페이로드를 확인하세요.

    $ ./openshift-install version
    Copy to Clipboard Toggle word wrap

    출력 예

    ./openshift-install 4.19.0
    built from commit abc123def456
    release image quay.io/openshift-release-dev/ocp-release@sha256:123abc456def789ghi012jkl345mno678pqr901stu234vwx567yz0
    release architecture amd64
    Copy to Clipboard Toggle word wrap

    다중 페이로드가 있는 릴리스 이미지를 사용하는 경우 이 명령의 출력에 표시되는 릴리스 아키텍처는 기본 아키텍처입니다.

  3. 페이로드의 아키텍처를 확인하려면 다음 명령을 실행하세요.

    $ oc adm release info <release_image> -o jsonpath="{ .metadata.metadata}" 
    1
    Copy to Clipboard Toggle word wrap
    1
    <release_image>를 릴리스 이미지로 바꾸세요. 예: quay.io/openshift-release-dev/ocp-release@sha256:123abc456def789ghi012jkl345mno678pqr901stu234vwx567yz0 .

    릴리스 이미지가 다중 페이로드를 사용하는 경우의 예시 출력

    {"release.openshift.io architecture":"multi"}
    Copy to Clipboard Toggle word wrap

    멀티 페이로드가 있는 릴리스 이미지를 사용하는 경우 arm64 , amd64 , s390x , ppc64le 등 다양한 아키텍처에 클러스터를 설치할 수 있습니다. 그렇지 않으면 openshift-install version 명령의 출력에 표시된 릴리스 아키텍처 에만 클러스터를 설치할 수 있습니다.

4.2.3. 선호하는 구성 입력 생성

이 절차를 사용하여 에이전트 이미지를 만드는 데 사용되는 기본 구성 입력을 만듭니다.

참고

install-config.yamlagent-config.yaml 파일을 구성하는 것은 에이전트 기반 설치 프로그램을 사용하는 데 가장 좋은 방법입니다. GitOps ZTP 매니페스트를 사용하는 것은 선택 사항입니다.

프로세스

  1. 다음 명령을 실행하여 nmstate 종속성을 설치합니다.

    $ sudo dnf install /usr/bin/nmstatectl -y
    Copy to Clipboard Toggle word wrap
  2. PATH에 있는 디렉토리에 openshift-install 바이너리를 넣으세요.
  3. 다음 명령을 실행하여 설치 구성을 저장할 디렉토리를 만듭니다.

    $ mkdir ~/<directory_name>
    Copy to Clipboard Toggle word wrap
  4. 다음 명령을 실행하여 install-config.yaml 파일을 만듭니다.

    $ cat << EOF > ./<directory_name>/install-config.yaml
    apiVersion: v1
    baseDomain: test.example.com
    compute:
    - architecture: amd64 
    1
    
      hyperthreading: Enabled
      name: worker
      replicas: 0
    controlPlane:
      architecture: amd64
      hyperthreading: Enabled
      name: master
      replicas: 1
    metadata:
      name: sno-cluster 
    2
    
    networking:
      clusterNetwork:
      - cidr: 10.128.0.0/14
        hostPrefix: 23
      machineNetwork:
      - cidr: 192.168.0.0/16
      networkType: OVNKubernetes 
    3
    
      serviceNetwork:
      - 172.30.0.0/16
    platform: 
    4
    
      none: {}
    pullSecret: '<pull_secret>' 
    5
    
    sshKey: '<ssh_pub_key>' 
    6
    
    EOF
    Copy to Clipboard Toggle word wrap
    1
    시스템 아키텍처를 지정하세요. 유효한 값은 amd64 , arm64 , ppc64les390x 입니다.

    멀티 페이로드가 있는 릴리스 이미지를 사용하는 경우 arm64 , amd64 , s390x , ppc64le 등 다양한 아키텍처에 클러스터를 설치할 수 있습니다. 그렇지 않으면 openshift-install version 명령의 출력에 표시된 릴리스 아키텍처 에만 클러스터를 설치할 수 있습니다. 자세한 내용은 "에이전트 기반 설치 프로그램 클러스터 설치를 위한 지원되는 아키텍처 확인"을 참조하세요.

    2
    필수 항목입니다. 클러스터 이름을 지정하세요.
    3
    설치할 클러스터 네트워크 플러그인입니다. 기본값인 OVNKubernetes 만 지원됩니다.
    4
    플랫폼을 지정하세요.
    참고

    베어 메탈 플랫폼의 경우 install-config.yaml 파일의 플랫폼 섹션에서 지정한 호스트 설정이 기본적으로 사용됩니다. 단, agent-config.yaml 파일에서 지정한 구성으로 이 설정이 재정의되는 경우는 예외입니다.

    5
    풀 시크릿을 지정하세요.
    6
    SSH 공개 키를 지정하세요.
    참고

    플랫폼을 vSphere 또는 baremetal 로 설정하면 다음 세 가지 방법으로 클러스터 노드의 IP 주소 엔드포인트를 구성할 수 있습니다.

    • IPv4
    • IPv6
    • IPv4와 IPv6 병렬(듀얼 스택)

    IPv6는 베어 메탈 플랫폼에서만 지원됩니다.

    듀얼 스택 네트워킹의 예

    networking:
      clusterNetwork:
        - cidr: 172.21.0.0/16
          hostPrefix: 23
        - cidr: fd02::/48
          hostPrefix: 64
      machineNetwork:
        - cidr: 192.168.11.0/16
        - cidr: 2001:DB8::/32
      serviceNetwork:
        - 172.22.0.0/16
        - fd03::/112
      networkType: OVNKubernetes
    platform:
      baremetal:
        apiVIPs:
        - 192.168.11.3
        - 2001:DB8::4
        ingressVIPs:
        - 192.168.11.4
        - 2001:DB8::5
    Copy to Clipboard Toggle word wrap

    참고

    연결이 끊긴 미러 레지스트리를 사용하는 경우 미러 레지스트리에 대해 이전에 만든 인증서 파일을 install-config.yaml 파일의 additionalTrustBundle 필드에 추가해야 합니다.

  5. 다음 명령을 실행하여 agent-config.yaml 파일을 만듭니다.

    $ cat > agent-config.yaml << EOF
    apiVersion: v1beta1
    kind: AgentConfig
    metadata:
      name: sno-cluster
    rendezvousIP: 192.168.111.80 
    1
    
    hosts: 
    2
    
      - hostname: master-0 
    3
    
        interfaces:
          - name: eno1
            macAddress: 00:ef:44:21:e6:a5
        rootDeviceHints: 
    4
    
          deviceName: /dev/sdb
        networkConfig: 
    5
    
          interfaces:
            - name: eno1
              type: ethernet
              state: up
              mac-address: 00:ef:44:21:e6:a5
              ipv4:
                enabled: true
                address:
                  - ip: 192.168.111.80
                    prefix-length: 23
                dhcp: false
          dns-resolver:
            config:
              server:
                - 192.168.111.1
          routes:
            config:
              - destination: 0.0.0.0/0
                next-hop-address: 192.168.111.2
                next-hop-interface: eno1
                table-id: 254
    EOF
    Copy to Clipboard Toggle word wrap
    1
    이 IP 주소는 부트스트래핑 프로세스를 수행하고 지원 서비스 구성 요소를 실행하는 노드를 결정하는 데 사용됩니다. networkConfig 매개변수에 호스트의 IP 주소를 하나라도 지정하지 않은 경우 랑데부 IP 주소를 제공해야 합니다. 이 주소가 제공되지 않으면 제공된 호스트의 networkConfig 에서 하나의 IP 주소가 선택됩니다.
    2
    선택 사항: 호스트 구성. 정의된 호스트 수는 install-config.yaml 파일에 정의된 총 호스트 수를 초과할 수 없습니다. 이는 compute.replicascontrolPlane.replicas 매개변수 값의 합계입니다.
    3
    선택 사항: DHCP(동적 호스트 구성 프로토콜) 또는 역방향 DNS 조회에서 얻은 호스트 이름을 재정의합니다. 각 호스트는 이러한 방법 중 하나를 통해 제공되는 고유한 호스트 이름을 가져야 합니다.
    4
    특정 장치에 Red Hat Enterprise Linux CoreOS(RHCOS) 이미지를 프로비저닝할 수 있습니다. 설치 프로그램은 장치를 발견한 순서대로 검사하고, 발견된 값을 힌트 값과 비교합니다. 힌트 값과 일치하는 첫 번째로 발견된 장치를 사용합니다.
    참고

    이 매개변수는 IBM Z의 FCP 다중 경로 구성에 필수입니다.

    5
    선택 사항: NMState 형식으로 호스트의 네트워크 인터페이스를 구성합니다.

4.2.4. 추가 매니페스트 파일 생성

선택적 작업으로, install-config.yamlagent-config.yaml 파일에서 사용할 수 있는 구성을 넘어 클러스터를 더욱 세부적으로 구성하기 위해 추가 매니페스트를 만들 수 있습니다.

중요

추가 매니페스트를 사용하여 클러스터에 적용한 사용자 지정은 검증되지 않으며, 작동이 보장되지 않으며, 클러스터가 작동하지 않을 수 있습니다.

4.2.4.1. 추가 매니페스트를 포함할 디렉토리 생성

install-config.yamlagent-config.yaml 파일 외에 에이전트 기반 설치를 구성하기 위해 추가 매니페스트를 만드는 경우 설치 디렉토리 내에 openshift 하위 디렉토리를 만들어야 합니다. 추가적인 머신 구성은 모두 이 하위 디렉토리에 있어야 합니다.

참고

추가할 수 있는 가장 일반적인 매니페스트 유형은 MachineConfig 객체입니다. 에이전트 기반 설치 중에 추가할 수 있는 MachineConfig 객체의 예는 "추가 리소스" 섹션의 "MachineConfig 객체를 사용하여 노드 구성"을 참조하세요.

프로세스

  • 설치 호스트에서 다음 명령을 실행하여 설치 디렉토리 내에 openshift 하위 디렉토리를 만듭니다.

    $ mkdir <installation_directory>/openshift
    Copy to Clipboard Toggle word wrap

4.2.4.2. 디스크 파티션 설정

일반적으로 RHCOS 설치 중에 생성된 기본 디스크 파티션을 사용해야 합니다. 그러나 확장하려는 디렉토리에 별도의 파티션을 생성해야 하는 경우가 있습니다.

OpenShift 컨테이너 플랫폼은 /var 디렉토리 또는 /var의 하위 디렉터리 중 하나에 스토리지를 연결하는 단일 파티션의 추가를 지원합니다. 예를 들면 다음과 같습니다.

  • /var/lib/containers: 시스템에 더 많은 이미지와 컨테이너가 추가됨에 따라 확장될 수 있는 컨테이너 관련 콘텐츠를 보관합니다.
  • /var/lib/etcd: etcd 스토리지의 성능 최적화와 같은 목적으로 별도로 보관할 데이터를 보관합니다.
  • /var: 감사 등의 목적에 맞게 별도로 분리하여 보관해야 하는 데이터를 보관합니다.

    중요

    디스크 크기가 100GB보다 크고, 특히 1TB보다 큰 경우 별도의 /var 파티션을 만듭니다.

/var 디렉터리의 콘텐츠를 별도로 저장하면 필요에 따라 해당 영역에 대한 스토리지 확장을 보다 용이하게 하고 나중에 OpenShift Container Platform을 다시 설치하여 해당 데이터를 그대로 보존할 수 있습니다. 이 방법을 사용하면 모든 컨테이너를 다시 가져올 필요가 없으며 시스템을 업데이트할 때 대용량 로그 파일을 복사할 필요도 없습니다.

/var 디렉토리 또는 /var의 하위 디렉토리에 대해 별도의 파티션을 사용하면 분할된 디렉토리의 데이터 증가로 루트 파일 시스템이 채워지는 것을 방지할 수 있습니다.

다음 절차에서는 설치 준비 단계에서 노드 유형의 Ignition 구성 파일에 래핑되는 머신 구성 매니페스트를 추가하여 별도의 /var 파티션을 설정합니다.

사전 요구 사항

  • 설치 디렉토리 내에 openshift 하위 디렉토리를 생성했습니다.

프로세스

  1. 추가 파티션을 구성하는 Butane 구성을 생성합니다. 예를 들어 $HOME/clusterconfig/98-var-partition.bu 파일의 이름을 지정하고, 디스크 장치 이름을 worker 시스템의 스토리지 장치 이름으로 변경하고 스토리지 크기를 적절하게 설정합니다. 이 예에서는 /var 디렉터리를 별도의 파티션에 배치합니다.

    variant: openshift
    version: 4.19.0
    metadata:
      labels:
        machineconfiguration.openshift.io/role: worker
      name: 98-var-partition
    storage:
      disks:
      - device: /dev/disk/by-id/<device_name> 
    1
    
        partitions:
        - label: var
          start_mib: <partition_start_offset> 
    2
    
          size_mib: <partition_size> 
    3
    
          number: 5
      filesystems:
        - device: /dev/disk/by-partlabel/var
          path: /var
          format: xfs
          mount_options: [defaults, prjquota] 
    4
    
          with_mount_unit: true
    Copy to Clipboard Toggle word wrap
    1
    파티션을 설정해야하는 디스크 저장 장치 이름입니다.
    2
    데이터 파티션을 부트 디스크에 추가할 때 최소 오프셋 값 25000 메비 바이트가 권장됩니다. 루트 파일 시스템은 지정된 오프셋까지 사용 가능한 모든 공간을 채우기 위해 자동으로 크기가 조정됩니다. 오프셋 값이 지정되지 않거나 지정된 값이 권장 최소값보다 작으면 생성되는 루트 파일 시스템의 크기가 너무 작아지고 RHCOS를 나중에 다시 설치할 때 데이터 파티션의 첫 번째 부분을 덮어 쓸 수 있습니다.
    3
    데이터 파티션의 크기(MB)입니다.
    4
    컨테이너 스토리지에 사용되는 파일 시스템에 대해 prjquota 마운트 옵션을 활성화해야 합니다.
    참고

    별도의 /var 파티션을 만들 때 다른 인스턴스 유형에 동일한 장치 이름이 없는 경우 컴퓨팅 노드에 다른 인스턴스 유형을 사용할 수 없습니다.

  2. Butane 구성에서 매니페스트를 생성하여 clusterconfig/openshift 디렉터리에 저장합니다. 예를 들어 다음 명령을 실행합니다.

    $ butane $HOME/clusterconfig/98-var-partition.bu -o $HOME/clusterconfig/openshift/98-var-partition.yaml
    Copy to Clipboard Toggle word wrap

4.2.5. ZTP 매니페스트 사용

선택적 작업으로 GitOps Zero Touch Provisioning(ZTP) 매니페스트를 사용하여 install-config.yamlagent-config.yaml 파일을 통해 사용할 수 있는 옵션 외에도 설치를 구성할 수 있습니다.

참고

GitOps ZTP 매니페스트는 install-config.yamlagent-config.yaml 파일을 미리 구성하거나 구성하지 않고도 생성할 수 있습니다. install-config.yamlagent-config.yaml 파일을 구성하도록 선택한 경우 해당 구성은 생성 시 ZTP 클러스터 매니페스트로 가져옵니다.

사전 요구 사항

  • PATH 에 있는 디렉토리에 openshift-install 바이너리를 넣었습니다.
  • 선택 사항: install-config.yamlagent-config.yaml 파일을 만들고 구성했습니다.

프로세스

  1. 다음 명령을 실행하여 ZTP 클러스터 매니페스트를 생성합니다.

    $ openshift-install agent create cluster-manifests --dir <installation_directory>
    Copy to Clipboard Toggle word wrap
    중요

    install-config.yamlagent-config.yaml 파일을 생성한 경우 해당 파일은 삭제되고 이 명령을 통해 생성된 클러스터 매니페스트로 대체됩니다.

    openshift-install agent create cluster-manifests 명령을 실행하면 install-config.yamlagent-config.yaml 파일에 적용된 모든 구성이 ZTP 클러스터 매니페스트로 가져옵니다.

  2. 다음 명령을 실행하여 cluster-manifests 디렉토리로 이동합니다.

    $ cd <installation_directory>/cluster-manifests
    Copy to Clipboard Toggle word wrap
  3. cluster-manifests 디렉토리에서 매니페스트 파일을 구성합니다. 샘플 파일은 "샘플 GitOps ZTP 사용자 정의 리소스" 섹션을 참조하세요.
  4. 연결이 끊긴 클러스터: ZTP 매니페스트를 생성하기 전에 install-config.yaml 파일에서 미러 구성을 정의하지 않은 경우 다음 단계를 수행합니다.

    1. 다음 명령을 실행하여 미러 디렉토리로 이동합니다.

      $ cd ../mirror
      Copy to Clipboard Toggle word wrap
    2. 미러 디렉토리에서 매니페스트 파일을 구성합니다.

4.2.6. 디스크 암호화

선택 사항으로, 에이전트 기반 설치 프로그램을 사용하여 OpenShift Container Platform을 설치하는 동안 디스크나 파티션을 암호화하기 위해 이 절차를 사용할 수 있습니다.

중요

베어 메탈 호스트에 이전 운영 체제의 TPM 암호화 키가 남아 있는 경우 클러스터 배포가 중단될 수 있습니다. 이러한 상황을 방지하려면 ISO를 부팅하기 전에 BIOS에서 TPM 칩을 재설정하는 것이 좋습니다.

사전 요구 사항

  • ZTP 매니페스트를 사용하지 않는 한 install-config.yamlagent-config.yaml 파일을 만들고 구성했습니다.
  • PATH 에 있는 디렉토리에 openshift-install 바이너리를 넣었습니다.

프로세스

  1. 다음 명령을 실행하여 ZTP 클러스터 매니페스트를 생성합니다.

    $ openshift-install agent create cluster-manifests --dir <installation_directory>
    Copy to Clipboard Toggle word wrap
    중요

    install-config.yamlagent-config.yaml 파일을 생성한 경우 해당 파일은 삭제되고 이 명령을 통해 생성된 클러스터 매니페스트로 대체됩니다.

    openshift-install agent create cluster-manifests 명령을 실행하면 install-config.yamlagent-config.yaml 파일에 적용된 모든 구성이 ZTP 클러스터 매니페스트로 가져옵니다.

    참고

    이미 ZTP 매니페스트를 생성한 경우 이 단계를 건너뜁니다.

  2. 다음 명령을 실행하여 cluster-manifests 디렉토리로 이동합니다.

    $ cd <installation_directory>/cluster-manifests
    Copy to Clipboard Toggle word wrap
  3. agent-cluster-install.yaml 파일에 다음 섹션을 추가합니다.

    diskEncryption:
        enableOn: all 
    1
    
        mode: tang 
    2
    
        tangServers: "server1": "http://tang-server-1.example.com:7500" 
    3
    Copy to Clipboard Toggle word wrap
    1
    디스크 암호화를 활성화할 노드를 지정합니다. 유효한 값은 none , all , mastersworkers 입니다.
    2
    사용할 디스크 암호화 모드를 지정합니다. 유효한 값은 tpmv2tang 입니다.
    3
    선택 사항: Tang을 사용하는 경우 Tang 서버를 지정합니다.

4.2.7. 에이전트 이미지 생성 및 부팅

이 절차를 사용하여 컴퓨터에서 에이전트 이미지를 부팅합니다.

프로세스

  1. 다음 명령을 실행하여 에이전트 이미지를 만듭니다.

    $ openshift-install --dir <install_directory> agent create image
    Copy to Clipboard Toggle word wrap
    참고

    RHCOS(Red Hat Enterprise Linux CoreOS)는 기본 디스크에서 다중 경로를 지원하므로 하드웨어 장애에 대한 탄력성이 강화된 호스트 가용성을 높일 수 있습니다. 에이전트 ISO 이미지에서는 기본적으로 다중 경로가 활성화되어 있으며 기본 /etc/multipath.conf 구성이 적용됩니다.

  2. 베어 메탈 머신에서 agent.x86_64.iso , agent.aarch64.iso 또는 agent.s390x.iso 이미지를 부팅합니다.

4.2.8. RHEL KVM을 사용하여 IBM Z 에이전트 추가

다음 절차에 따라 RHEL KVM에 IBM Z® 에이전트를 수동으로 추가하세요. RHEL KVM이 있는 IBM Z® 클러스터에만 이 절차를 사용하세요.

참고

KVM 부팅을 위해서는 nmstateconfig 매개변수를 구성해야 합니다.

프로세스

  1. RHEL KVM 머신을 부팅합니다.
  2. 가상 서버를 배포하려면 다음 매개변수를 사용하여 virt-install 명령을 실행합니다.

    ISO 부팅

    $ virt-install
        --name <vm_name> \
        --autostart \
        --memory=<memory> \
        --cpu host \
        --vcpus=<vcpus> \
        --cdrom \<path_to_image>/<agent_iso_image> \ 
    1
    
        --disk pool=default,size=<disk_pool_size> \
        --network network:default,mac=<mac_address> \
        --graphics none \
        --noautoconsole \
        --os-variant rhel9.0 \
        --wait=-1
    Copy to Clipboard Toggle word wrap

    1
    --cdrom 매개변수의 경우 로컬 서버에서 ISO 이미지의 위치를 지정합니다(예: <path_to_image>/home/<image>.iso ).
    참고

    IBM Z에서 DASD 장치를 사용하는 KVM 기반 설치의 경우 fdasd 파티셔닝 도구를 사용하여 파티션(예: /dev/dasdb1 )을 만들어야 합니다.

  3. 선택 사항: FIPS 모드를 활성화합니다.

    RHEL KVM이 있는 IBM Z® 클러스터에서 FIPS 모드를 활성화하려면 대신 PXE 부팅을 사용하고 다음 매개변수와 함께 virt-install 명령을 실행해야 합니다.

    PXE 부팅

    $ virt-install \
       --name <vm_name> \
       --autostart \
       --ram=16384 \
       --cpu host \
       --vcpus=8 \
       --location <path_to_kernel_initrd_image>,kernel=kernel.img,initrd=initrd.img \
    1
    
       --disk <qcow_image_path> \
       --network network:macvtap ,mac=<mac_address> \
       --graphics none \
       --noautoconsole \
       --wait=-1 \
       --extra-args "rd.neednet=1 nameserver=<nameserver>" \
       --extra-args "ip=<IP>::<nameserver>::<hostname>:enc1:none" \
       --extra-args "coreos.live.rootfs_url=http://<http_server>:8080/agent.s390x-rootfs.img" \
       --extra-args "random.trust_cpu=on rd.luks.options=discard" \
       --extra-args "ignition.firstboot ignition.platform.id=metal" \
       --extra-args "console=tty1 console=ttyS1,115200n8" \
       --extra-args "coreos.inst.persistent-kargs=console=tty1 console=ttyS1,115200n8" \
       --extra-args "fips=1" \
    2
    
       --osinfo detect=on,require=off
    Copy to Clipboard Toggle word wrap

    참고

    IBM Z에서 DASD 장치를 사용하는 KVM 기반 설치의 경우 fdasd 파티셔닝 도구를 사용하여 파티션(예: /dev/dasdb1 )을 만들어야 합니다.

    1
    --location 매개변수에는 HTTP 또는 HTTPS 서버에서 커널/initrd의 위치를 지정합니다.
    2
    FIPS 모드를 활성화하려면 fips=1을 지정하세요. 이 항목은 install-config.yaml 파일에서 fips 매개변수를 true 로 설정하는 것 외에도 필요합니다.
    참고

    현재는 IBM Z®에서 FIPS 모드를 활성화하기 위해 PXE 부팅만 지원됩니다.

4.2.9. 현재 설치 호스트가 릴리스 이미지를 가져올 수 있는지 확인

에이전트 이미지를 부팅하고 네트워크 서비스가 호스트에서 사용 가능해지면 에이전트 콘솔 애플리케이션은 풀 검사를 수행하여 현재 호스트가 릴리스 이미지를 검색할 수 있는지 확인합니다.

1차 풀 체크에 통과하면 애플리케이션을 종료하고 설치를 계속할 수 있습니다. 풀 검사에 실패하면 애플리케이션은 TUI의 추가 검사 섹션에서 볼 수 있듯이 추가 검사를 수행하여 문제를 해결하는 데 도움을 줍니다. 추가 검사 중 어느 하나에 실패하더라도 기본 풀 검사가 성공하는 한 반드시 심각한 문제는 아닙니다.

설치가 실패할 수 있는 호스트 네트워크 구성 문제가 있는 경우 콘솔 애플리케이션을 사용하여 네트워크 구성을 조정할 수 있습니다.

중요

에이전트 콘솔 애플리케이션이 호스트 네트워크 구성 문제를 감지하면 사용자가 콘솔 애플리케이션을 수동으로 중지하고 계속 진행하겠다는 의사를 표시할 때까지 설치 워크플로가 중단됩니다.

프로세스

  1. 에이전트 콘솔 애플리케이션이 구성된 릴리스 이미지를 레지스트리에서 가져올 수 있는지 확인할 때까지 기다립니다.
  2. 에이전트 콘솔 애플리케이션에서 설치 프로그램 연결 검사를 통과했다고 표시하는 경우 설치를 계속하려면 메시지 표시 시간이 초과될 때까지 기다리세요.

    참고

    연결 검사를 통과한 경우에도 네트워크 구성 설정을 보거나 변경할 수 있습니다.

    그러나 시간 초과가 발생하지 않도록 에이전트 콘솔 애플리케이션과 상호 작용하도록 선택한 경우 설치를 계속하려면 TUI를 수동으로 종료해야 합니다.

  3. 에이전트 콘솔 애플리케이션 검사가 실패한 경우( 릴리스 이미지 URL 풀 검사 옆에 빨간색 아이콘이 표시됨) 다음 단계에 따라 호스트의 네트워크 설정을 재구성하세요.

    1. TUI의 오류 확인 섹션을 읽어보세요. 이 섹션에서는 실패한 검사와 관련된 오류 메시지를 표시합니다.

    2. 네트워크 구성을 선택하여 NetworkManager TUI를 시작합니다.
    3. 연결 편집을 선택하고 재구성하려는 연결을 선택합니다.
    4. 구성을 편집하고 확인을 선택하여 변경 사항을 저장합니다.
    5. NetworkManager TUI의 메인 화면으로 돌아가려면 뒤로를 선택하세요.
    6. 연결 활성화를 선택합니다.
    7. 재구성된 네트워크를 선택하여 비활성화합니다.
    8. 재구성된 네트워크를 다시 선택하여 다시 활성화하세요.
    9. 뒤로를 선택한 다음 종료를 선택하면 에이전트 콘솔 애플리케이션으로 돌아갑니다.
    10. 새로운 네트워크 구성을 사용하여 지속적인 네트워크 검사를 다시 시작할 때까지 최소 5초 동안 기다리세요.
    11. 릴리스 이미지 URL 풀 검사가 성공하고 URL 옆에 녹색 아이콘이 표시되면 종료를 선택하여 에이전트 콘솔 애플리케이션을 종료하고 설치를 계속합니다.

4.2.10. 설치 진행 상황 추적 및 확인

다음 절차에 따라 설치 진행 상황을 추적하고 설치가 성공적으로 완료되었는지 확인하세요.

사전 요구 사항

  • Kubernetes API 서버에 대한 DNS 레코드를 구성했습니다.

프로세스

  1. 선택 사항: 부트스트랩 호스트(랑데부 호스트)가 재부팅되는 시점을 알아보려면 다음 명령을 실행하세요.

    $ ./openshift-install --dir <install_directory> agent wait-for bootstrap-complete \
    1
    
        --log-level=info 
    2
    Copy to Clipboard Toggle word wrap
    1
    <install_directory> 에 에이전트 ISO가 생성된 디렉토리 경로를 지정합니다.
    2
    다른 설치 세부 사항을 보려면 info 대신 warn, debug 또는 error를 지정합니다.

    출력 예

    ...................................................................
    ...................................................................
    INFO Bootstrap configMap status is complete
    INFO cluster bootstrap is complete
    Copy to Clipboard Toggle word wrap

    이 명령은 Kubernetes API 서버가 컨트롤 플레인 시스템에서 부트스트랩되었다는 신호를 보낼 때 성공합니다.

  2. 진행 상황을 추적하고 설치가 성공적으로 완료되었는지 확인하려면 다음 명령을 실행하세요.

    $ openshift-install --dir <install_directory> agent wait-for install-complete 
    1
    Copy to Clipboard Toggle word wrap
    1
    <install_directory> 디렉토리에는 에이전트 ISO가 생성된 디렉토리 경로를 지정합니다.

    출력 예

    ...................................................................
    ...................................................................
    INFO Cluster is installed
    INFO Install complete!
    INFO To access the cluster as the system:admin user when using 'oc', run
    INFO     export KUBECONFIG=/home/core/installer/auth/kubeconfig
    INFO Access the OpenShift web-console here: https://console-openshift-console.apps.sno-cluster.test.example.com
    Copy to Clipboard Toggle word wrap

참고

GitOps ZTP 매니페스트의 선택적 방법을 사용하는 경우 AgentClusterInstall.yaml 파일을 통해 세 가지 방법으로 클러스터 노드의 IP 주소 엔드포인트를 구성할 수 있습니다.

  • IPv4
  • IPv6
  • IPv4와 IPv6 병렬(듀얼 스택)

IPv6는 베어 메탈 플랫폼에서만 지원됩니다.

듀얼 스택 네트워킹의 예

apiVIP: 192.168.11.3
ingressVIP: 192.168.11.4
clusterDeploymentRef:
  name: mycluster
imageSetRef:
  name: openshift-4.19
networking:
  clusterNetwork:
  - cidr: 172.21.0.0/16
    hostPrefix: 23
  - cidr: fd02::/48
    hostPrefix: 64
  machineNetwork:
  - cidr: 192.168.11.0/16
  - cidr: 2001:DB8::/32
  serviceNetwork:
  - 172.22.0.0/16
  - fd03::/112
  networkType: OVNKubernetes
Copy to Clipboard Toggle word wrap

맨 위로 이동
Red Hat logoGithubredditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다. 최신 업데이트를 확인하세요.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

Theme

© 2025 Red Hat