단일 노드에 설치


OpenShift Container Platform 4.15

단일 노드에 OpenShift Container Platform 설치

Red Hat OpenShift Documentation Team

초록

이 문서에서는 단일 노드에 OpenShift Container Platform을 설치하는 방법을 설명합니다.

1장. 단일 노드에 설치할 준비

1.1. 사전 요구 사항

1.2. 단일 노드의 OpenShift 정보

표준 설치 방법을 사용하여 단일 노드 클러스터를 생성할 수 있습니다. 단일 노드의 OpenShift Container Platform은 특수 Ignition 구성 파일을 생성해야 하는 특수 설치입니다. 주요 사용 사례는 간헐적인 연결, 이식 가능한 클라우드, 베이스 스테이션과 가까운 5G 무선 액세스 네트워크(RAN)를 포함하여 엣지 컴퓨팅 워크로드의 경우입니다. 단일 노드에 설치가 있는 주요 절충은 고가용성이 없다는 것입니다.

중요

단일 노드 OpenShift에서 OpenShiftSDN을 사용하는 것은 지원되지 않습니다. OVN-Kubernetes는 단일 노드 OpenShift 배포의 기본 네트워크 플러그인입니다.

1.3. 단일 노드에 OpenShift를 설치하기 위한 요구사항

단일 노드에 OpenShift Container Platform을 설치하면 고가용성 및 대규모 클러스터에 대한 일부 요구 사항이 완화됩니다. 그러나 다음 요구 사항을 충족해야 합니다.

  • 관리 호스트: ISO를 준비하고 USB 부팅 드라이브를 만들고 설치를 모니터링할 컴퓨터가 있어야 합니다.

    참고

    ppc64le 플랫폼의 경우 호스트는 ISO를 준비해야 하지만 USB 부팅 드라이브를 생성할 필요는 없습니다. ISO는 PowerVM에 직접 마운트할 수 있습니다.

    참고

    IBM Z® 설치에는 ISO가 필요하지 않습니다.

  • CPU 아키텍처: 단일 노드에 OpenShift Container Platform을 설치하면 x86_64,arm64,ppc64les390x CPU 아키텍처가 지원됩니다.
  • 지원되는 플랫폼: 단일 노드에 OpenShift Container Platform 설치는 베어 메탈 및 인증된 타사 하이퍼바이저 에서 지원됩니다. 대부분의 경우 install-config.yaml 구성 파일에 platform.none: {} 매개 변수를 지정해야 합니다. 다음 목록은 install-config.yaml 구성 파일에 지정할 유일한 예외와 해당 매개변수를 보여줍니다.

    • platform=aws를 사용하는 AWS(Amazon Web Services)
    • platform=gcp를 사용하는 GCP(Google Cloud Platform)
    • platform=azure를 사용하는 Microsoft Azure
  • production-grade 서버: 단일 노드에 OpenShift Container Platform을 설치하려면 OpenShift Container Platform 서비스 및 프로덕션 워크로드를 실행하기에 충분한 리소스가 있는 서버가 필요합니다.

    표 1.1. 최소 리소스 요구사항
    프로필vCPU메모리스토리지

    최소

    8개의 vCPU

    16GB RAM

    120GB

    참고

    하나의 vCPU는 하나의 물리적 코어와 동일합니다. 그러나 동시 멀티스레딩(SMT) 또는 Hyper-Threading을 활성화하면 다음 공식을 사용하여 하나의 물리적 코어를 나타내는 vCPU 수를 계산합니다.

    • (threads per core × cores) × sockets = vCPUs
    • 설치 프로세스 중에 Operator를 추가하면 최소 리소스 요구 사항이 증가할 수 있습니다.

    가상 미디어를 사용하여 부팅할 때 서버에 BMC(Baseboard Management Controller)가 있어야 합니다.

    참고

    BMC는 IBM Z® 및 IBM Power®에서 지원되지 않습니다.

  • 네트워킹: 서버에 인터넷 액세스 권한이 있거나 라우팅 가능한 네트워크에 연결되지 않은 경우 로컬 레지스트리에 액세스해야 합니다. 서버에는 Kubernetes API, 인그레스 경로 및 클러스터 노드 도메인 이름에 대한 DHCP 예약 또는 고정 IP 주소가 있어야 합니다. 다음 FQDN(정규화된 도메인 이름)으로 IP 주소를 확인하도록 DNS를 구성해야 합니다.

    표 1.2. 필수 DNS 레코드
    사용법FQDN설명

    Kubernetes API

    api.<cluster_name>.<base_domain>

    DNS A/AAAA 또는 CNAME 레코드를 추가합니다. 이 레코드는 클러스터 외부의 클라이언트와 클러스터 내에서 확인할 수 있어야 합니다.

    내부 API

    api-int.<cluster_name>.<base_domain>

    ISO를 수동으로 생성할 때 DNS A/AAAA 또는 CNAME 레코드를 추가합니다. 이 레코드는 클러스터 내의 노드에서 확인할 수 있어야 합니다.

    Ingress 경로

    *.apps.<cluster_name>.<base_domain>

    노드를 대상으로 하는 와일드카드 DNS A/AAAA 또는 CNAME 레코드를 추가합니다. 이 레코드는 클러스터 외부의 클라이언트와 클러스터 내에서 확인할 수 있어야 합니다.

    중요

    영구 IP 주소가 없으면 apiserveretcd 간의 통신이 실패할 수 있습니다.

2장. 단일 노드에 OpenShift 설치

웹 기반 지원 설치 프로그램 또는 coreos-installer 툴을 사용하여 검색 ISO 이미지를 생성하여 단일 노드 OpenShift를 설치할 수 있습니다. 검색 ISO 이미지는 요구 사항에 맞게 단일 클러스터 노드를 실행할 수 있도록 RHCOS(Red Hat Enterprise Linux CoreOS) 시스템 구성을 대상 설치 디스크에 씁니다.

테스트, 문제 해결, 교육 또는 소규모 프로젝트 목적으로 리소스가 낮은 환경에서 클러스터를 실행하려는 경우 단일 노드 OpenShift를 사용하는 것이 좋습니다.

2.1. 지원 설치 관리자를 사용하여 단일 노드 OpenShift 설치

단일 노드에 OpenShift Container Platform을 설치하려면 웹 기반 지원 설치 프로그램 마법사를 사용하여 프로세스를 안내하고 설치를 관리합니다.

자세한 내용 및 구성 옵션은 OpenShift Container Platform 지원 설치 관리자 설명서를 참조하십시오.

2.1.1. 지원 설치 관리자를 사용하여 검색 ISO 생성

단일 노드에 OpenShift Container Platform을 설치하려면 지원 설치 프로그램에서 생성할 수 있는 검색 ISO가 필요합니다.

프로세스

  1. 관리 호스트에서 브라우저를 열고 Red Hat OpenShift Cluster Manager 로 이동합니다.
  2. Create New Cluster 를 클릭하여 새 클러스터를 생성합니다.
  3. Cluster name 필드에 클러스터 이름을 입력합니다.
  4. Base domain 필드에 기본 도메인을 입력합니다. 예를 들면 다음과 같습니다.

    example.com

    모든 DNS 레코드는 이 기본 도메인의 하위 도메인이어야 하며 클러스터 이름을 포함해야 합니다. 예를 들면 다음과 같습니다.

    <cluster_name>.example.com
    참고

    클러스터 설치 후에는 기본 도메인 또는 클러스터 이름을 변경할 수 없습니다.

  5. Install single node OpenShift (SNO) 를 선택하고 나머지 마법사 단계를 완료합니다. 검색 ISO를 다운로드합니다.
  6. 나머지 지원 설치 프로그램 마법사 단계를 완료합니다.

    중요

    가상 미디어를 사용하여 설치하기 위해 검색 ISO URL을 기록해 두어야 합니다.

    이 프로세스 중에 OpenShift Virtualization을 활성화하는 경우 가상 머신에 대해 50GiB 이상의 두 번째 로컬 스토리지 장치가 있어야 합니다.

2.1.2. 지원 설치 관리자를 사용하여 단일 노드 OpenShift 설치

지원 설치 관리자를 사용하여 단일 노드 클러스터를 설치합니다.

사전 요구 사항

  • 서버 BIOS 설정의 부팅 드라이브 순서가 대상 설치 디스크에서 서버를 부팅하도록 기본 설정되어 있는지 확인합니다.

프로세스

  1. 검색 ISO 이미지를 대상 호스트에 연결합니다.
  2. 검색 ISO 이미지에서 서버를 부팅합니다. 검색 ISO 이미지는 시스템 구성을 대상 설치 디스크에 작성하고 서버 재시작을 자동으로 트리거합니다.
  3. 관리 호스트에서 브라우저로 돌아갑니다. 검색된 호스트 목록에 호스트가 표시될 때까지 기다립니다. 필요한 경우 지원 클러스터 페이지를 다시 로드하고 클러스터 이름을 선택합니다.
  4. 설치 마법사 단계를 완료합니다. 사용 가능한 서브넷의 서브넷을 포함하여 네트워킹 세부 정보를 추가합니다. 필요한 경우 SSH 공개 키를 추가합니다.
  5. 설치 진행 상황을 모니터링합니다. 클러스터 이벤트를 확인합니다. 설치 프로세스가 서버의 하드 디스크에 운영 체제 이미지 쓰기를 완료하면 서버가 다시 시작됩니다.
  6. 선택 사항: 검색 ISO 이미지를 제거합니다.

    서버가 여러 번 자동으로 다시 시작하여 컨트롤 플레인을 배포합니다.

2.2. 수동으로 단일 노드 OpenShift 설치

단일 노드에 OpenShift Container Platform을 설치하려면 먼저 설치 ISO를 생성한 다음 ISO에서 서버를 부팅합니다. openshift-install 설치 프로그램을 사용하여 설치를 모니터링할 수 있습니다.

2.2.1. coreos-installer를 사용하여 설치 ISO 생성

단일 노드에 OpenShift Container Platform을 설치하려면 다음 절차를 통해 생성할 수 있는 설치 ISO가 필요합니다.

사전 요구 사항

  • podman을 설치합니다.
참고

DNS 레코드를 포함하여 네트워킹 요구 사항은 "단일 노드에 OpenShift를 설치하기 위한 요구 사항"을 참조하십시오.

프로세스

  1. OpenShift Container Platform 버전을 설정합니다.

    $ export OCP_VERSION=<ocp_version> 1
    1
    & lt;ocp_version& gt;을 현재 버전으로 바꿉니다(예: latest-4.15).
  2. 호스트 아키텍처를 설정합니다.

    $ export ARCH=<architecture> 1
    1
    & lt;architecture& gt;를 대상 호스트 아키텍처(예: aarch64 또는 x86_64 )로 바꿉니다.
  3. OpenShift Container Platform 클라이언트(oc)를 다운로드하여 다음 명령을 입력하여 사용할 수 있도록 합니다.

    $ curl -k https://mirror.openshift.com/pub/openshift-v4/clients/ocp/$OCP_VERSION/openshift-client-linux.tar.gz -o oc.tar.gz
    $ tar zxf oc.tar.gz
    $ chmod +x oc
  4. OpenShift Container Platform 설치 프로그램을 다운로드하고 다음 명령을 입력하여 사용할 수 있도록 합니다.

    $ curl -k https://mirror.openshift.com/pub/openshift-v4/clients/ocp/$OCP_VERSION/openshift-install-linux.tar.gz -o openshift-install-linux.tar.gz
    $ tar zxvf openshift-install-linux.tar.gz
    $ chmod +x openshift-install
  5. 다음 명령을 실행하여 RHCOS ISO URL을 검색합니다.

    $ export ISO_URL=$(./openshift-install coreos print-stream-json | grep location | grep $ARCH | grep iso | cut -d\" -f4)
  6. RHCOS ISO를 다운로드합니다.

    $ curl -L $ISO_URL -o rhcos-live.iso
  7. install-config.yaml 파일을 준비합니다.

    apiVersion: v1
    baseDomain: <domain> 1
    compute:
    - name: worker
      replicas: 0 2
    controlPlane:
      name: master
      replicas: 1 3
    metadata:
      name: <name> 4
    networking: 5
      clusterNetwork:
      - cidr: 10.128.0.0/14
        hostPrefix: 23
      machineNetwork:
      - cidr: 10.0.0.0/16 6
      networkType: OVNKubernetes
      serviceNetwork:
      - 172.30.0.0/16
    platform:
      none: {}
    bootstrapInPlace:
      installationDisk: /dev/disk/by-id/<disk_id> 7
    pullSecret: '<pull_secret>' 8
    sshKey: |
      <ssh_key> 9
    1
    클러스터 도메인 이름을 추가합니다.
    2
    compute 복제본을 0으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.
    3
    controlPlane 복제본을 1 로 설정합니다. 이 설정은 이전 compute 설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.
    4
    이름을 클러스터 이름으로 설정합니다.
    5
    네트워킹 세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.
    6
    단일 노드 OpenShift 클러스터의 서브넷과 일치하도록 cidr 값을 설정합니다.
    7
    설치 디스크 드라이브의 경로를 설정합니다(예: /dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c 2) .
    8
    Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
    9
    설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
  8. 다음 명령을 실행하여 OpenShift Container Platform 자산을 생성합니다.

    $ mkdir ocp
    $ cp install-config.yaml ocp
    $ ./openshift-install --dir=ocp create single-node-ignition-config
  9. 다음 명령을 실행하여 RHCOS ISO에 ignition 데이터를 삽입합니다.

    $ alias coreos-installer='podman run --privileged --pull always --rm \
            -v /dev:/dev -v /run/udev:/run/udev -v $PWD:/data \
            -w /data quay.io/coreos/coreos-installer:release'
    $ coreos-installer iso ignition embed -fi ocp/bootstrap-in-place-for-live-iso.ign rhcos-live.iso

2.2.2. openshift-install을 사용하여 클러스터 설치 모니터링

openshift-install 을 사용하여 단일 노드 클러스터 설치의 진행 상황을 모니터링합니다.

사전 요구 사항

  • 서버 BIOS 설정의 부팅 드라이브 순서가 대상 설치 디스크에서 서버를 부팅하도록 기본 설정되어 있는지 확인합니다.

프로세스

  1. 검색 ISO 이미지를 대상 호스트에 연결합니다.
  2. 검색 ISO 이미지에서 서버를 부팅합니다. 검색 ISO 이미지는 시스템 구성을 대상 설치 디스크에 작성하고 서버 재시작을 자동으로 트리거합니다.
  3. 관리 호스트에서 다음 명령을 실행하여 설치를 모니터링합니다.

    $ ./openshift-install --dir=ocp wait-for install-complete
  4. 선택 사항: 검색 ISO 이미지를 제거합니다.

    컨트롤 플레인을 배포하는 동안 서버가 여러 번 다시 시작됩니다.

검증

  • 설치가 완료되면 다음 명령을 실행하여 환경을 확인합니다.

    $ export KUBECONFIG=ocp/auth/kubeconfig
    $ oc get nodes

    출력 예

    NAME                         STATUS   ROLES           AGE     VERSION
    control-plane.example.com    Ready    master,worker   10m     v1.28.5

2.3. 클라우드 공급자에 단일 노드 OpenShift 설치

2.3.1. 클라우드 공급자에 단일 노드 OpenShift를 설치하기 위한 추가 요구 사항

클라우드 공급자에 대한 설치 관리자 프로비저닝 설치 문서는 세 개의 컨트롤 플레인 노드로 구성된 고가용성 클러스터를 기반으로 합니다. 설명서를 참조할 때 단일 노드 OpenShift 클러스터와 고가용성 클러스터의 요구 사항 간의 차이점을 고려하십시오.

  • 고가용성 클러스터에는 임시 부트스트랩 시스템, 컨트롤 플레인 시스템 세 개 및 컴퓨팅 시스템이 두 개 이상 필요합니다. 단일 노드 OpenShift 클러스터의 경우 컨트롤 플레인 노드에는 임시 부트스트랩 머신과 하나의 클라우드 인스턴스만 필요하며 컴퓨팅 노드는 없습니다.
  • 고가용성 클러스터 설치에 대한 최소 리소스 요구 사항에는 vCPU 4개와 스토리지 100GB가 있는 컨트롤 플레인 노드가 포함됩니다. 단일 노드 OpenShift 클러스터의 경우 최소 8개의 vCPU와 120GB의 스토리지가 있어야 합니다.
  • install-config.yaml 파일의 controlPlane.replicas 설정을 1 로 설정해야 합니다.
  • install-config.yaml 파일의 compute.replicas 설정은 0 으로 설정해야 합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.

2.3.2. 단일 노드 OpenShift에 지원되는 클라우드 공급자

다음 표에는 지원되는 클라우드 공급자 및 CPU 아키텍처 목록이 포함되어 있습니다.

표 2.1. 지원되는 클라우드 공급자
클라우드 공급자CPU 아키텍처

AWS(Amazon Web Service)

x86_64 및 AArch64

Microsoft Azure

x86_64

GCP(Google Cloud Platform)

x86_64 및 AArch64

2.3.3. AWS에 단일 노드 OpenShift 설치

AWS에 단일 노드 클러스터를 설치하려면 "사용자 지정이 있는 AWS에 클러스터 설치" 절차를 사용하여 설치 관리자 프로비저닝 설치가 필요합니다.

2.3.4. Azure에 단일 노드 OpenShift 설치

Azure에 단일 노드 클러스터를 설치하려면 "사용자 지정으로 클러스터 설치" 절차를 사용하여 설치 관리자 프로비저닝 설치가 필요합니다.

2.3.5. GCP에 단일 노드 OpenShift 설치

GCP에 단일 노드 클러스터를 설치하려면 "사용자 지정이 있는 GCP에 클러스터 설치" 절차를 사용하여 설치 관리자 프로비저닝 설치가 필요합니다.

2.4. USB 드라이브에 부팅 가능한 ISO 이미지 생성

ISO 이미지가 포함된 부팅 가능한 USB 드라이브를 사용하여 소프트웨어를 설치할 수 있습니다. USB 드라이브를 사용하여 서버를 부팅하면 소프트웨어 설치를 위한 서버가 준비됩니다.

프로세스

  1. 관리 호스트에서 USB 드라이브를 USB 포트에 삽입합니다.
  2. 부팅 가능한 USB 드라이브를 생성합니다. 예를 들면 다음과 같습니다.

    # dd if=<path_to_iso> of=<path_to_usb> status=progress

    다음과 같습니다.

    <path_to_iso>
    다운로드한 ISO 파일의 상대 경로입니다(예: rhcos-live.iso ).
    <path_to_usb>
    연결된 USB 드라이브의 위치입니다(예: /dev/sdb ).

    ISO가 USB 드라이브에 복사되면 USB 드라이브를 사용하여 서버에 소프트웨어를 설치할 수 있습니다.

2.5. Redfish API를 사용하여 HTTP 호스팅 ISO 이미지에서 부팅

Redfish BMC(Baseboard Management Controller) API를 사용하여 설치하는 ISO를 사용하여 네트워크에 호스트를 프로비저닝할 수 있습니다.

참고

이 예제 절차에서는 Dell 서버의 단계를 보여줍니다.

중요

하드웨어와 호환되는 최신 펌웨어 버전의 iDRAC가 있는지 확인하십시오. 하드웨어 또는 펌웨어에 문제가 있는 경우 공급자에게 문의해야 합니다.

사전 요구 사항

  • 설치 RHCOS(Red Hat Enterprise Linux CoreOS) ISO를 다운로드합니다.
  • iDRAC9와 호환되는 Dell PowerEdge 서버를 사용합니다.

프로세스

  1. 네트워크에서 액세스할 수 있는 HTTP 서버에 ISO 파일을 복사합니다.
  2. 호스트 ISO 파일에서 호스트를 부팅합니다. 예를 들면 다음과 같습니다.

    1. 다음 명령을 실행하여 Redfish API를 호출하여 호스팅된 ISO를 VirtualMedia 부팅 미디어로 설정합니다.

      $ curl -k -u <bmc_username>:<bmc_password> -d '{"Image":"<hosted_iso_file>", "Inserted": true}' -H "Content-Type: application/json" -X POST <host_bmc_address>/redfish/v1/Managers/iDRAC.Embedded.1/VirtualMedia/CD/Actions/VirtualMedia.InsertMedia

      다음과 같습니다.

      <bmc_username>:<bmc_password>
      대상 호스트 BMC의 사용자 이름과 암호입니다.
      <hosted_iso_file>
      호스팅된 설치 ISO의 URL입니다(예: http://webserver.example.com/rhcos-live-minimal.iso ). 대상 호스트 시스템에서 ISO에 액세스할 수 있어야 합니다.
      <host_bmc_address>
      대상 호스트 시스템의 BMC IP 주소입니다.
    2. 다음 명령을 실행하여 VirtualMedia 장치에서 부팅되도록 호스트를 설정합니다.

      $ curl -k -u <bmc_username>:<bmc_password> -X PATCH -H 'Content-Type: application/json' -d '{"Boot": {"BootSourceOverrideTarget": "Cd", "BootSourceOverrideMode": "UEFI", "BootSourceOverrideEnabled": "Once"}}' <host_bmc_address>/redfish/v1/Systems/System.Embedded.1
    3. 호스트를 재부팅합니다.

      $ curl -k -u <bmc_username>:<bmc_password> -d '{"ResetType": "ForceRestart"}' -H 'Content-type: application/json' -X POST <host_bmc_address>/redfish/v1/Systems/System.Embedded.1/Actions/ComputerSystem.Reset
    4. 선택 사항: 호스트의 전원이 꺼지면 {"ResetType": "On"} 스위치를 사용하여 부팅할 수 있습니다. 다음 명령을 실행합니다.

      $ curl -k -u <bmc_username>:<bmc_password> -d '{"ResetType": "On"}' -H 'Content-type: application/json' -X POST <host_bmc_address>/redfish/v1/Systems/System.Embedded.1/Actions/ComputerSystem.Reset

2.6. 원격 서버 액세스를 위한 사용자 정의 라이브 RHCOS ISO 생성

외부 디스크 드라이브를 서버에 연결할 수 없지만 노드를 프로비저닝하려면 원격으로 서버에 액세스해야 하는 경우도 있습니다. 서버에 대한 SSH 액세스를 활성화하는 것이 좋습니다. 부팅 후 서버에 액세스할 수 있도록 SSHd가 활성화되고 사전 정의된 인증 정보를 사용하여 라이브 RHCOS ISO를 생성할 수 있습니다.

사전 요구 사항

  • butane 유틸리티를 설치했습니다.

프로세스

  1. coreos-installer 이미지 미러 페이지에서 coreos-installer 바이너리를 다운로드합니다.
  2. mirror.openshift.com 에서 최신 라이브 RHCOS ISO를 다운로드합니다.
  3. butane 유틸리티에서 Ignition 파일을 생성하는 데 사용하는 embedded.yaml 파일을 생성합니다.

    variant: openshift
    version: 4.15.0
    metadata:
      name: sshd
      labels:
        machineconfiguration.openshift.io/role: worker
    passwd:
      users:
        - name: core 1
          ssh_authorized_keys:
            - '<ssh_key>'
    1
    core 사용자에게는 sudo 권한이 있습니다.
  4. 다음 명령을 사용하여 Ignition 파일을 생성하려면 butane 유틸리티를 실행합니다.

    $ butane -pr embedded.yaml -o embedded.ign
  5. Ignition 파일이 생성되면 coreos-installer 유틸리티를 사용하여 rhcos-sshd-4.15.0-x86_64-live.x86_64.iso 라는 새 라이브 RHCOS ISO에 구성을 포함할 수 있습니다.

    $ coreos-installer iso ignition embed -i embedded.ign rhcos-4.15.0-x86_64-live.x86_64.iso -o rhcos-sshd-4.15.0-x86_64-live.x86_64.iso

검증

  • 다음 명령을 실행하여 사용자 정의 라이브 ISO를 사용하여 서버를 부팅할 수 있는지 확인합니다.

    # coreos-installer iso ignition show rhcos-sshd-4.15.0-x86_64-live.x86_64.iso

    출력 예

    {
      "ignition": {
        "version": "3.2.0"
      },
      "passwd": {
        "users": [
          {
            "name": "core",
            "sshAuthorizedKeys": [
              "ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQCZnG8AIzlDAhpyENpK2qKiTT8EbRWOrz7NXjRzopbPu215mocaJgjjwJjh1cYhgPhpAp6M/ttTk7I4OI7g4588Apx4bwJep6oWTU35LkY8ZxkGVPAJL8kVlTdKQviDv3XX12l4QfnDom4tm4gVbRH0gNT1wzhnLP+LKYm2Ohr9D7p9NBnAdro6k++XWgkDeijLRUTwdEyWunIdW1f8G0Mg8Y1Xzr13BUo3+8aey7HLKJMDtobkz/C8ESYA/f7HJc5FxF0XbapWWovSSDJrr9OmlL9f4TfE+cQk3s+eoKiz2bgNPRgEEwihVbGsCN4grA+RzLCAOpec+2dTJrQvFqsD alosadag@sonnelicht.local"
            ]
          }
        ]
      }
    }

2.7. IBM Z 및 IBM LinuxONE을 사용하여 단일 노드 OpenShift 설치

IBM Z® 및 IBM® LinuxONE에 단일 노드 클러스터를 설치하려면 "IBM Z® 및 IBM® LinuxONE에 RHEL KVM으로 클러스터 설치" 또는 "IBM Z® 및 IBM® LinuxONE에 z/VM으로 클러스터 설치" 프로세스를 사용하여 사용자 프로비저닝 설치가 필요합니다.

참고

IBM Z®에 단일 노드 클러스터를 설치하면 개발 및 테스트 환경을 위한 설치가 간소화되며 진입점 수준에서 리소스 요구 사항이 줄어듭니다.

하드웨어 요구 사항
  • 각 클러스터에 대해 SMT2가 활성화된 Linux(IFL)의 두 가지 통합에 해당합니다.
  • 둘 다 LoadBalancer 서비스에 연결하고 클러스터 외부의 트래픽에 대한 데이터를 제공하는 하나 이상의 네트워크 연결입니다.
참고

전용 또는 공유 IFL을 사용하여 충분한 컴퓨팅 리소스를 할당할 수 있습니다. 리소스 공유는 IBM Z®의 주요 강점 중 하나입니다. 그러나 각 하이퍼바이저 계층에서 용량을 올바르게 조정하고 모든 OpenShift Container Platform 클러스터에 충분한 리소스를 확보해야 합니다.

2.7.1. IBM Z 및 IBM LinuxONE에 z/VM으로 단일 노드 OpenShift 설치

사전 요구 사항

  • podman 을 설치했습니다.

프로세스

  1. 다음 명령을 실행하여 OpenShift Container Platform 버전을 설정합니다.

    $ OCP_VERSION=<ocp_version> 1
    1
    & lt;ocp_version& gt;을 현재 버전으로 바꿉니다(예: latest-4.15).
  2. 다음 명령을 실행하여 호스트 아키텍처를 설정합니다.

    $ ARCH=<architecture> 1
    1
    &lt ;architecture& gt;를 대상 호스트 아키텍처 s390x 로 바꿉니다.
  3. OpenShift Container Platform 클라이언트(oc)를 다운로드하여 다음 명령을 입력하여 사용할 수 있도록 합니다.

    $ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-client-linux.tar.gz -o oc.tar.gz
    $ tar zxf oc.tar.gz
    $ chmod +x oc
  4. OpenShift Container Platform 설치 프로그램을 다운로드하고 다음 명령을 입력하여 사용할 수 있도록 합니다.

    $ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-install-linux.tar.gz -o openshift-install-linux.tar.gz
    $ tar zxvf openshift-install-linux.tar.gz
    $ chmod +x openshift-install
  5. install-config.yaml 파일을 준비합니다.

    apiVersion: v1
    baseDomain: <domain> 1
    compute:
    - name: worker
      replicas: 0 2
    controlPlane:
      name: master
      replicas: 1 3
    metadata:
      name: <name> 4
    networking: 5
      clusterNetwork:
      - cidr: 10.128.0.0/14
        hostPrefix: 23
      machineNetwork:
      - cidr: 10.0.0.0/16 6
      networkType: OVNKubernetes
      serviceNetwork:
      - 172.30.0.0/16
    platform:
      none: {}
    bootstrapInPlace:
      installationDisk: /dev/disk/by-id/<disk_id> 7
    pullSecret: '<pull_secret>' 8
    sshKey: |
      <ssh_key> 9
    1
    클러스터 도메인 이름을 추가합니다.
    2
    compute 복제본을 0으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.
    3
    controlPlane 복제본을 1 로 설정합니다. 이 설정은 이전 compute 설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.
    4
    이름을 클러스터 이름으로 설정합니다.
    5
    네트워킹 세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.
    6
    단일 노드 OpenShift 클러스터의 서브넷과 일치하도록 cidr 값을 설정합니다.
    7
    설치 디스크 드라이브의 경로를 설정합니다(예: /dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c 2) .
    8
    Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
    9
    설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
  6. 다음 명령을 실행하여 OpenShift Container Platform 자산을 생성합니다.

    $ mkdir ocp
    $ cp install-config.yaml ocp
    $ ./openshift-install --dir=ocp create single-node-ignition-config
  7. Red Hat 고객 포털의 제품 다운로드 페이지 또는 RHCOS 이미지 미러 페이지에서 RHEL 커널,initramfsrootfs 아티팩트를 가져옵니다.

    중요

    RHCOS 이미지는 OpenShift Container Platform 릴리스에 따라 변경되지 않을 수 있습니다. 설치하는 OpenShift Container Platform 버전과 같거나 그 이하의 버전 중 가장 최신 버전의 이미지를 다운로드해야 합니다. 다음 절차에 설명된 적절한 커널,initramfsrootfs 아티팩트만 사용하십시오.

    OpenShift Container Platform 버전 번호가 파일 이름에 포함됩니다. 다음 예와 유사합니다.

    kernel
    rhcos-<version>-live-kernel-<architecture>
    initramfs
    rhcos-<version>-live-initramfs.<architecture>.img
    rootfs

    rhcos-<version>-live-rootfs.<architecture>.img

    참고

    rootfs 이미지는 FCP 및 DASD에 대해 동일합니다.

  8. 다음 아티팩트 및 파일을 HTTP 또는 HTTPS 서버로 이동합니다.

    • 다운로드된 RHEL 라이브 커널,initramfs, rootfs 아티팩트
    • Ignition 파일
  9. 특정 가상 머신에 대한 매개변수 파일을 생성합니다.

    매개변수 파일 예

    rd.neednet=1 \
    console=ttysclp0 \
    coreos.live.rootfs_url=<rhcos_liveos>:8080/rootfs.img \1
    ignition.firstboot ignition.platform.id=metal \
    ignition.config.url=<rhcos_ign>:8080/ignition/bootstrap-in-place-for-live-iso.ign \2
    ip=encbdd0:dhcp::02:00:00:02:34:02 3
    rd.znet=qeth,0.0.bdd0,0.0.bdd1,0.0.bdd2,layer2=1 \
    rd.dasd=0.0.4411 \4
    rd.zfcp=0.0.8001,0x50050763040051e3,0x4000406300000000 \5
    zfcp.allow_lun_scan=0 \
    rd.luks.options=discard

    1
    coreos.live.rootfs_url= 아티팩트의 경우 부팅 중인 커널 및 'initramfs와 일치하는 rootfs 아티팩트를 지정합니다. HTTP 및 HTTPS 프로토콜만 지원됩니다.
    2
    ignition.config.url= 매개변수의 경우 머신 역할의 Ignition 파일을 지정합니다. HTTP 및 HTTPS 프로토콜만 지원됩니다.
    3
    ip= 매개변수의 경우 DHCP를 사용하거나 "IBM Z® 및 IBM® LinuxONE에 z/VM으로 클러스터 설치"에 설명된 대로 IP 주소를 자동으로 할당합니다.
    4
    DASD 유형 디스크에 설치하는 경우 rd.dasd= 를 사용하여 RHCOS를 설치할 DASD를 지정합니다. FCP 유형 디스크에 대해 이 항목을 생략합니다.
    5
    FCP 유형 디스크에 설치하려면 rd.zfcp=<adapter>,<wwpn>,<lun >을 사용하여 RHCOS를 설치할 FCP 디스크를 지정합니다. DASD 유형 디스크에 이 항목을 생략합니다.

    변경되지 않은 다른 모든 매개변수는 그대로 두십시오.

  10. 다음 아티팩트, 파일 및 이미지를 z/VM으로 전송합니다. 예를 들어 FTP를 사용합니다.

    • kernelinitramfs 아티팩트
    • 매개변수 파일
    • RHCOS 이미지

      FTP를 사용하여 파일을 전송하고 가상 리더에서 부팅하는 방법에 대한 자세한 내용은 Z/VM에서 설치를 참조하십시오.

  11. 부트스트랩 노드가 될 z/VM 게스트 가상 머신의 가상 리더에 파일 punch를 실행합니다.
  12. 부트스트랩 시스템에서 CMS에 로그인합니다.
  13. 다음 명령을 실행하여 리더의 부트스트랩 시스템을 IPL합니다.

    $ cp ipl c
  14. 가상 머신을 처음 재부팅한 후 서로 직접 다음 명령을 실행합니다.

    1. 처음 재부팅한 후 DASD 장치를 부팅하려면 다음 명령을 실행합니다.

      $ cp i <devno> clear loadparm prompt

      다음과 같습니다.

      <devno>
      게스트에 표시된 대로 부팅 장치의 장치 번호를 지정합니다.
      $ cp vi vmsg 0 <kernel_parameters>

      다음과 같습니다.

      <kernel_parameters>
      시스템 제어 프로그램 데이터(SCPDATA)로 저장할 커널 매개 변수 집합을 지정합니다. Linux를 부팅할 때 이러한 커널 매개변수는 부팅 구성에서 사용하는 기존 커널 매개변수의 끝에 연결됩니다. 결합된 매개변수 문자열은 896자를 초과해서는 안 됩니다.
    2. 처음 재부팅한 후 FCP 장치를 부팅하려면 다음 명령을 실행합니다.

      $ cp set loaddev portname <wwpn> lun <lun>

      다음과 같습니다.

      <wwpn>
      대상 포트 및 < lun>을 16진수 형식으로 논리 단위를 지정합니다.
      $ cp set loaddev bootprog <n>

      다음과 같습니다.

      <n>
      부팅할 커널을 지정합니다.
      $ cp set loaddev scpdata {APPEND|NEW} '<kernel_parameters>'

      다음과 같습니다.

      <kernel_parameters>
      시스템 제어 프로그램 데이터(SCPDATA)로 저장할 커널 매개 변수 집합을 지정합니다. Linux를 부팅할 때 이러한 커널 매개변수는 부팅 구성에서 사용하는 기존 커널 매개변수의 끝에 연결됩니다. 결합된 매개변수 문자열은 896자를 초과해서는 안 됩니다.
      <APPEND|NEW>
      선택 사항: APPEND 를 지정하여 기존 SCPDATA에 커널 매개 변수를 추가합니다. 이는 기본값입니다. 기존 SCPDATA를 교체하려면 NEW 를 지정합니다.

      예제

      $ cp set loaddev scpdata 'rd.zfcp=0.0.8001,0x500507630a0350a4,0x4000409D00000000
      ip=encbdd0:dhcp::02:00:00:02:34:02 rd.neednet=1'

      IPL 및 부팅 프로세스를 시작하려면 다음 명령을 실행합니다.

      $ cp i <devno>

      다음과 같습니다.

      <devno>
      게스트에 표시된 대로 부팅 장치의 장치 번호를 지정합니다.

2.7.2. IBM Z 및 IBM LinuxONE에 RHEL KVM으로 단일 노드 OpenShift 설치

사전 요구 사항

  • podman 을 설치했습니다.

프로세스

  1. 다음 명령을 실행하여 OpenShift Container Platform 버전을 설정합니다.

    $ OCP_VERSION=<ocp_version> 1
    1
    & lt;ocp_version& gt;을 현재 버전으로 바꿉니다(예: latest-4.15).
  2. 다음 명령을 실행하여 호스트 아키텍처를 설정합니다.

    $ ARCH=<architecture> 1
    1
    &lt ;architecture& gt;를 대상 호스트 아키텍처 s390x 로 바꿉니다.
  3. OpenShift Container Platform 클라이언트(oc)를 다운로드하여 다음 명령을 입력하여 사용할 수 있도록 합니다.

    $ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-client-linux.tar.gz -o oc.tar.gz
    $ tar zxf oc.tar.gz
    $ chmod +x oc
  4. OpenShift Container Platform 설치 프로그램을 다운로드하고 다음 명령을 입력하여 사용할 수 있도록 합니다.

    $ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-install-linux.tar.gz -o openshift-install-linux.tar.gz
    $ tar zxvf openshift-install-linux.tar.gz
    $ chmod +x openshift-install
  5. install-config.yaml 파일을 준비합니다.

    apiVersion: v1
    baseDomain: <domain> 1
    compute:
    - name: worker
      replicas: 0 2
    controlPlane:
      name: master
      replicas: 1 3
    metadata:
      name: <name> 4
    networking: 5
      clusterNetwork:
      - cidr: 10.128.0.0/14
        hostPrefix: 23
      machineNetwork:
      - cidr: 10.0.0.0/16 6
      networkType: OVNKubernetes
      serviceNetwork:
      - 172.30.0.0/16
    platform:
      none: {}
    bootstrapInPlace:
      installationDisk: /dev/disk/by-id/<disk_id> 7
    pullSecret: '<pull_secret>' 8
    sshKey: |
      <ssh_key> 9
    1
    클러스터 도메인 이름을 추가합니다.
    2
    compute 복제본을 0으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.
    3
    controlPlane 복제본을 1 로 설정합니다. 이 설정은 이전 compute 설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.
    4
    이름을 클러스터 이름으로 설정합니다.
    5
    네트워킹 세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.
    6
    단일 노드 OpenShift 클러스터의 서브넷과 일치하도록 cidr 값을 설정합니다.
    7
    설치 디스크 드라이브의 경로를 설정합니다(예: /dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c 2) .
    8
    Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
    9
    설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
  6. 다음 명령을 실행하여 OpenShift Container Platform 자산을 생성합니다.

    $ mkdir ocp
    $ cp install-config.yaml ocp
    $ ./openshift-install --dir=ocp create single-node-ignition-config
  7. Red Hat 고객 포털의 제품 다운로드 페이지 또는 RHCOS 이미지 미러 페이지에서 RHEL 커널,initramfsrootfs 아티팩트를 가져옵니다.

    중요

    RHCOS 이미지는 OpenShift Container Platform 릴리스에 따라 변경되지 않을 수 있습니다. 설치하는 OpenShift Container Platform 버전과 같거나 그 이하의 버전 중 가장 최신 버전의 이미지를 다운로드해야 합니다. 다음 절차에 설명된 적절한 커널,initramfsrootfs 아티팩트만 사용하십시오.

    OpenShift Container Platform 버전 번호가 파일 이름에 포함됩니다. 다음 예와 유사합니다.

    kernel
    rhcos-<version>-live-kernel-<architecture>
    initramfs
    rhcos-<version>-live-initramfs.<architecture>.img
    rootfs
    rhcos-<version>-live-rootfs.<architecture>.img
  8. virt-install 을 시작하기 전에 다음 파일 및 아티팩트를 HTTP 또는 HTTPS 서버로 이동합니다.

    • 다운로드된 RHEL 라이브 커널,initramfs, rootfs 아티팩트
    • Ignition 파일
  9. 다음 구성 요소를 사용하여 KVM 게스트 노드를 생성합니다.

    • RHEL 커널initramfs 아티팩트
    • Ignition 파일
    • 새 디스크 이미지
    • 수정된 매개변수 인수
$ virt-install \
   --name <vm_name> \
   --autostart \
   --memory=<memory_mb> \
   --cpu host \
   --vcpus <vcpus> \
   --location <media_location>,kernel=<rhcos_kernel>,initrd=<rhcos_initrd> \1
   --disk size=100 \
   --network network=<virt_network_parm> \
   --graphics none \
   --noautoconsole \
   --extra-args "ip=<ip>::<gateway>:<mask>:<hostname>::none" \
   --extra-args "nameserver=<name_server>" \
   --extra-args "ip=dhcp rd.neednet=1 ignition.platform.id=metal ignition.firstboot" \
   --extra-args "coreos.live.rootfs_url=<rhcos_liveos>" \2
   --extra-args "ignition.config.url=<rhcos_ign>" \3
   --extra-args "random.trust_cpu=on rd.luks.options=discard" \
   --extra-args "console=ttysclp0" \
   --wait
1
--location 매개변수의 경우 HTTP 또는 HTTPS 서버의 kernel/initrd 위치를 지정합니다.
2
coreos.live.rootfs_url= 아티팩트의 경우 부팅 중인 커널initramfs 와 일치하는 rootfs 아티팩트를 지정합니다. HTTP 및 HTTPS 프로토콜만 지원됩니다.
3
ignition.config.url= 매개변수의 경우 머신 역할의 Ignition 파일을 지정합니다. HTTP 및 HTTPS 프로토콜만 지원됩니다.

2.8. IBM Power로 단일 노드 OpenShift 설치

IBM Power®에 단일 노드 클러스터를 설치하려면 "IBM Power®로 클러스터 설치" 프로세스를 사용하여 사용자가 프로비저닝해야 합니다.

참고

IBM Power®에 단일 노드 클러스터를 설치하면 개발 및 테스트 환경을 위한 설치가 간소화되며 진입점 수준에서 리소스 요구 사항이 줄어듭니다.

하드웨어 요구 사항
  • 각 클러스터에 대해 SMT2가 활성화된 Linux(IFL)의 두 가지 통합에 해당합니다.
  • LoadBalancer 서비스에 연결하고 클러스터 외부의 트래픽에 대한 데이터를 제공하는 하나 이상의 네트워크 연결입니다.
참고

전용 또는 공유 IFL을 사용하여 충분한 컴퓨팅 리소스를 할당할 수 있습니다. 리소스 공유는 IBM Power®의 주요 강점 중 하나입니다. 그러나 각 하이퍼바이저 계층에서 용량을 올바르게 조정하고 모든 OpenShift Container Platform 클러스터에 충분한 리소스를 확보해야 합니다.

2.8.1. IBM Power를 사용하여 단일 노드 OpenShift에 대한 기준 설정

IBM Power®에 단일 노드 OpenShift를 설치하기 전에 bastion을 설정해야 합니다. IBM Power®에서 단일 노드 OpenShift에 대한 bastion 서버를 설정하려면 다음 서비스의 구성이 필요합니다.

  • PXE는 단일 노드 OpenShift 클러스터 설치에 사용됩니다. PXE를 사용하려면 다음 서비스를 구성하고 실행해야 합니다.

    • api, api-int 및 *.apps를 정의하는 DNS
    • PXE를 활성화하고 단일 노드 OpenShift 노드에 IP 주소를 할당하는 DHCP 서비스
    • ignition 및 RHCOS rootfs 이미지를 제공하는 HTTP
    • PXE를 활성화하는 TFTP
  • HTTP에 대한 DNS, DHCP 및 PXE, httpd를 지원하려면 dnsmasq 를 설치해야 합니다.

다음 절차를 사용하여 이러한 요구 사항을 충족하는 bastion 서버를 구성합니다.

프로세스

  1. 다음 명령을 사용하여 PowerVM에 대해 PXE를 활성화하는 데 필요한 grub2 를 설치합니다.

    grub2-mknetdir --net-directory=/var/lib/tftpboot

    /var/lib/tftpboot/boot/grub2/grub.cfg 파일의 예

    default=0
    fallback=1
    timeout=1
    if [ ${net_default_mac} == fa:b0:45:27:43:20 ]; then
    menuentry "CoreOS (BIOS)" {
       echo "Loading kernel"
       linux "/rhcos/kernel" ip=dhcp rd.neednet=1 ignition.platform.id=metal ignition.firstboot coreos.live.rootfs_url=http://192.168.10.5:8000/install/rootfs.img ignition.config.url=http://192.168.10.5:8000/ignition/sno.ign
       echo "Loading initrd"
       initrd  "/rhcos/initramfs.img"
    }
    fi

  2. 다음 명령을 사용하여 PXE용 미러 저장소에서 RHCOS 이미지 파일을 다운로드합니다.

    1. 다음 명령을 입력하여 RHCOS_URL 변수를 다음 4.12 URL을 할당합니다.

      $ export RHCOS_URL=https://mirror.openshift.com/pub/openshift-v4/ppc64le/dependencies/rhcos/4.12/latest/
    2. 다음 명령을 입력하여 /var/lib/tftpboot/rhcos 디렉터리로 이동합니다.

      $ cd /var/lib/tftpboot/rhcos
    3. 다음 명령을 입력하여 RHCOS_URL 변수에 저장된 URL에서 지정된 RHCOS 커널 파일을 다운로드합니다.

      $ wget ${RHCOS_URL}/rhcos-live-kernel-ppc64le -o kernel
    4. 다음 명령을 입력하여 RHCOS_URL 변수에 저장된 URL에서 RHCOS initramfs 파일을 다운로드합니다.

      $ wget ${RHCOS_URL}/rhcos-live-initramfs.ppc64le.img -o initramfs.img
    5. 다음 명령을 입력하여 /var//var/www/html/install/ 디렉터리로 이동합니다.

      $ cd /var//var/www/html/install/
    6. 다음 명령을 입력하여 RHCOS_URL 변수에 저장된 URL에서 RHCOS 루트 파일 시스템 이미지 파일을 다운로드하여 저장합니다.

      $ wget ${RHCOS_URL}/rhcos-live-rootfs.ppc64le.img -o rootfs.img
  3. 단일 노드 OpenShift 클러스터에 대한 ignition 파일을 생성하려면 install-config.yaml 파일을 생성해야 합니다.

    1. 다음 명령을 입력하여 파일이 포함된 작업 디렉터리를 생성합니다.

      $ mkdir -p ~/sno-work
    2. 다음 명령을 입력하여 ~/sno-work 디렉터리로 이동합니다.

      $ cd ~/sno-work
    3. 다음 샘플 파일을 사용하여 ~/sno-work 디렉터리에 필요한 install-config.yaml 을 생성할 수 있습니다.

      apiVersion: v1
      baseDomain: <domain> 1
      compute:
      - name: worker
        replicas: 0 2
      controlPlane:
        name: master
        replicas: 1 3
      metadata:
        name: <name> 4
      networking: 5
        clusterNetwork:
        - cidr: 10.128.0.0/14
          hostPrefix: 23
        machineNetwork:
        - cidr: 10.0.0.0/16 6
        networkType: OVNKubernetes
        serviceNetwork:
        - 172.30.0.0/16
      platform:
        none: {}
      bootstrapInPlace:
        installationDisk: /dev/disk/by-id/<disk_id> 7
      pullSecret: '<pull_secret>' 8
      sshKey: |
        <ssh_key> 9
      1
      클러스터 도메인 이름을 추가합니다.
      2
      compute 복제본을 0으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.
      3
      controlPlane 복제본을 1 로 설정합니다. 이 설정은 이전 compute 설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.
      4
      이름을 클러스터 이름으로 설정합니다.
      5
      네트워킹 세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.
      6
      단일 노드 OpenShift 클러스터의 서브넷과 일치하도록 cidr 값을 설정합니다.
      7
      설치 디스크 드라이브의 경로를 설정합니다(예: /dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c 2) .
      8
      Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
      9
      설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
  4. openshift-install 이미지를 다운로드하여 Ignition 파일을 생성하여 http 디렉터리에 복사합니다.

    1. 다음 명령을 입력하여 openshift-install-linux-4.12.0 .tar 파일을 다운로드합니다.

      $ wget https://mirror.openshift.com/pub/openshift-v4/ppc64le/clients/ocp/4.12.0/openshift-install-linux-4.12.0.tar.gz
    2. 다음 명령을 입력하여 openshift-install-linux-4.12.0.tar.gz 아카이브의 압축을 풉니다.

      $ tar xzvf openshift-install-linux-4.12.0.tar.gz
    3. 다음 명령을 입력합니다.

      $ ./openshift-install --dir=~/sno-work create create single-node-ignition-config
    4. 다음 명령을 입력하여 Ignition 파일을 생성합니다.

      $ cp ~/sno-work/single-node-ignition-config.ign /var/www/html/ignition/sno.ign
    5. 다음 명령을 입력하여 /var/www/html 디렉터리에 대한 SELinux 파일을 복원합니다.

      $ restorecon -vR /var/www/html || true

      이제 bastion에 필요한 모든 파일이 있으며 단일 노드 OpenShift를 설치하기 위해 올바르게 구성됩니다.

2.8.2. IBM Power로 단일 노드 OpenShift 설치

사전 요구 사항

  • bastion을 설정했습니다.

프로세스

단일 노드 OpenShift 클러스터 설치에는 두 가지 단계가 있습니다. 먼저 단일 노드 OpenShift 논리 파티션(LPAR)은 PXE로 부팅한 다음 설치 진행 상황을 모니터링해야 합니다.

  1. 다음 명령을 사용하여 netboot로 powerVM을 부팅합니다.

    $ lpar_netboot -i -D -f -t ent -m <sno_mac> -s auto -d auto -S <server_ip> -C <sno_ip> -G <gateway> <lpar_name> default_profile <cec_name>

    다음과 같습니다.

    sno_mac
    단일 노드 OpenShift 클러스터의 MAC 주소를 지정합니다.
    sno_ip
    단일 노드 OpenShift 클러스터의 IP 주소를 지정합니다.
    server_ip
    bastion(PXE 서버)의 IP 주소를 지정합니다.
    gateway
    네트워크의 게이트웨이 IP를 지정합니다.
    lpar_name
    HMC에서 단일 노드 OpenShift lpar 이름을 지정합니다.
    cec_name
    sno_lpar이 있는 시스템 이름을 지정합니다.
  2. 단일 노드 OpenShift LPAR이 PXE로 부팅된 후 openshift-install 명령을 사용하여 설치 진행 상황을 모니터링합니다.

    1. 부트스트랩이 완료된 후 다음 명령을 실행합니다.

      ./openshift-install wait-for bootstrap-complete
    2. 성공적으로 반환된 후 다음 명령을 실행합니다.

      ./openshift-install wait-for install-complete

Legal Notice

Copyright © 2024 Red Hat, Inc.

OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).

Modified versions must remove all Red Hat trademarks.

Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.

Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.

Linux® is the registered trademark of Linus Torvalds in the United States and other countries.

Java® is a registered trademark of Oracle and/or its affiliates.

XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.

MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.

Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.

The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

All other trademarks are the property of their respective owners.

Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.