단일 노드에 설치
단일 노드에 OpenShift Container Platform 설치
초록
1장. 단일 노드에 설치할 준비
1.1. 사전 요구 사항
- OpenShift Container Platform 설치 및 업데이트 프로세스에 대한 세부 사항을 검토했습니다.
- 클러스터 설치 방법 선택 및 사용자를 위한 준비에 대한 문서를 읽습니다.
1.2. 단일 노드의 OpenShift 정보
표준 설치 방법을 사용하여 단일 노드 클러스터를 생성할 수 있습니다. 단일 노드의 OpenShift Container Platform은 특수 Ignition 구성 파일을 생성해야 하는 특수 설치입니다. 주요 사용 사례는 간헐적인 연결, 이식 가능한 클라우드, 베이스 스테이션과 가까운 5G 무선 액세스 네트워크(RAN)를 포함하여 엣지 컴퓨팅 워크로드의 경우입니다. 단일 노드에 설치가 있는 주요 절충은 고가용성이 없다는 것입니다.
단일 노드 OpenShift에서 OpenShiftSDN을 사용하는 것은 지원되지 않습니다. OVN-Kubernetes는 단일 노드 OpenShift 배포의 기본 네트워크 플러그인입니다.
1.3. 단일 노드에 OpenShift를 설치하기 위한 요구사항
단일 노드에 OpenShift Container Platform을 설치하면 고가용성 및 대규모 클러스터에 대한 일부 요구 사항이 완화됩니다. 그러나 다음 요구 사항을 충족해야 합니다.
관리 호스트: ISO를 준비하고 USB 부팅 드라이브를 만들고 설치를 모니터링할 컴퓨터가 있어야 합니다.
참고ppc64le
플랫폼의 경우 호스트는 ISO를 준비해야 하지만 USB 부팅 드라이브를 생성할 필요는 없습니다. ISO는 PowerVM에 직접 마운트할 수 있습니다.참고IBM Z® 설치에는 ISO가 필요하지 않습니다.
-
CPU 아키텍처: 단일 노드에 OpenShift Container Platform을 설치하면
x86_64
,arm64
,ppc64le
및s390x
CPU 아키텍처가 지원됩니다. 지원되는 플랫폼: 단일 노드에 OpenShift Container Platform 설치는 베어 메탈 및 인증된 타사 하이퍼바이저 에서 지원됩니다. 대부분의 경우
install-config.yaml
구성 파일에platform.none: {}
매개 변수를 지정해야 합니다. 다음 목록은install-config.yaml
구성 파일에 지정할 유일한 예외와 해당 매개변수를 보여줍니다.-
platform=aws
를 사용하는 AWS(Amazon Web Services) -
platform=gcp
를 사용하는 GCP(Google Cloud Platform) -
platform=azure
를 사용하는 Microsoft Azure
-
production-grade 서버: 단일 노드에 OpenShift Container Platform을 설치하려면 OpenShift Container Platform 서비스 및 프로덕션 워크로드를 실행하기에 충분한 리소스가 있는 서버가 필요합니다.
표 1.1. 최소 리소스 요구사항 프로필 vCPU 메모리 스토리지 최소
8개의 vCPU
16GB RAM
120GB
참고하나의 vCPU는 하나의 물리적 코어와 동일합니다. 그러나 동시 멀티스레딩(SMT) 또는 Hyper-Threading을 활성화하면 다음 공식을 사용하여 하나의 물리적 코어를 나타내는 vCPU 수를 계산합니다.
- (threads per core × cores) × sockets = vCPUs
- 설치 프로세스 중에 Operator를 추가하면 최소 리소스 요구 사항이 증가할 수 있습니다.
가상 미디어를 사용하여 부팅할 때 서버에 BMC(Baseboard Management Controller)가 있어야 합니다.
참고BMC는 IBM Z® 및 IBM Power®에서 지원되지 않습니다.
네트워킹: 서버에 인터넷 액세스 권한이 있거나 라우팅 가능한 네트워크에 연결되지 않은 경우 로컬 레지스트리에 액세스해야 합니다. 서버에는 Kubernetes API, 인그레스 경로 및 클러스터 노드 도메인 이름에 대한 DHCP 예약 또는 고정 IP 주소가 있어야 합니다. 다음 FQDN(정규화된 도메인 이름)으로 IP 주소를 확인하도록 DNS를 구성해야 합니다.
표 1.2. 필수 DNS 레코드 사용법 FQDN 설명 Kubernetes API
api.<cluster_name>.<base_domain>
DNS A/AAAA 또는 CNAME 레코드를 추가합니다. 이 레코드는 클러스터 외부의 클라이언트와 클러스터 내에서 확인할 수 있어야 합니다.
내부 API
api-int.<cluster_name>.<base_domain>
ISO를 수동으로 생성할 때 DNS A/AAAA 또는 CNAME 레코드를 추가합니다. 이 레코드는 클러스터 내의 노드에서 확인할 수 있어야 합니다.
Ingress 경로
*.apps.<cluster_name>.<base_domain>
노드를 대상으로 하는 와일드카드 DNS A/AAAA 또는 CNAME 레코드를 추가합니다. 이 레코드는 클러스터 외부의 클라이언트와 클러스터 내에서 확인할 수 있어야 합니다.
중요영구 IP 주소가 없으면
apiserver
와etcd
간의 통신이 실패할 수 있습니다.
2장. 단일 노드에 OpenShift 설치
웹 기반 지원 설치 프로그램 또는 coreos-installer
툴을 사용하여 검색 ISO 이미지를 생성하여 단일 노드 OpenShift를 설치할 수 있습니다. 검색 ISO 이미지는 요구 사항에 맞게 단일 클러스터 노드를 실행할 수 있도록 RHCOS(Red Hat Enterprise Linux CoreOS) 시스템 구성을 대상 설치 디스크에 씁니다.
테스트, 문제 해결, 교육 또는 소규모 프로젝트 목적으로 리소스가 낮은 환경에서 클러스터를 실행하려는 경우 단일 노드 OpenShift를 사용하는 것이 좋습니다.
2.1. 지원 설치 관리자를 사용하여 단일 노드 OpenShift 설치
단일 노드에 OpenShift Container Platform을 설치하려면 웹 기반 지원 설치 프로그램 마법사를 사용하여 프로세스를 안내하고 설치를 관리합니다.
자세한 내용 및 구성 옵션은 OpenShift Container Platform 지원 설치 관리자 설명서를 참조하십시오.
2.1.1. 지원 설치 관리자를 사용하여 검색 ISO 생성
단일 노드에 OpenShift Container Platform을 설치하려면 지원 설치 프로그램에서 생성할 수 있는 검색 ISO가 필요합니다.
프로세스
- 관리 호스트에서 브라우저를 열고 Red Hat OpenShift Cluster Manager 로 이동합니다.
- Create New Cluster 를 클릭하여 새 클러스터를 생성합니다.
- Cluster name 필드에 클러스터 이름을 입력합니다.
Base domain 필드에 기본 도메인을 입력합니다. 예를 들면 다음과 같습니다.
example.com
모든 DNS 레코드는 이 기본 도메인의 하위 도메인이어야 하며 클러스터 이름을 포함해야 합니다. 예를 들면 다음과 같습니다.
<cluster_name>.example.com
참고클러스터 설치 후에는 기본 도메인 또는 클러스터 이름을 변경할 수 없습니다.
- Install single node OpenShift (SNO) 를 선택하고 나머지 마법사 단계를 완료합니다. 검색 ISO를 다운로드합니다.
나머지 지원 설치 프로그램 마법사 단계를 완료합니다.
중요가상 미디어를 사용하여 설치하기 위해 검색 ISO URL을 기록해 두어야 합니다.
이 프로세스 중에 OpenShift Virtualization을 활성화하는 경우 가상 머신에 대해 50GiB 이상의 두 번째 로컬 스토리지 장치가 있어야 합니다.
2.1.2. 지원 설치 관리자를 사용하여 단일 노드 OpenShift 설치
지원 설치 관리자를 사용하여 단일 노드 클러스터를 설치합니다.
사전 요구 사항
- 서버 BIOS 설정의 부팅 드라이브 순서가 대상 설치 디스크에서 서버를 부팅하도록 기본 설정되어 있는지 확인합니다.
프로세스
- 검색 ISO 이미지를 대상 호스트에 연결합니다.
- 검색 ISO 이미지에서 서버를 부팅합니다. 검색 ISO 이미지는 시스템 구성을 대상 설치 디스크에 작성하고 서버 재시작을 자동으로 트리거합니다.
- 관리 호스트에서 브라우저로 돌아갑니다. 검색된 호스트 목록에 호스트가 표시될 때까지 기다립니다. 필요한 경우 지원 클러스터 페이지를 다시 로드하고 클러스터 이름을 선택합니다.
- 설치 마법사 단계를 완료합니다. 사용 가능한 서브넷의 서브넷을 포함하여 네트워킹 세부 정보를 추가합니다. 필요한 경우 SSH 공개 키를 추가합니다.
- 설치 진행 상황을 모니터링합니다. 클러스터 이벤트를 확인합니다. 설치 프로세스가 서버의 하드 디스크에 운영 체제 이미지 쓰기를 완료하면 서버가 다시 시작됩니다.
선택 사항: 검색 ISO 이미지를 제거합니다.
서버가 여러 번 자동으로 다시 시작하여 컨트롤 플레인을 배포합니다.
2.2. 수동으로 단일 노드 OpenShift 설치
단일 노드에 OpenShift Container Platform을 설치하려면 먼저 설치 ISO를 생성한 다음 ISO에서 서버를 부팅합니다. openshift-install
설치 프로그램을 사용하여 설치를 모니터링할 수 있습니다.
2.2.1. coreos-installer를 사용하여 설치 ISO 생성
단일 노드에 OpenShift Container Platform을 설치하려면 다음 절차를 통해 생성할 수 있는 설치 ISO가 필요합니다.
사전 요구 사항
-
podman
을 설치합니다.
DNS 레코드를 포함하여 네트워킹 요구 사항은 "단일 노드에 OpenShift를 설치하기 위한 요구 사항"을 참조하십시오.
프로세스
OpenShift Container Platform 버전을 설정합니다.
$ export OCP_VERSION=<ocp_version> 1
- 1
- &
lt;ocp_version&
gt;을 현재 버전으로 바꿉니다(예:latest-4.15
).
호스트 아키텍처를 설정합니다.
$ export ARCH=<architecture> 1
- 1
- &
lt;architecture&
gt;를 대상 호스트 아키텍처(예:aarch64
또는x86_64
)로 바꿉니다.
OpenShift Container Platform 클라이언트(
oc
)를 다운로드하여 다음 명령을 입력하여 사용할 수 있도록 합니다.$ curl -k https://mirror.openshift.com/pub/openshift-v4/clients/ocp/$OCP_VERSION/openshift-client-linux.tar.gz -o oc.tar.gz
$ tar zxf oc.tar.gz
$ chmod +x oc
OpenShift Container Platform 설치 프로그램을 다운로드하고 다음 명령을 입력하여 사용할 수 있도록 합니다.
$ curl -k https://mirror.openshift.com/pub/openshift-v4/clients/ocp/$OCP_VERSION/openshift-install-linux.tar.gz -o openshift-install-linux.tar.gz
$ tar zxvf openshift-install-linux.tar.gz
$ chmod +x openshift-install
다음 명령을 실행하여 RHCOS ISO URL을 검색합니다.
$ export ISO_URL=$(./openshift-install coreos print-stream-json | grep location | grep $ARCH | grep iso | cut -d\" -f4)
RHCOS ISO를 다운로드합니다.
$ curl -L $ISO_URL -o rhcos-live.iso
install-config.yaml
파일을 준비합니다.apiVersion: v1 baseDomain: <domain> 1 compute: - name: worker replicas: 0 2 controlPlane: name: master replicas: 1 3 metadata: name: <name> 4 networking: 5 clusterNetwork: - cidr: 10.128.0.0/14 hostPrefix: 23 machineNetwork: - cidr: 10.0.0.0/16 6 networkType: OVNKubernetes serviceNetwork: - 172.30.0.0/16 platform: none: {} bootstrapInPlace: installationDisk: /dev/disk/by-id/<disk_id> 7 pullSecret: '<pull_secret>' 8 sshKey: | <ssh_key> 9
- 1
- 클러스터 도메인 이름을 추가합니다.
- 2
compute
복제본을0
으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.- 3
controlPlane
복제본을1
로 설정합니다. 이 설정은 이전compute
설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.- 4
이름을 클러스터 이름으로 설정합니다.
- 5
네트워킹
세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.- 6
- 단일 노드 OpenShift 클러스터의 서브넷과 일치하도록
cidr
값을 설정합니다. - 7
- 설치 디스크 드라이브의 경로를 설정합니다(예:
/dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c
2) . - 8
- Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
- 9
- 설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
다음 명령을 실행하여 OpenShift Container Platform 자산을 생성합니다.
$ mkdir ocp
$ cp install-config.yaml ocp
$ ./openshift-install --dir=ocp create single-node-ignition-config
다음 명령을 실행하여 RHCOS ISO에 ignition 데이터를 삽입합니다.
$ alias coreos-installer='podman run --privileged --pull always --rm \ -v /dev:/dev -v /run/udev:/run/udev -v $PWD:/data \ -w /data quay.io/coreos/coreos-installer:release'
$ coreos-installer iso ignition embed -fi ocp/bootstrap-in-place-for-live-iso.ign rhcos-live.iso
추가 리소스
- 단일 노드에 OpenShift Container Platform을 설치하는 방법에 대한 자세한 내용은 단일 노드에 OpenShift를 설치하는 요구 사항을 참조하십시오.
- 설치 전에 비활성화된 클러스터 기능 활성화에 대한 자세한 내용은 클러스터 기능을 참조하십시오. https://docs.redhat.com/en/documentation/openshift_container_platform/4.15/html-single/installation_overview/#cluster-capabilities
- 각 기능에서 제공하는 기능에 대한 자세한 내용은 OpenShift Container Platform 4.15의 선택적 클러스터 기능을 참조하십시오.
2.2.2. openshift-install을 사용하여 클러스터 설치 모니터링
openshift-install
을 사용하여 단일 노드 클러스터 설치의 진행 상황을 모니터링합니다.
사전 요구 사항
- 서버 BIOS 설정의 부팅 드라이브 순서가 대상 설치 디스크에서 서버를 부팅하도록 기본 설정되어 있는지 확인합니다.
프로세스
- 검색 ISO 이미지를 대상 호스트에 연결합니다.
- 검색 ISO 이미지에서 서버를 부팅합니다. 검색 ISO 이미지는 시스템 구성을 대상 설치 디스크에 작성하고 서버 재시작을 자동으로 트리거합니다.
관리 호스트에서 다음 명령을 실행하여 설치를 모니터링합니다.
$ ./openshift-install --dir=ocp wait-for install-complete
선택 사항: 검색 ISO 이미지를 제거합니다.
컨트롤 플레인을 배포하는 동안 서버가 여러 번 다시 시작됩니다.
검증
설치가 완료되면 다음 명령을 실행하여 환경을 확인합니다.
$ export KUBECONFIG=ocp/auth/kubeconfig
$ oc get nodes
출력 예
NAME STATUS ROLES AGE VERSION control-plane.example.com Ready master,worker 10m v1.28.5
2.3. 클라우드 공급자에 단일 노드 OpenShift 설치
2.3.1. 클라우드 공급자에 단일 노드 OpenShift를 설치하기 위한 추가 요구 사항
클라우드 공급자에 대한 설치 관리자 프로비저닝 설치 문서는 세 개의 컨트롤 플레인 노드로 구성된 고가용성 클러스터를 기반으로 합니다. 설명서를 참조할 때 단일 노드 OpenShift 클러스터와 고가용성 클러스터의 요구 사항 간의 차이점을 고려하십시오.
- 고가용성 클러스터에는 임시 부트스트랩 시스템, 컨트롤 플레인 시스템 세 개 및 컴퓨팅 시스템이 두 개 이상 필요합니다. 단일 노드 OpenShift 클러스터의 경우 컨트롤 플레인 노드에는 임시 부트스트랩 머신과 하나의 클라우드 인스턴스만 필요하며 컴퓨팅 노드는 없습니다.
- 고가용성 클러스터 설치에 대한 최소 리소스 요구 사항에는 vCPU 4개와 스토리지 100GB가 있는 컨트롤 플레인 노드가 포함됩니다. 단일 노드 OpenShift 클러스터의 경우 최소 8개의 vCPU와 120GB의 스토리지가 있어야 합니다.
-
install-config.yaml
파일의controlPlane.replicas
설정을1
로 설정해야 합니다. -
install-config.yaml
파일의compute.replicas
설정은0
으로 설정해야 합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.
2.3.2. 단일 노드 OpenShift에 지원되는 클라우드 공급자
다음 표에는 지원되는 클라우드 공급자 및 CPU 아키텍처 목록이 포함되어 있습니다.
클라우드 공급자 | CPU 아키텍처 |
---|---|
AWS(Amazon Web Service) | x86_64 및 AArch64 |
Microsoft Azure | x86_64 |
GCP(Google Cloud Platform) | x86_64 및 AArch64 |
2.3.3. AWS에 단일 노드 OpenShift 설치
AWS에 단일 노드 클러스터를 설치하려면 "사용자 지정이 있는 AWS에 클러스터 설치" 절차를 사용하여 설치 관리자 프로비저닝 설치가 필요합니다.
추가 리소스
2.3.4. Azure에 단일 노드 OpenShift 설치
Azure에 단일 노드 클러스터를 설치하려면 "사용자 지정으로 클러스터 설치" 절차를 사용하여 설치 관리자 프로비저닝 설치가 필요합니다.
2.3.5. GCP에 단일 노드 OpenShift 설치
GCP에 단일 노드 클러스터를 설치하려면 "사용자 지정이 있는 GCP에 클러스터 설치" 절차를 사용하여 설치 관리자 프로비저닝 설치가 필요합니다.
추가 리소스
2.4. USB 드라이브에 부팅 가능한 ISO 이미지 생성
ISO 이미지가 포함된 부팅 가능한 USB 드라이브를 사용하여 소프트웨어를 설치할 수 있습니다. USB 드라이브를 사용하여 서버를 부팅하면 소프트웨어 설치를 위한 서버가 준비됩니다.
프로세스
- 관리 호스트에서 USB 드라이브를 USB 포트에 삽입합니다.
부팅 가능한 USB 드라이브를 생성합니다. 예를 들면 다음과 같습니다.
# dd if=<path_to_iso> of=<path_to_usb> status=progress
다음과 같습니다.
- <path_to_iso>
-
다운로드한 ISO 파일의 상대 경로입니다(예:
rhcos-live.iso
). - <path_to_usb>
-
연결된 USB 드라이브의 위치입니다(예:
/dev/sdb
).
ISO가 USB 드라이브에 복사되면 USB 드라이브를 사용하여 서버에 소프트웨어를 설치할 수 있습니다.
2.5. Redfish API를 사용하여 HTTP 호스팅 ISO 이미지에서 부팅
Redfish BMC(Baseboard Management Controller) API를 사용하여 설치하는 ISO를 사용하여 네트워크에 호스트를 프로비저닝할 수 있습니다.
이 예제 절차에서는 Dell 서버의 단계를 보여줍니다.
하드웨어와 호환되는 최신 펌웨어 버전의 iDRAC가 있는지 확인하십시오. 하드웨어 또는 펌웨어에 문제가 있는 경우 공급자에게 문의해야 합니다.
사전 요구 사항
- 설치 RHCOS(Red Hat Enterprise Linux CoreOS) ISO를 다운로드합니다.
- iDRAC9와 호환되는 Dell PowerEdge 서버를 사용합니다.
프로세스
- 네트워크에서 액세스할 수 있는 HTTP 서버에 ISO 파일을 복사합니다.
호스트 ISO 파일에서 호스트를 부팅합니다. 예를 들면 다음과 같습니다.
다음 명령을 실행하여 Redfish API를 호출하여 호스팅된 ISO를
VirtualMedia
부팅 미디어로 설정합니다.$ curl -k -u <bmc_username>:<bmc_password> -d '{"Image":"<hosted_iso_file>", "Inserted": true}' -H "Content-Type: application/json" -X POST <host_bmc_address>/redfish/v1/Managers/iDRAC.Embedded.1/VirtualMedia/CD/Actions/VirtualMedia.InsertMedia
다음과 같습니다.
- <bmc_username>:<bmc_password>
- 대상 호스트 BMC의 사용자 이름과 암호입니다.
- <hosted_iso_file>
-
호스팅된 설치 ISO의 URL입니다(예:
http://webserver.example.com/rhcos-live-minimal.iso
). 대상 호스트 시스템에서 ISO에 액세스할 수 있어야 합니다. - <host_bmc_address>
- 대상 호스트 시스템의 BMC IP 주소입니다.
다음 명령을 실행하여
VirtualMedia
장치에서 부팅되도록 호스트를 설정합니다.$ curl -k -u <bmc_username>:<bmc_password> -X PATCH -H 'Content-Type: application/json' -d '{"Boot": {"BootSourceOverrideTarget": "Cd", "BootSourceOverrideMode": "UEFI", "BootSourceOverrideEnabled": "Once"}}' <host_bmc_address>/redfish/v1/Systems/System.Embedded.1
호스트를 재부팅합니다.
$ curl -k -u <bmc_username>:<bmc_password> -d '{"ResetType": "ForceRestart"}' -H 'Content-type: application/json' -X POST <host_bmc_address>/redfish/v1/Systems/System.Embedded.1/Actions/ComputerSystem.Reset
선택 사항: 호스트의 전원이 꺼지면
{"ResetType": "On"}
스위치를 사용하여 부팅할 수 있습니다. 다음 명령을 실행합니다.$ curl -k -u <bmc_username>:<bmc_password> -d '{"ResetType": "On"}' -H 'Content-type: application/json' -X POST <host_bmc_address>/redfish/v1/Systems/System.Embedded.1/Actions/ComputerSystem.Reset
2.6. 원격 서버 액세스를 위한 사용자 정의 라이브 RHCOS ISO 생성
외부 디스크 드라이브를 서버에 연결할 수 없지만 노드를 프로비저닝하려면 원격으로 서버에 액세스해야 하는 경우도 있습니다. 서버에 대한 SSH 액세스를 활성화하는 것이 좋습니다. 부팅 후 서버에 액세스할 수 있도록 SSHd가 활성화되고 사전 정의된 인증 정보를 사용하여 라이브 RHCOS ISO를 생성할 수 있습니다.
사전 요구 사항
-
butane
유틸리티를 설치했습니다.
프로세스
-
coreos-installer
이미지 미러 페이지에서coreos-installer
바이너리를 다운로드합니다. - mirror.openshift.com 에서 최신 라이브 RHCOS ISO를 다운로드합니다.
butane
유틸리티에서 Ignition 파일을 생성하는 데 사용하는embedded.yaml
파일을 생성합니다.variant: openshift version: 4.15.0 metadata: name: sshd labels: machineconfiguration.openshift.io/role: worker passwd: users: - name: core 1 ssh_authorized_keys: - '<ssh_key>'
- 1
core
사용자에게는 sudo 권한이 있습니다.
다음 명령을 사용하여 Ignition 파일을 생성하려면
butane
유틸리티를 실행합니다.$ butane -pr embedded.yaml -o embedded.ign
Ignition 파일이 생성되면
coreos-installer
유틸리티를 사용하여rhcos-sshd-4.15.0-x86_64-live.x86_64.iso
라는 새 라이브 RHCOS ISO에 구성을 포함할 수 있습니다.$ coreos-installer iso ignition embed -i embedded.ign rhcos-4.15.0-x86_64-live.x86_64.iso -o rhcos-sshd-4.15.0-x86_64-live.x86_64.iso
검증
다음 명령을 실행하여 사용자 정의 라이브 ISO를 사용하여 서버를 부팅할 수 있는지 확인합니다.
# coreos-installer iso ignition show rhcos-sshd-4.15.0-x86_64-live.x86_64.iso
출력 예
{ "ignition": { "version": "3.2.0" }, "passwd": { "users": [ { "name": "core", "sshAuthorizedKeys": [ "ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQCZnG8AIzlDAhpyENpK2qKiTT8EbRWOrz7NXjRzopbPu215mocaJgjjwJjh1cYhgPhpAp6M/ttTk7I4OI7g4588Apx4bwJep6oWTU35LkY8ZxkGVPAJL8kVlTdKQviDv3XX12l4QfnDom4tm4gVbRH0gNT1wzhnLP+LKYm2Ohr9D7p9NBnAdro6k++XWgkDeijLRUTwdEyWunIdW1f8G0Mg8Y1Xzr13BUo3+8aey7HLKJMDtobkz/C8ESYA/f7HJc5FxF0XbapWWovSSDJrr9OmlL9f4TfE+cQk3s+eoKiz2bgNPRgEEwihVbGsCN4grA+RzLCAOpec+2dTJrQvFqsD alosadag@sonnelicht.local" ] } ] } }
2.7. IBM Z 및 IBM LinuxONE을 사용하여 단일 노드 OpenShift 설치
IBM Z® 및 IBM® LinuxONE에 단일 노드 클러스터를 설치하려면 "IBM Z® 및 IBM® LinuxONE에 RHEL KVM으로 클러스터 설치" 또는 "IBM Z® 및 IBM® LinuxONE에 z/VM으로 클러스터 설치" 프로세스를 사용하여 사용자 프로비저닝 설치가 필요합니다.
IBM Z®에 단일 노드 클러스터를 설치하면 개발 및 테스트 환경을 위한 설치가 간소화되며 진입점 수준에서 리소스 요구 사항이 줄어듭니다.
하드웨어 요구 사항
- 각 클러스터에 대해 SMT2가 활성화된 Linux(IFL)의 두 가지 통합에 해당합니다.
-
둘 다
LoadBalancer
서비스에 연결하고 클러스터 외부의 트래픽에 대한 데이터를 제공하는 하나 이상의 네트워크 연결입니다.
전용 또는 공유 IFL을 사용하여 충분한 컴퓨팅 리소스를 할당할 수 있습니다. 리소스 공유는 IBM Z®의 주요 강점 중 하나입니다. 그러나 각 하이퍼바이저 계층에서 용량을 올바르게 조정하고 모든 OpenShift Container Platform 클러스터에 충분한 리소스를 확보해야 합니다.
2.7.1. IBM Z 및 IBM LinuxONE에 z/VM으로 단일 노드 OpenShift 설치
사전 요구 사항
-
podman
을 설치했습니다.
프로세스
다음 명령을 실행하여 OpenShift Container Platform 버전을 설정합니다.
$ OCP_VERSION=<ocp_version> 1
- 1
- &
lt;ocp_version&
gt;을 현재 버전으로 바꿉니다(예:latest-4.15
).
다음 명령을 실행하여 호스트 아키텍처를 설정합니다.
$ ARCH=<architecture> 1
- 1
- <
;architecture&
gt;를 대상 호스트 아키텍처s390x
로 바꿉니다.
OpenShift Container Platform 클라이언트(
oc
)를 다운로드하여 다음 명령을 입력하여 사용할 수 있도록 합니다.$ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-client-linux.tar.gz -o oc.tar.gz
$ tar zxf oc.tar.gz
$ chmod +x oc
OpenShift Container Platform 설치 프로그램을 다운로드하고 다음 명령을 입력하여 사용할 수 있도록 합니다.
$ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-install-linux.tar.gz -o openshift-install-linux.tar.gz
$ tar zxvf openshift-install-linux.tar.gz
$ chmod +x openshift-install
install-config.yaml
파일을 준비합니다.apiVersion: v1 baseDomain: <domain> 1 compute: - name: worker replicas: 0 2 controlPlane: name: master replicas: 1 3 metadata: name: <name> 4 networking: 5 clusterNetwork: - cidr: 10.128.0.0/14 hostPrefix: 23 machineNetwork: - cidr: 10.0.0.0/16 6 networkType: OVNKubernetes serviceNetwork: - 172.30.0.0/16 platform: none: {} bootstrapInPlace: installationDisk: /dev/disk/by-id/<disk_id> 7 pullSecret: '<pull_secret>' 8 sshKey: | <ssh_key> 9
- 1
- 클러스터 도메인 이름을 추가합니다.
- 2
compute
복제본을0
으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.- 3
controlPlane
복제본을1
로 설정합니다. 이 설정은 이전compute
설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.- 4
이름을 클러스터 이름으로 설정합니다.
- 5
네트워킹
세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.- 6
- 단일 노드 OpenShift 클러스터의 서브넷과 일치하도록
cidr
값을 설정합니다. - 7
- 설치 디스크 드라이브의 경로를 설정합니다(예:
/dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c
2) . - 8
- Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
- 9
- 설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
다음 명령을 실행하여 OpenShift Container Platform 자산을 생성합니다.
$ mkdir ocp
$ cp install-config.yaml ocp
$ ./openshift-install --dir=ocp create single-node-ignition-config
Red Hat 고객 포털의 제품 다운로드 페이지 또는 RHCOS 이미지 미러 페이지에서 RHEL
커널
,initramfs
및rootfs
아티팩트를 가져옵니다.중요RHCOS 이미지는 OpenShift Container Platform 릴리스에 따라 변경되지 않을 수 있습니다. 설치하는 OpenShift Container Platform 버전과 같거나 그 이하의 버전 중 가장 최신 버전의 이미지를 다운로드해야 합니다. 다음 절차에 설명된 적절한
커널
,initramfs
및rootfs
아티팩트만 사용하십시오.OpenShift Container Platform 버전 번호가 파일 이름에 포함됩니다. 다음 예와 유사합니다.
kernel
-
rhcos-<version>-live-kernel-<architecture>
initramfs
-
rhcos-<version>-live-initramfs.<architecture>.img
rootfs
rhcos-<version>-live-rootfs.<architecture>.img
참고rootfs
이미지는 FCP 및 DASD에 대해 동일합니다.
다음 아티팩트 및 파일을 HTTP 또는 HTTPS 서버로 이동합니다.
-
다운로드된 RHEL 라이브
커널
,initramfs
,rootfs
아티팩트 - Ignition 파일
-
다운로드된 RHEL 라이브
특정 가상 머신에 대한 매개변수 파일을 생성합니다.
매개변수 파일 예
rd.neednet=1 \ console=ttysclp0 \ coreos.live.rootfs_url=<rhcos_liveos>:8080/rootfs.img \1 ignition.firstboot ignition.platform.id=metal \ ignition.config.url=<rhcos_ign>:8080/ignition/bootstrap-in-place-for-live-iso.ign \2 ip=encbdd0:dhcp::02:00:00:02:34:02 3 rd.znet=qeth,0.0.bdd0,0.0.bdd1,0.0.bdd2,layer2=1 \ rd.dasd=0.0.4411 \4 rd.zfcp=0.0.8001,0x50050763040051e3,0x4000406300000000 \5 zfcp.allow_lun_scan=0 \ rd.luks.options=discard
- 1
coreos.live.rootfs_url=
아티팩트의 경우 부팅 중인커널 및 'initramfs와
일치하는rootfs
아티팩트를 지정합니다. HTTP 및 HTTPS 프로토콜만 지원됩니다.- 2
ignition.config.url=
매개변수의 경우 머신 역할의 Ignition 파일을 지정합니다. HTTP 및 HTTPS 프로토콜만 지원됩니다.- 3
ip=
매개변수의 경우 DHCP를 사용하거나 "IBM Z® 및 IBM® LinuxONE에 z/VM으로 클러스터 설치"에 설명된 대로 IP 주소를 자동으로 할당합니다.- 4
- DASD 유형 디스크에 설치하는 경우
rd.dasd=
를 사용하여 RHCOS를 설치할 DASD를 지정합니다. FCP 유형 디스크에 대해 이 항목을 생략합니다. - 5
- FCP 유형 디스크에 설치하려면
rd.zfcp=<adapter>,<wwpn>,<lun
>을 사용하여 RHCOS를 설치할 FCP 디스크를 지정합니다. DASD 유형 디스크에 이 항목을 생략합니다.
변경되지 않은 다른 모든 매개변수는 그대로 두십시오.
다음 아티팩트, 파일 및 이미지를 z/VM으로 전송합니다. 예를 들어 FTP를 사용합니다.
-
kernel
및initramfs
아티팩트 - 매개변수 파일
RHCOS 이미지
FTP를 사용하여 파일을 전송하고 가상 리더에서 부팅하는 방법에 대한 자세한 내용은 Z/VM에서 설치를 참조하십시오.
-
- 부트스트랩 노드가 될 z/VM 게스트 가상 머신의 가상 리더에 파일 punch를 실행합니다.
- 부트스트랩 시스템에서 CMS에 로그인합니다.
다음 명령을 실행하여 리더의 부트스트랩 시스템을 IPL합니다.
$ cp ipl c
가상 머신을 처음 재부팅한 후 서로 직접 다음 명령을 실행합니다.
처음 재부팅한 후 DASD 장치를 부팅하려면 다음 명령을 실행합니다.
$ cp i <devno> clear loadparm prompt
다음과 같습니다.
<devno>
- 게스트에 표시된 대로 부팅 장치의 장치 번호를 지정합니다.
$ cp vi vmsg 0 <kernel_parameters>
다음과 같습니다.
<kernel_parameters>
- 시스템 제어 프로그램 데이터(SCPDATA)로 저장할 커널 매개 변수 집합을 지정합니다. Linux를 부팅할 때 이러한 커널 매개변수는 부팅 구성에서 사용하는 기존 커널 매개변수의 끝에 연결됩니다. 결합된 매개변수 문자열은 896자를 초과해서는 안 됩니다.
처음 재부팅한 후 FCP 장치를 부팅하려면 다음 명령을 실행합니다.
$ cp set loaddev portname <wwpn> lun <lun>
다음과 같습니다.
<wwpn>
-
대상 포트 및 <
lun>을
16진수 형식으로 논리 단위를 지정합니다.
$ cp set loaddev bootprog <n>
다음과 같습니다.
<n>
- 부팅할 커널을 지정합니다.
$ cp set loaddev scpdata {APPEND|NEW} '<kernel_parameters>'
다음과 같습니다.
<kernel_parameters>
- 시스템 제어 프로그램 데이터(SCPDATA)로 저장할 커널 매개 변수 집합을 지정합니다. Linux를 부팅할 때 이러한 커널 매개변수는 부팅 구성에서 사용하는 기존 커널 매개변수의 끝에 연결됩니다. 결합된 매개변수 문자열은 896자를 초과해서는 안 됩니다.
<APPEND|NEW>
-
선택 사항:
APPEND
를 지정하여 기존 SCPDATA에 커널 매개 변수를 추가합니다. 이는 기본값입니다. 기존 SCPDATA를 교체하려면NEW
를 지정합니다.
예제
$ cp set loaddev scpdata 'rd.zfcp=0.0.8001,0x500507630a0350a4,0x4000409D00000000 ip=encbdd0:dhcp::02:00:00:02:34:02 rd.neednet=1'
IPL 및 부팅 프로세스를 시작하려면 다음 명령을 실행합니다.
$ cp i <devno>
다음과 같습니다.
<devno>
- 게스트에 표시된 대로 부팅 장치의 장치 번호를 지정합니다.
2.7.2. IBM Z 및 IBM LinuxONE에 RHEL KVM으로 단일 노드 OpenShift 설치
사전 요구 사항
-
podman
을 설치했습니다.
프로세스
다음 명령을 실행하여 OpenShift Container Platform 버전을 설정합니다.
$ OCP_VERSION=<ocp_version> 1
- 1
- &
lt;ocp_version&
gt;을 현재 버전으로 바꿉니다(예:latest-4.15
).
다음 명령을 실행하여 호스트 아키텍처를 설정합니다.
$ ARCH=<architecture> 1
- 1
- <
;architecture&
gt;를 대상 호스트 아키텍처s390x
로 바꿉니다.
OpenShift Container Platform 클라이언트(
oc
)를 다운로드하여 다음 명령을 입력하여 사용할 수 있도록 합니다.$ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-client-linux.tar.gz -o oc.tar.gz
$ tar zxf oc.tar.gz
$ chmod +x oc
OpenShift Container Platform 설치 프로그램을 다운로드하고 다음 명령을 입력하여 사용할 수 있도록 합니다.
$ curl -k https://mirror.openshift.com/pub/openshift-v4/${ARCH}/clients/ocp/${OCP_VERSION}/openshift-install-linux.tar.gz -o openshift-install-linux.tar.gz
$ tar zxvf openshift-install-linux.tar.gz
$ chmod +x openshift-install
install-config.yaml
파일을 준비합니다.apiVersion: v1 baseDomain: <domain> 1 compute: - name: worker replicas: 0 2 controlPlane: name: master replicas: 1 3 metadata: name: <name> 4 networking: 5 clusterNetwork: - cidr: 10.128.0.0/14 hostPrefix: 23 machineNetwork: - cidr: 10.0.0.0/16 6 networkType: OVNKubernetes serviceNetwork: - 172.30.0.0/16 platform: none: {} bootstrapInPlace: installationDisk: /dev/disk/by-id/<disk_id> 7 pullSecret: '<pull_secret>' 8 sshKey: | <ssh_key> 9
- 1
- 클러스터 도메인 이름을 추가합니다.
- 2
compute
복제본을0
으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.- 3
controlPlane
복제본을1
로 설정합니다. 이 설정은 이전compute
설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.- 4
이름을 클러스터 이름으로 설정합니다.
- 5
네트워킹
세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.- 6
- 단일 노드 OpenShift 클러스터의 서브넷과 일치하도록
cidr
값을 설정합니다. - 7
- 설치 디스크 드라이브의 경로를 설정합니다(예:
/dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c
2) . - 8
- Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
- 9
- 설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
다음 명령을 실행하여 OpenShift Container Platform 자산을 생성합니다.
$ mkdir ocp
$ cp install-config.yaml ocp
$ ./openshift-install --dir=ocp create single-node-ignition-config
Red Hat 고객 포털의 제품 다운로드 페이지 또는 RHCOS 이미지 미러 페이지에서 RHEL
커널
,initramfs
및rootfs
아티팩트를 가져옵니다.중요RHCOS 이미지는 OpenShift Container Platform 릴리스에 따라 변경되지 않을 수 있습니다. 설치하는 OpenShift Container Platform 버전과 같거나 그 이하의 버전 중 가장 최신 버전의 이미지를 다운로드해야 합니다. 다음 절차에 설명된 적절한
커널
,initramfs
및rootfs
아티팩트만 사용하십시오.OpenShift Container Platform 버전 번호가 파일 이름에 포함됩니다. 다음 예와 유사합니다.
kernel
-
rhcos-<version>-live-kernel-<architecture>
initramfs
-
rhcos-<version>-live-initramfs.<architecture>.img
rootfs
-
rhcos-<version>-live-rootfs.<architecture>.img
virt-install
을 시작하기 전에 다음 파일 및 아티팩트를 HTTP 또는 HTTPS 서버로 이동합니다.-
다운로드된 RHEL 라이브
커널
,initramfs
,rootfs
아티팩트 - Ignition 파일
-
다운로드된 RHEL 라이브
다음 구성 요소를 사용하여 KVM 게스트 노드를 생성합니다.
-
RHEL
커널
및initramfs
아티팩트 - Ignition 파일
- 새 디스크 이미지
- 수정된 매개변수 인수
-
RHEL
$ virt-install \ --name <vm_name> \ --autostart \ --memory=<memory_mb> \ --cpu host \ --vcpus <vcpus> \ --location <media_location>,kernel=<rhcos_kernel>,initrd=<rhcos_initrd> \1 --disk size=100 \ --network network=<virt_network_parm> \ --graphics none \ --noautoconsole \ --extra-args "ip=<ip>::<gateway>:<mask>:<hostname>::none" \ --extra-args "nameserver=<name_server>" \ --extra-args "ip=dhcp rd.neednet=1 ignition.platform.id=metal ignition.firstboot" \ --extra-args "coreos.live.rootfs_url=<rhcos_liveos>" \2 --extra-args "ignition.config.url=<rhcos_ign>" \3 --extra-args "random.trust_cpu=on rd.luks.options=discard" \ --extra-args "console=ttysclp0" \ --wait
2.8. IBM Power로 단일 노드 OpenShift 설치
IBM Power®에 단일 노드 클러스터를 설치하려면 "IBM Power®로 클러스터 설치" 프로세스를 사용하여 사용자가 프로비저닝해야 합니다.
IBM Power®에 단일 노드 클러스터를 설치하면 개발 및 테스트 환경을 위한 설치가 간소화되며 진입점 수준에서 리소스 요구 사항이 줄어듭니다.
하드웨어 요구 사항
- 각 클러스터에 대해 SMT2가 활성화된 Linux(IFL)의 두 가지 통합에 해당합니다.
-
LoadBalancer
서비스에 연결하고 클러스터 외부의 트래픽에 대한 데이터를 제공하는 하나 이상의 네트워크 연결입니다.
전용 또는 공유 IFL을 사용하여 충분한 컴퓨팅 리소스를 할당할 수 있습니다. 리소스 공유는 IBM Power®의 주요 강점 중 하나입니다. 그러나 각 하이퍼바이저 계층에서 용량을 올바르게 조정하고 모든 OpenShift Container Platform 클러스터에 충분한 리소스를 확보해야 합니다.
추가 리소스
2.8.1. IBM Power를 사용하여 단일 노드 OpenShift에 대한 기준 설정
IBM Power®에 단일 노드 OpenShift를 설치하기 전에 bastion을 설정해야 합니다. IBM Power®에서 단일 노드 OpenShift에 대한 bastion 서버를 설정하려면 다음 서비스의 구성이 필요합니다.
PXE는 단일 노드 OpenShift 클러스터 설치에 사용됩니다. PXE를 사용하려면 다음 서비스를 구성하고 실행해야 합니다.
- api, api-int 및 *.apps를 정의하는 DNS
- PXE를 활성화하고 단일 노드 OpenShift 노드에 IP 주소를 할당하는 DHCP 서비스
- ignition 및 RHCOS rootfs 이미지를 제공하는 HTTP
- PXE를 활성화하는 TFTP
-
HTTP에 대한 DNS, DHCP 및 PXE, httpd를 지원하려면
dnsmasq
를 설치해야 합니다.
다음 절차를 사용하여 이러한 요구 사항을 충족하는 bastion 서버를 구성합니다.
프로세스
다음 명령을 사용하여 PowerVM에 대해 PXE를 활성화하는 데 필요한
grub2
를 설치합니다.grub2-mknetdir --net-directory=/var/lib/tftpboot
/var/lib/tftpboot/boot/grub2/grub.cfg
파일의 예default=0 fallback=1 timeout=1 if [ ${net_default_mac} == fa:b0:45:27:43:20 ]; then menuentry "CoreOS (BIOS)" { echo "Loading kernel" linux "/rhcos/kernel" ip=dhcp rd.neednet=1 ignition.platform.id=metal ignition.firstboot coreos.live.rootfs_url=http://192.168.10.5:8000/install/rootfs.img ignition.config.url=http://192.168.10.5:8000/ignition/sno.ign echo "Loading initrd" initrd "/rhcos/initramfs.img" } fi
다음 명령을 사용하여 PXE용 미러 저장소에서 RHCOS 이미지 파일을 다운로드합니다.
다음 명령을 입력하여
RHCOS_URL
변수를 다음 4.12 URL을 할당합니다.$ export RHCOS_URL=https://mirror.openshift.com/pub/openshift-v4/ppc64le/dependencies/rhcos/4.12/latest/
다음 명령을 입력하여
/var/lib/tftpboot/rhcos
디렉터리로 이동합니다.$ cd /var/lib/tftpboot/rhcos
다음 명령을 입력하여
RHCOS_URL
변수에 저장된 URL에서 지정된 RHCOS 커널 파일을 다운로드합니다.$ wget ${RHCOS_URL}/rhcos-live-kernel-ppc64le -o kernel
다음 명령을 입력하여
RHCOS_URL
변수에 저장된 URL에서 RHCOSinitramfs
파일을 다운로드합니다.$ wget ${RHCOS_URL}/rhcos-live-initramfs.ppc64le.img -o initramfs.img
다음 명령을 입력하여
/var//var/www/html/install/
디렉터리로 이동합니다.$ cd /var//var/www/html/install/
다음 명령을 입력하여
RHCOS_URL
변수에 저장된 URL에서 RHCOS루트 파일 시스템
이미지 파일을 다운로드하여 저장합니다.$ wget ${RHCOS_URL}/rhcos-live-rootfs.ppc64le.img -o rootfs.img
단일 노드 OpenShift 클러스터에 대한 ignition 파일을 생성하려면
install-config.yaml
파일을 생성해야 합니다.다음 명령을 입력하여 파일이 포함된 작업 디렉터리를 생성합니다.
$ mkdir -p ~/sno-work
다음 명령을 입력하여
~/sno-work
디렉터리로 이동합니다.$ cd ~/sno-work
다음 샘플 파일을 사용하여
~/sno-work
디렉터리에 필요한install-config.yaml
을 생성할 수 있습니다.apiVersion: v1 baseDomain: <domain> 1 compute: - name: worker replicas: 0 2 controlPlane: name: master replicas: 1 3 metadata: name: <name> 4 networking: 5 clusterNetwork: - cidr: 10.128.0.0/14 hostPrefix: 23 machineNetwork: - cidr: 10.0.0.0/16 6 networkType: OVNKubernetes serviceNetwork: - 172.30.0.0/16 platform: none: {} bootstrapInPlace: installationDisk: /dev/disk/by-id/<disk_id> 7 pullSecret: '<pull_secret>' 8 sshKey: | <ssh_key> 9
- 1
- 클러스터 도메인 이름을 추가합니다.
- 2
compute
복제본을0
으로 설정합니다. 이렇게 하면 컨트롤 플레인 노드를 예약할 수 있습니다.- 3
controlPlane
복제본을1
로 설정합니다. 이 설정은 이전compute
설정과 함께 클러스터가 단일 노드에서 실행되도록 합니다.- 4
이름을 클러스터 이름으로 설정합니다.
- 5
네트워킹
세부 정보를 설정합니다. OVN-Kubernetes는 단일 노드 클러스터에 허용되는 유일한 네트워크 플러그인 유형입니다.- 6
- 단일 노드 OpenShift 클러스터의 서브넷과 일치하도록
cidr
값을 설정합니다. - 7
- 설치 디스크 드라이브의 경로를 설정합니다(예:
/dev/disk/by-id/wwn-0x64cd98f04fde100024684cf3034da5c
2) . - 8
- Red Hat OpenShift Cluster Manager에서 풀 시크릿 을 복사하고 이 구성 설정에 내용을 추가합니다.
- 9
- 설치 후 클러스터에 로그인할 수 있도록 관리 호스트에서 공개 SSH 키를 추가합니다.
openshift-install
이미지를 다운로드하여 Ignition 파일을 생성하여http
디렉터리에 복사합니다.다음 명령을 입력하여
openshift-install-linux-4.12.0
.tar 파일을 다운로드합니다.$ wget https://mirror.openshift.com/pub/openshift-v4/ppc64le/clients/ocp/4.12.0/openshift-install-linux-4.12.0.tar.gz
다음 명령을 입력하여
openshift-install-linux-4.12.0.tar.gz
아카이브의 압축을 풉니다.$ tar xzvf openshift-install-linux-4.12.0.tar.gz
다음 명령을 입력합니다.
$ ./openshift-install --dir=~/sno-work create create single-node-ignition-config
다음 명령을 입력하여 Ignition 파일을 생성합니다.
$ cp ~/sno-work/single-node-ignition-config.ign /var/www/html/ignition/sno.ign
다음 명령을 입력하여
/var/www/html
디렉터리에 대한 SELinux 파일을 복원합니다.$ restorecon -vR /var/www/html || true
이제 bastion에 필요한 모든 파일이 있으며 단일 노드 OpenShift를 설치하기 위해 올바르게 구성됩니다.
2.8.2. IBM Power로 단일 노드 OpenShift 설치
사전 요구 사항
- bastion을 설정했습니다.
프로세스
단일 노드 OpenShift 클러스터 설치에는 두 가지 단계가 있습니다. 먼저 단일 노드 OpenShift 논리 파티션(LPAR)은 PXE로 부팅한 다음 설치 진행 상황을 모니터링해야 합니다.
다음 명령을 사용하여 netboot로 powerVM을 부팅합니다.
$ lpar_netboot -i -D -f -t ent -m <sno_mac> -s auto -d auto -S <server_ip> -C <sno_ip> -G <gateway> <lpar_name> default_profile <cec_name>
다음과 같습니다.
- sno_mac
- 단일 노드 OpenShift 클러스터의 MAC 주소를 지정합니다.
- sno_ip
- 단일 노드 OpenShift 클러스터의 IP 주소를 지정합니다.
- server_ip
- bastion(PXE 서버)의 IP 주소를 지정합니다.
- gateway
- 네트워크의 게이트웨이 IP를 지정합니다.
- lpar_name
- HMC에서 단일 노드 OpenShift lpar 이름을 지정합니다.
- cec_name
- sno_lpar이 있는 시스템 이름을 지정합니다.
단일 노드 OpenShift LPAR이 PXE로 부팅된 후
openshift-install
명령을 사용하여 설치 진행 상황을 모니터링합니다.부트스트랩이 완료된 후 다음 명령을 실행합니다.
./openshift-install wait-for bootstrap-complete
성공적으로 반환된 후 다음 명령을 실행합니다.
./openshift-install wait-for install-complete
Legal Notice
Copyright © 2024 Red Hat, Inc.
OpenShift documentation is licensed under the Apache License 2.0 (https://www.apache.org/licenses/LICENSE-2.0).
Modified versions must remove all Red Hat trademarks.
Portions adapted from https://github.com/kubernetes-incubator/service-catalog/ with modifications by Red Hat.
Red Hat, Red Hat Enterprise Linux, the Red Hat logo, the Shadowman logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation’s permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.