배포 계획


Red Hat OpenStack Services on OpenShift 18.0

Red Hat OpenShift Container Platform 클러스터에서 OpenShift 환경에 Red Hat OpenStack Services 계획

OpenStack Documentation Team

초록

OpenShift 컨트롤 플레인 및 데이터 플레인에 Red Hat OpenStack 서비스를 계획하십시오.

Red Hat 문서에 관한 피드백 제공

문서 개선을 위한 의견을 보내 주십시오. Red Hat이 어떻게 더 나은지 알려주십시오.

Jira에서 문서 피드백 제공

Create Issue 양식을 사용하여 OpenShift (RHOSO) 또는 이전 Red Hat OpenStack Platform (RHOSP)의 Red Hat OpenStack Services 문서에 대한 피드백을 제공합니다. RHOSO 또는 RHOSP 문서에 대한 문제를 생성할 때 RHOSO Jira 프로젝트에 문제가 기록되어 피드백의 진행 상황을 추적할 수 있습니다.

문제 생성 양식을 완료하려면 Jira에 로그인해야 합니다. Red Hat Jira 계정이 없는 경우 https://issues.redhat.com 에서 계정을 생성할 수 있습니다.

  1. 다음 링크를 클릭하여 문제 생성 페이지를 엽니다. https://issues.redhat.com/secure/CreateIssueDetails!init.jspa?pid=12336920&summary=Documentation%20feedback:%20%3CAdd%20summary%20here%3E&issuetype=1&description=<Include+the+documentation+URL,+the%20chapter+or+section+number,+and+a+detailed+description+of+the+issue.>&components=12391143&priority=10300
  2. 요약설명 필드를 작성합니다. 설명 필드에 문서 URL, 장 또는 섹션 번호, 문제에 대한 자세한 설명을 포함합니다. 양식의 다른 필드를 수정하지 마십시오.
  3. 생성을 클릭합니다.

1장. OpenShift의 Red Hat OpenStack Services 개요

Red Hat OpenStack Services on OpenShift(RHOSO)는 Red Hat Enterprise Linux를 기반으로 프라이빗 또는 퍼블릭 IaaS(Infrastructure-as-a-Service) 클라우드를 구축할 수 있는 기반을 제공합니다. 이는 클라우드 지원 워크로드 개발을 위한 확장 가능한 내결함성 플랫폼입니다.

RHOSO 컨트롤 플레인은 Red Hat OpenShift Container Platform (RHOCP) 클러스터에서 워크로드로 호스팅 및 관리됩니다. RHOSO 데이터 플레인은 RHOSO 워크로드를 호스팅하는 Red Hat Ansible Automation Platform으로 관리되는 외부 RHEL(Red Hat Enterprise Linux) 노드로 구성됩니다. 데이터 플레인 노드는 컴퓨팅 노드, 스토리지 노드, 네트워크 노드 또는 기타 유형의 노드일 수 있습니다.

RHOSO IaaS 클라우드는 컴퓨팅, 스토리지 및 네트워킹 리소스를 제어하는 상호 작용 서비스 컬렉션으로 구현됩니다. 웹 기반 인터페이스로 클라우드를 관리하여 RHOSO 리소스를 제어, 프로비저닝 및 자동화할 수 있습니다. 또한 광범위한 API가 RHOSO 인프라를 제어하고 이 API는 클라우드의 최종 사용자에게도 사용할 수 있습니다.

참고

RHOSO는 64비트 x86 하드웨어 아키텍처를 기반으로 하는 프로세서가 있는 Cryostat 마스터 및 작업자 노드만 지원합니다.

1.1. RHOSO 서비스 및 Operator

RHOSO(Red Hat OpenStack Services on OpenShift) IaaS 서비스는 Red Hat OpenShift Container Platform(RHOCP) 클러스터에서 실행되는 Operator 컬렉션으로 구현됩니다. 이러한 Operator는 RHOSO 클라우드의 컴퓨팅, 스토리지, 네트워킹 및 기타 서비스를 관리합니다.

중요

Red Hat은 Red Hat OpenShift Container Platform (RHOCP) OperatorHub를 사용하여 모든 Operator를 가져오는 것이 좋습니다.

OpenStack Operator(openstack-operator)는 Services 표에 설명된 모든 서비스 Operator를 설치하고 해당 Operator를 관리하는 데 사용하는 인터페이스입니다. OpenStack Operator도 다음 Operator를 설치하고 관리합니다.

openstack-baremetal-operator
베어 메탈 노드 프로비저닝 프로세스 중에 OpenStack Operator에서 사용합니다.

각 서비스의 기능에 대한 자세한 내용은 OpenShift 18.0 설명서 포털의 Red Hat OpenStack Services에 대한 서비스 관련 설명서를 참조하십시오.

표 1.1. 서비스
서비스Operator기본설명

Bare Metal Provisioning(ironic)

ironic-operator

비활성화됨

하드웨어별 드라이버를 사용하는 다양한 하드웨어 벤더에 대해 물리적 시스템을 지원합니다. 베어 메탈 프로비저닝은 컴퓨팅 서비스와 통합되어 가상 머신이 프로비저닝되는 방식과 동일한 방식으로 물리적 시스템을 프로비저닝하고 베어 메탈-투-신뢰 프로젝트 사용 사례에 대한 솔루션을 제공합니다.

Block Storage(cinder)

cinder-operator

활성화됨

가상 머신 인스턴스의 영구 블록 스토리지 볼륨을 제공하고 관리합니다.

컴퓨팅(nova)

nova-operator

활성화됨

ironic 드라이버를 통해 libvirt 드라이버 또는 물리적 서버를 통해 Virtual Machines와 같은 컴퓨팅 리소스 프로비저닝을 관리합니다.

대시보드(horizon)

horizon-operator

비활성화됨

클라우드 리소스 및 사용자 액세스를 생성하고 관리하기 위한 브라우저 기반 GUI 대시보드를 제공합니다. 대시보드 서비스는 기본적으로 프로젝트, 관리자 및 설정 대시보드를 제공합니다. 청구, 모니터링 및 추가 관리 툴과 같은 다른 제품과 상호 작용하도록 대시보드를 구성할 수 있습니다.

DNS (designate)

designate-operator

활성화됨

클라우드의 DNS 레코드 및 영역을 관리하는 DNSaaS(DNS-as-a-Service)를 제공합니다. DNS 레코드를 포함하도록 BIND 인스턴스를 배포하거나 DNS 서비스를 기존 BIND 인프라에 통합할 수 있습니다. 또한 RHOSO Networking 서비스(neutron)와 통합되어 가상 머신 인스턴스, 네트워크 포트 및 유동 IP에 대한 레코드를 자동으로 생성할 수 있습니다.

ID(keystone)

keystone-operator

활성화됨

모든 RHOSO 서비스와 사용자, 프로젝트, 역할 관리를 위한 사용자 인증 및 권한 부여를 제공합니다. 사용자 이름 및 암호 인증 정보, 토큰 기반 시스템 및 AWS 스타일 로그를 포함한 여러 인증 메커니즘을 지원합니다.

이미지(glance)

glance-operator

활성화됨

가상 머신 이미지 및 볼륨 스냅샷과 같은 리소스를 저장하는 레지스트리 서비스입니다. 클라우드 사용자는 새 이미지를 추가하거나 기존 인스턴스의 스냅샷을 작성하여 즉시 저장할 수 있습니다. 백업 또는 새 인스턴스의 템플릿으로 스냅샷을 사용할 수 있습니다.

키 관리(barbican)

barbican-operator

활성화됨

보안 스토리지, 암호, 암호화 키 및 X.509 인증서와 같은 보안 프로비저닝을 제공합니다. 여기에는 Symmetric Keys, Asymmetric Keys, Certificates 및 raw 바이너리 데이터와 같은 주요 자료가 포함됩니다.

로드 밸런싱(octavia)

octavia-operator

비활성화됨

여러 공급자 드라이버를 지원하는 클라우드를 위한 Load Balancing-as-a-Service(LBaaS)를 제공합니다. 참조 공급자 드라이버(Amphora 공급자 드라이버)는 오픈 소스, 확장 및 고가용성 로드 밸런싱 공급자입니다. 필요에 따라 생성하는 amphorae라고 하는 가상 머신의 플릿을 관리하여 부하 분산 서비스를 제공합니다.

MariaDB

mariadb-operator

활성화됨

MariaDB Galera 클러스터를 배포하고 관리하는 방법을 제공합니다.

Memcached

infra-operator

활성화됨

인프라를 관리하는 방법을 제공합니다.

네트워킹(neutron)

neutron-operator

활성화됨

가상 컴퓨팅 환경에서 SDN(소프트웨어 정의 네트워킹)을 통해 NaaS(Network-as-a-Service)를 제공합니다. 네트워크, 서브넷 및 라우터를 포함하는 클라우드에서 가상 네트워킹 인프라의 생성 및 관리를 처리합니다.

Object Storage(swift)

swift-operator

활성화됨

비디오, 이미지, 이메일 메시지, 파일 또는 인스턴스 이미지와 같은 정적 엔터티를 포함하여 대량의 데이터를 효율적이고 영속적으로 저장할 수 있습니다. 오브젝트는 각 파일의 확장 속성에 저장된 메타데이터가 있는 기본 파일 시스템의 바이너리로 저장됩니다.

OVN

ovn-operator

활성화됨

OVN을 배포하고 관리하는 방법을 제공합니다.

오케스트레이션(heat)

heat-operator

비활성화됨

리소스 스택 자동 생성을 지원하는 템플릿 기반 오케스트레이션 엔진입니다. 스토리지, 네트워킹, 인스턴스 또는 애플리케이션과 같은 클라우드 리소스를 생성하고 관리하는 템플릿을 제공합니다. 템플릿을 사용하여 리소스 컬렉션인 스택을 생성할 수 있습니다.

배치(플레이)

placement-operator

활성화됨

OpenStack 배치 설치를 설치하고 관리하는 방법을 제공합니다.

Telemetry (ceilometer, prometheus)

telemetry-operator

활성화됨

RHOSO 클라우드에 대한 사용자 수준 사용 데이터를 제공합니다. 고객 청구, 시스템 모니터링 또는 알림에 데이터를 사용할 수 있습니다. Telemetry는 Compute 사용 이벤트와 같은 기존 RHOSO 구성 요소에서 전송한 알림에서 데이터를 수집하거나 libvirt와 같은 RHOSO 인프라 리소스를 폴링하여 데이터를 수집할 수 있습니다.

RabbitMQ

rabbitmq-cluster-operator

활성화됨

RabbitMQ 클러스터를 배포 및 관리하는 방법을 제공합니다.

공유 파일 시스템(manila)

manila-operator

비활성화됨

여러 가상 머신 인스턴스, 베어 메탈 노드 또는 컨테이너에서 사용할 수 있는 공유 파일 시스템을 프로비저닝합니다.

1.2. RHOSO 환경의 기능

OpenShift(RHOSO) 환경의 Red Hat OpenStack Services의 기본 아키텍처에는 다음과 같은 기능이 포함되어 있습니다.

컨테이너 네이티브 애플리케이션 제공
RHOSO는 Red Hat OCP(Red Hat OpenShift Container Platform) 및 RHEL 플랫폼에 걸쳐 있는 컨테이너 네이티브 접근 방식을 사용하여 컨테이너 네이티브 RHOSO 배포를 제공합니다.
Cryostat 호스팅 서비스
Cryostat는 Cryostat Operator를 사용하여 라이프사이클 관리를 제공하여 인프라 서비스 및 RHOSO 컨트롤러 서비스를 호스팅합니다.
Ansible 관리 RHEL 호스트 서비스
RHOSO 워크로드는 OpenStack Operator에서 관리하는 RHEL 노드에서 실행됩니다. OpenStack Operator는 Ansible 작업을 실행하여 컴퓨팅 노드와 같은 RHEL 데이터 플레인 노드를 구성합니다. Cryostat는 프로비저닝, DNS 및 구성 관리를 관리합니다.
설치 관리자 프로비저닝 인프라
RHOSO 설치 프로그램은 RHOSO 베어 메탈 머신 관리를 사용하는 설치 관리자 프로비저닝 인프라를 활성화하여 RHOSO 클라우드의 컴퓨팅 노드를 프로비저닝할 수 있습니다.
사용자 프로비저닝 인프라
자체 머신 수집 및 프로비저닝 워크플로우가 있는 경우 RHOSO 사전 프로비저닝된 모델을 사용하여 사전 프로비저닝된 하드웨어를 RHOSO 환경에 추가할 수 있으며 컨테이너 네이티브 워크플로의 이점을 받을 수 있습니다.
호스팅된 RHOSO 클라이언트
RHOSO는 배포된 RHOSO 환경에 대한 관리자 액세스 권한으로 사전 구성된 호스트 openstackclient Pod를 제공합니다.

1.3. RHOSO 18.0 알려진 제한 사항

다음 목록에는 OpenShift(RHOSO)에서 Red Hat OpenStack Services의 제한 사항이 자세히 설명되어 있습니다. 알려진 제한 사항은 RHOSO에서 지원되지 않는 기능입니다.

컴퓨팅 서비스(nova):

  • RHOSO 18.0에서는 오프 경로 네트워크 백엔드가 지원되지 않습니다. 자세한 내용은 Off-path Network 백엔드 와의 통합을 참조하십시오.
  • 정책 사용자 지정은 지원되지 않습니다. 사용자 지정 정책이 필요한 경우 지원 예외는 Red Hat에 문의하십시오.
  • RHOSO에서는 다음 패키지가 지원되지 않습니다.

    • nova-serialproxy
    • nova-spicehtml5proxy
  • 사용자 데이터를 가상 머신 인스턴스에 삽입하기 위한 특성 파일의 파일 주입. 이 문제를 해결하려면 --user-data 옵션을 사용하여 인스턴스 부팅 중에 스크립트를 실행하거나 인스턴스를 시작할 때 --property 옵션을 사용하여 인스턴스 메타데이터를 설정하여 인스턴스에 데이터를 전달할 수 있습니다. 자세한 내용은 사용자 지정 인스턴스 생성을 참조하십시오.
  • 인스턴스의 영구 메모리(vPMEM). NVDIMM 하드웨어가 있는 컴퓨팅 노드에서만 영구 메모리 네임스페이스를 생성할 수 있습니다. Red Hat은 2022년 7월 28일 Intel Corporation의 발표에 대응하여 RHOSP 17.0에서 영구 메모리에 대한 지원을 중단했으며, 이는 Intel® Optane™ 비즈니스에 대한 투자를 중단하고 있음을 의미합니다. 자세한 내용은 Intel® Optane™ Business Update: What does this means this meanranty and Support에서 참조하십시오.
  • 기본이 아닌 아키텍처의 QEMU 에뮬레이션.
  • LVM은 이미지 백엔드로 지원되지 않습니다.
  • ploop 이미지 형식은 지원되지 않습니다.
  • NFS 버전은 4보다 이전입니다.

Image 서비스(glance):

  • RHOSO는 하나의 아키텍처, x86_64만 지원합니다. RHOSO 클라우드에 대해 이 값을 설정해야 하는 유효한 사용 사례가 없으므로 모든 호스트는 x86_64가 됩니다.
  • NFS 버전은 4보다 이전입니다.

Block Storage 서비스(cinder):

  • Cinder 복제.
  • LVM 드라이버.
  • NFS 버전은 4보다 이전입니다.

이러한 기능에 대한 지원이 필요한 경우 Red Hat Customer Experience and Engagement 팀에 문의하여 해당하는 경우 지원 예외에 대해 논의하십시오.

1.4. RHOSO 환경에 지원되는 토폴로지

Red Hat OpenStack Services on OpenShift(RHOSO)는 컴팩트한 컨트롤 플레인 토폴로지 및 전용 노드 컨트롤 플레인 토폴로지를 지원합니다.

컴팩트 토폴로지에서 RHOSO 컨트롤 플레인과 RHOCP(Red Hat OpenShift Container Platform) 컨트롤 플레인은 동일한 물리적 노드를 공유합니다.

전용 노드 토폴로지에서 Cryostat 컨트롤 플레인은 하나의 물리적 노드 세트에서 실행되며 RHOSO 컨트롤 플레인은 다른 물리적 노드 세트에서 실행됩니다.

1.4.1. 컴팩트 토폴로지

컴팩트한 RHOSO 토폴로지는 기본값이며 다음 구성 요소로 구성됩니다.

OpenShift 컴팩트 클러스터

RHOSO와 Cryostat 컨트롤 플레인을 모두 호스팅하는 Red Hat OpenShift 클러스터입니다.

RHOSO 컨트롤 플레인은 Compute 서비스(nova), 네트워킹 서비스(neutron) 등과 같은 서비스로 구성된 OpenStack 컨트롤러 서비스 포드로 구성됩니다.

OpenShift 컨트롤 플레인은 OpenShift 서비스, Kubernetes 서비스, 네트워킹 구성 요소, Cluster Version Operator 및 etcd에 필요한 다음 서비스를 실행하는 Pod를 호스팅합니다.

자세한 내용은 Cryostat 아키텍처 가이드의 OpenShift Container Platform 소개를 참조하십시오.

RHOSO 데이터 플레인
RHOSO 데이터 플레인은 OpenStack 컴퓨팅 노드로 구성됩니다. 스토리지 전용 노드는 선택 사항입니다.

그림 1.1. 컴팩트 RHOSO 토폴로지

컴팩트 RHOSO 토폴로지

1.4.2. 전용 노드 토폴로지

전용 노드 RHOSO 토폴로지는 RHOSO 컨트롤 플레인용 별도의 노드 클러스터와 OpenShift 컨트롤 플레인용 별도의 노드 클러스터가 있다는 점에서 컴팩트 토폴로지와 다릅니다.

그림 1.2. 전용 노드 RHOSO 토폴로지

전용 노드 RHOSO 토폴로지

2장. 배포 계획

OpenShift(RHOSO) 환경에서 Red Hat OpenStack Services를 배포하고 운영하기 위해 RHOCP(Red Hat OpenShift Container Platform)에서 제공하는 툴과 컨테이너 인프라를 사용합니다.

Cryostat는 Operator의 모듈식 시스템을 사용하여 Cryostat 클러스터의 기능을 확장합니다. RHOSO OpenStack Operator(openstack-operator)는 Cryostat 내에서 RHOSO 컨트롤 플레인을 설치 및 실행하고 RHOSO 데이터 플레인의 배포를 자동화합니다. 데이터 플레인은 RHOSO 워크로드를 호스팅하는 노드 컬렉션입니다. OpenStack Operator는 RHOSO 서비스 및 워크로드를 호스팅하는 데 필요한 운영 체제 구성을 사용하여 노드를 준비합니다.

OpenStack Operator는 RHOSO 컨트롤 플레인 및 데이터 플레인 노드의 인프라 및 구성을 배포하고 관리하는 방법을 정의하는 CRD(Custom Resource Definitions) 세트를 관리합니다. Cryostat 호스팅 컨트롤 플레인을 사용하여 RHOSO 클라우드를 생성하려면 OpenStack Operator CRD를 사용하여 컨트롤 플레인과 데이터 플레인을 구성하는 CR(사용자 정의 리소스) 세트를 생성합니다.

2.1. 클라우드 인프라 배포 방법

Cryostat 호스팅 컨트롤 플레인을 사용하여 RHOSO 클라우드를 생성하려면 다음 작업을 완료해야 합니다.

  1. 운영 Cryostat 클러스터에 OpenStack Operator(openstack-operator)를 설치합니다.
  2. RHOSO 서비스에 대한 보안 액세스를 제공합니다.
  3. 컨트롤 플레인 네트워크를 생성하고 구성합니다.
  4. 데이터 플레인 네트워크를 생성하고 구성합니다.
  5. 환경에 사용할 컨트롤 플레인을 생성합니다.
  6. 환경에 대한 컨트롤 플레인을 사용자 지정합니다.
  7. 데이터 플레인 노드를 생성하고 구성합니다.
  8. 선택 사항: RHOSO 배포를 위한 스토리지 솔루션을 구성합니다.

workstation에서 컨트롤 플레인 설치 작업 및 모든 데이터 플레인 생성 작업을 수행합니다.

운영 Cryostat 클러스터에 OpenStack Operator(openstack-operator) 설치
RHOSO 관리자는 Cryostat 클러스터에 OpenStack Operator를 설치합니다. OpenStack Operator 설치 방법에 대한 자세한 내용은 OpenShift 배포 가이드에서 Operator 설치 및 준비를 참조하십시오.
RHOSO 서비스에 대한 보안 액세스 제공
RHOSO 서비스 Pod에 대한 보안 액세스를 제공하려면 Secret CR(사용자 정의 리소스)을 생성해야 합니다. 자세한 내용은 OpenShift 에 대한 Red Hat OpenStack Services 배포 가이드에서 Red Hat OpenStack Platform 서비스에 대한 보안 액세스 제공 에서 참조하십시오.
컨트롤 플레인 네트워크를 생성하고 구성
Cryostat Operator를 사용하여 RHOSO 컨트롤 플레인 네트워크에 대한 Cryostat 클러스터를 준비합니다. 자세한 내용은 OpenShift에서 Red Hat OpenStack Services 배포 가이드에서 RHOSP 네트워크 준비 에서 참조하십시오.
데이터 플레인 네트워크 생성 및 구성
Cryostat Operator를 사용하여 RHOSO 데이터 플레인 네트워크에 대한 Cryostat 클러스터를 준비합니다. 자세한 내용은 OpenShift에서 Red Hat OpenStack Services 배포 가이드의 데이터 플레인 네트워크 구성 참조하십시오.
환경에 대한 컨트롤 플레인 생성
각 서비스에 권장되는 구성을 사용하여 초기 컨트롤 플레인을 구성하고 생성합니다. 자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드의 컨트롤 플레인 생성 을 참조하십시오.
환경에 대한 컨트롤 플레인 사용자 정의
환경에 필요한 서비스를 사용하여 배포된 컨트롤 플레인을 사용자 지정할 수 있습니다. 자세한 내용은 OpenShift 배포 가이드 의 Red Hat OpenStack Services 사용자 지정 가이드의 컨트롤 플레인 사용자 지정을 참조하십시오.
데이터 플레인 노드 생성 및 구성
최소 기능을 사용하여 간단한 데이터 플레인을 구성하고 생성합니다. 자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드의 데이터 플레인 생성 을 참조하십시오.
환경에 대한 데이터 플레인 사용자 정의
환경에 필요한 기능 및 구성을 사용하여 배포된 데이터 플레인을 사용자 지정할 수 있습니다. 자세한 내용은 OpenShift 배포 가이드 의 Red Hat OpenStack Services 사용자 지정 가이드의 데이터 플레인 사용자 지정을 참조하십시오.
RHOSO 배포를 위한 스토리지 솔루션 구성
필요한 경우 RHOSO 배포에 대한 스토리지 솔루션을 구성할 수 있습니다. 자세한 내용은 영구 스토리지 구성 가이드를 참조하십시오.

2.2. CRD(사용자 정의 리소스 정의)

OpenStack Operator에는 RHOSP 리소스를 생성하고 관리하는 데 사용할 수 있는 일련의 CRD(사용자 정의 리소스 정의)가 포함되어 있습니다.

  • 다음 명령을 사용하여 RHOSP CRD의 전체 목록을 확인합니다.

    $ oc get crd | grep "^openstack"

  • 다음 명령을 사용하여 특정 CRD의 정의를 확인합니다.

    $ oc describe crd openstackcontrolplane
    Name:         openstackcontrolplane.openstack.org
    Namespace:
    Labels:       operators.coreos.com/operator.openstack=
    Annotations:  cert-manager.io/inject-ca-from: $(CERTIFICATE_NAMESPACE)/$(CERTIFICATE_NAME)
                  controller-gen.kubebuilder.io/version: v0.3.0
    API Version:  apiextensions.k8s.io/v1
    Kind:         CustomResourceDefinition
    ...
  • 다음 명령을 사용하여 특정 CRD를 구성하는 데 사용할 수 있는 필드에 대한 설명을 확인합니다.

    $ oc explain openstackcontrolplane.spec
    KIND:     OpenStackControlPlane
    VERSION:  core.openstack.org/v1beta1
    
    RESOURCE: spec <Object>
    
    DESCRIPTION:
         <empty>
    
    FIELDS:
       ceilometer   <Object>
       cinder       <Object>
       dns  <Object>
       extraMounts  <[]Object>
    ...

2.2.1. CRD 이름 지정 규칙

각 CRD에는 spec.names 섹션에 여러 이름이 포함되어 있습니다. 작업 컨텍스트에 따라 이러한 이름을 사용합니다.

  • 리소스 매니페스트를 생성하고 상호 작용할 때 kind 를 사용합니다.

    apiVersion: core.openstack.org/v1beta1
    kind: OpenStackControlPlane
    ...

    리소스 매니페스트의 종류 이름은 해당 CRD의 종류 이름과 관련이 있습니다.

  • 단일 리소스와 상호 작용할 때 단일 형식을 사용합니다.

    $ oc describe openstackcontrolplane/compute

3장. 시스템 요구 사항

RHOSO(Red Hat OpenStack Services on OpenShift) 배포를 계획하여 환경에 대한 시스템 요구 사항을 확인해야 합니다.

3.1. Red Hat OpenShift Container Platform 클러스터 요구 사항

OpenShift(RHOSO) 컨트롤 플레인에서 Red Hat OpenStack Services를 호스팅하는RHOCP(Red Hat OpenShift Container Platform) 클러스터의 최소 요구 사항은 다음과 같습니다.

하드웨어

  • 운영 사전 프로비저닝된 3-노드 compact 클러스터, 버전 4.16.
  • 컴팩트 클러스터의 각 노드에는 다음과 같은 리소스가 있어야 합니다.

    • 64GB RAM
    • 16개의 CPU 코어
    • 루트 디스크의 경우 120GB NVMe 또는 SSD와 250GB 스토리지 추가(NVMe 또는 SSD가 강력하게 권장됩니다)

      참고

      배포된 환경에서 실행되는 가상 머신 인스턴스의 이미지, 볼륨 및 루트 디스크는 전용 외부 스토리지 노드에서 호스팅됩니다. 그러나 서비스 로그, 데이터베이스 및 메타데이터는 PVC(영구 볼륨 클레임)에 저장됩니다. 테스트에 최소 150GB가 필요합니다.

    • 물리적 NIC 2개

      참고

      컨트롤러 3개와 작업자 3개가 있는 6-노드 클러스터에서는 작업자 노드만 2개의 물리적 NIC가 필요합니다.

  • 클러스터의 PVC(영구 볼륨 클레임) 스토리지:

    • 서비스 로그, 데이터베이스, 파일 가져오기 변환 및 메타데이터를 위한 150GB PV(영구 볼륨) 풀입니다.

      참고
      • RHOSO 워크로드를 기반으로 RHOSO Pod에 필요한 PV 풀의 크기를 계획해야 합니다. 예를 들어 이미지 서비스 이미지 변환 PVC는 변환 후 이미지 및 기타 동시 변환을 호스팅할 수 있을 만큼 충분히 커야 합니다. RHOSO 배포에서 Object Storage 서비스(swift)를 사용하는 경우 스토리지 요구 사항에 대해 유사한 고려 사항을 고려해야 합니다.
      • 이미지 서비스에 PV 풀이 필요하지만 실제 이미지는 Red Hat Ceph Storage 또는 SAN과 같은 이미지 서비스 백엔드에 저장됩니다.
    • 5GB의 사용 가능한 PV는 Galera, OVN 및 RabbitMQ 데이터베이스와 같은 컨트롤 플레인 서비스에 대해 로컬 SSD에서 지원해야 합니다.

소프트웨어

  • Cryostat 환경은 Multus CNI를 지원합니다.
  • 다음 Operator는 Cryostat 클러스터에 설치됩니다.

    • Kubernetes NMState Operator입니다. 이 Operator는 nmstate 인스턴스를 생성하여 시작해야 합니다. 자세한 내용은 Cryo stat 네트워킹 가이드의 Kubernetes NMState Operator 설치를 참조하십시오.
    • MetalLB Operator입니다. 이 Operator는 metallb 인스턴스를 생성하여 시작해야 합니다. 자세한 내용은 Cryo stat 네트워킹 가이드의 MetalLB Operator 설치를 참조하십시오.

      참고

      MetalLB Operator를 사용하여 MetalLB를 시작하면 Operator는 클러스터의 각 노드에서 speaker Pod 인스턴스를 시작합니다. 3 OCP 컨트롤러/마스터 및 3 OCP computes/workers와 같은 확장 아키텍처를 사용하는 경우 OCP 컨트롤러가 ctlplaneinternalapi 네트워크에 액세스할 수 없는 경우 speaker Pod를 OCP 컴퓨팅/작업자 노드로 제한해야 합니다. 발표자 Pod에 대한 자세한 내용은 발표자 Pod 제한을 특정 노드로 참조하십시오.

    • cert-manager Operator입니다. 자세한 내용은 Cryostat 보안 및 규정 준수 가이드의 cert-manager Operator for Red Hat OpenShift 를 참조하십시오.
    • Cluster Observability Operator입니다. 자세한 내용은 Cluster Observability Operator 설치를 참조하십시오.
    • CBO(Cluster Baremetal Operator)입니다. CBO는 베어 메탈 노드를 데이터 플레인 배포 프로세스의 일부로 프로비저닝하는 데 필요한 Bare Metal Operator(BMO) 구성 요소를 배포합니다. 베어 메탈 프로비저닝 계획에 대한 자세한 내용은 베어 메탈 데이터 플레인 노드에 대한 프로비저닝 계획을 참조하십시오.
  • 다음 툴은 클러스터 워크스테이션에 설치됩니다.

    • oc 명령줄 툴입니다.
    • podman 명령줄 툴입니다.
  • Cryostat 스토리지 백엔드가 구성되어 있습니다.
  • Cryostat 스토리지 클래스가 정의되며 ReadWriteOnce 유형의 영구 볼륨에 액세스할 수 있습니다.
  • 설치 관리자 프로비저닝 인프라의 경우 베어 메탈 프로비저닝과 함께 사용할 운영 체제 이미지를 준비해야 합니다. 다음 이미지를 베어 메탈 이미지로 사용할 수 있습니다. https://catalog.redhat.com/software/containers/rhel9/rhel-guest-image/6197bdceb4dcabca7fe351d5?container-tabs=overview

3.2. 데이터 플레인 노드 요구 사항

사전 프로비저닝된 노드 또는 프로비저닝된 베어 메탈 노드를 사용하여 데이터 플레인을 생성할 수 있습니다. 데이터 플레인 노드의 최소 요구 사항은 다음과 같습니다.

  • 사전 프로비저닝된 노드:

    • RHEL 9.4.
    • 데이터 플레인 생성 중에 생성된 SSH 키를 사용하여 SSH 액세스에 대해 구성됩니다. SSH 사용자는 root 이거나 무제한 및 암호 없는 sudo를 활성화해야 합니다. 자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드의 데이터 플레인 시크릿 생성 을 참조하십시오.
    • SSH를 통해 Ansible 액세스를 활성화하기 위해 컨트롤 플레인 네트워크에서 라우팅 가능한 IP 주소입니다.
중요

일부 네트워크 아키텍처에는 다음과 같은 네트워킹 기능이 필요할 수 있습니다.

  • RHOSP 격리된 네트워크용 Cryostat 작업자 노드의 전용 NIC입니다.
  • 포트 스위치는 격리된 필수 네트워크에 대해 VLAN을 전환합니다.

배포에 필요한 요구 사항이 있는지에 대해 Cryostat 및 네트워크 관리자에게 문의하십시오.

필수 격리된 네트워크에 대한 자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드의 기본 Red Hat OpenStack Platform 네트워크를 참조하십시오.

3.3. 컴퓨팅 노드 요구 사항

컴퓨팅 노드는 가상 머신 인스턴스가 시작된 후 이를 실행하는 역할을 합니다. 컴퓨팅 노드에는 하드웨어 가상화를 지원하는 베어 메탈 시스템이 필요합니다. 또한 호스트하는 가상 머신 인스턴스의 요구 사항을 지원하기에 충분한 메모리 및 디스크 공간이 있어야 합니다.

참고

Red Hat OpenStack Services on OpenShift (RHOSO) 18.0은 QEMU 아키텍처 에뮬레이션 사용을 지원하지 않습니다.

프로세서
Intel 64 또는 AMD64 CPU 확장 기능을 지원하고, AMD-V 또는 Intel VT 하드웨어 가상화 확장 기능이 활성화된 64비트 x86 프로세서. 이 프로세서에 최소 4개의 코어가 있는 것이 좋습니다.
메모리

호스트 운영 체제용 최소 6GB의 RAM과 다음과 같은 고려 사항에 맞게 추가 메모리를 추가합니다.

  • 가상 머신 인스턴스에서 사용할 수 있도록 추가 메모리를 추가합니다.
  • 추가 커널 모듈, 가상 스위치, 모니터링 솔루션 및 기타 추가 백그라운드 작업과 같은 호스트에서 특수 기능 또는 추가 리소스를 실행하는 메모리를 추가합니다.
  • NUMA(Non-Uniform Memory Access)를 사용하려면 256GB 이상의 물리적 RAM이 있는 경우 CPU 소켓 노드당 8GB 또는 소켓 노드당 16GB를 권장합니다.
  • 최소 4GB의 스왑 공간을 구성합니다.

컴퓨팅 노드 메모리 구성 계획에 대한 자세한 내용은 인스턴스 생성을 위한 컴퓨팅 서비스 구성 을 참조하십시오.

디스크 공간
최소 50GB의 사용 가능한 디스크 공간이 필요합니다.
네트워크 인터페이스 카드
최소 1개의 1Gbps 네트워크 인터페이스 카드가 필요합니다. 프로덕션 환경에서는 적어도 두 개 이상의 NIC를 사용하는 것이 좋습니다. 본딩된 인터페이스나 태그된 VLAN 트래픽 위임에는 추가 네트워크 인터페이스 카드를 사용하십시오.
플랫폼 관리
설치 관리자가 프로비저닝한 컴퓨팅 노드에는 서버 마더보드에서 IPMI(Intelligent Platform Management Interface) 기능과 같은 지원되는 플랫폼 관리 인터페이스가 필요합니다. 이 인터페이스는 사전 프로비저닝된 노드에는 필요하지 않습니다.

4장. 베어 메탈 데이터 플레인 노드 프로비저닝 계획

RHSM(Red Hat OpenStack Services on OpenShift) 데이터 플레인에서 사전 프로비저닝된 노드 또는 프로비저닝되지 않은 베어 메탈 노드를 사용할 수 있습니다.

  • 사전 프로비저닝된 노드: 데이터 플레인에 추가하기 전에 자체 툴링을 사용하여 노드에 운영 체제를 설치했습니다.
  • Unprovisioned node: 노드에 데이터 플레인에 추가하기 전에 운영 체제가 설치되어 있지 않습니다. 노드는 Red Hat OpenShift Container Platform (RHOCP) Cluster Baremetal Operator (CBO)를 데이터 플레인 생성 및 배포 프로세스의 일부로 사용하여 프로비저닝됩니다.

RHOSO 환경은 Metal3 에서 지원하는 모든 원격 하드웨어 관리 프로토콜 기술과 부팅 방법을 지원할 수 있습니다. 지원되는 하드웨어에 대한 자세한 내용은 Metal3 사용자 가이드의 지원되는 하드웨어를 참조하십시오. 그러나 Cryostat 클러스터를 설치하는 데 사용한 설치 방법은 RHOSO 환경에서 사용할 수 있는 기술 및 부팅 방법을 제한합니다.

Cryostat 설치 방법은 CBO의 가용성과 프로비저닝 네트워크를 만드는 기능을 결정합니다. 이 네트워크는 베어 메탈 데이터 플레인 노드를 프로비저닝하기 위해 RHOSO 배포에서 사용할 수 있는 기술 및 부팅 방법을 결정합니다. 따라서 베어 메탈 데이터 플레인 노드를 프로비저닝하는 데 필요한 기술 및 부팅 방법이 지원되도록 RHOSO 배포를 계획해야 합니다.

참고

iPXE 부팅이 아닌 가상 미디어로 프로비저닝할 것을 권장합니다. iPXE 부팅은 사용자 Cryostat 클러스터에서 사용할 수 없기 때문입니다.

4.1. Red Hat OpenShift Container Platform 설치 고려 사항

Cryostat 클러스터를 설치하는 데 사용되는 방법은 CBO(Cluster Baremetal Operator)의 가용성과 provisioning 네트워크를 생성하는 기능을 결정합니다. 네트워크 부팅에는 provisioning 네트워크가 필요합니다.

지원되는 설치 관리자
지원 설치 프로그램으로 설치된 클러스터에서 CBO를 활성화할 수 있으며 설치 후 네트워크 부팅 배포의 provisioning 네트워크를 지원 설치 후 수동으로 추가할 수 있습니다.
베어 메탈에 설치 관리자 프로비저닝 인프라

CBO는 베어 메탈 설치 관리자 프로비저닝 인프라와 함께 설치된 Cryostat 클러스터에서 기본적으로 활성화됩니다. 가상 미디어 및 네트워크 부팅 설치를 모두 사용하도록 provisioning 네트워크로 설치 관리자 프로비저닝 클러스터를 구성할 수 있습니다.

참고
  • provisioning 네트워크없이 설치 관리자 프로비저닝 클러스터를 구성하는 경우 가상 미디어 프로비저닝만 사용할 수 있습니다.
  • 베어 메탈이 아닌 플랫폼에 IPI를 사용하여 Cryostat를 설치한 경우 클러스터에 CBO를 활성화하는 기능이 없을 수 있습니다. 베어 메탈이 아닌 플랫폼에 Cryostat를 설치하는 방법에 대한 자세한 내용은 Cryostat 설치 가이드를 참조하십시오.

베어 메탈의 설치 관리자 프로비저닝 클러스터에 대한 자세한 내용은 베어 메탈 가이드에 설치 관리자 프로비저닝 클러스터 배포를 참조하십시오.

사용자 프로비저닝 인프라

Provisioning CR을 생성하여 사용자 프로비저닝 인프라와 함께 설치된 Cryostat 클러스터에서 CBO를 활성화할 수 있습니다.

참고

사용자 프로비저닝 클러스터에 프로비저닝 네트워크를 추가할 수 없습니다. 즉, 사용자 프로비저닝 인프라와 함께 설치된 Cryostat 클러스터에서 PXE 네트워크 부팅을 활성화할 수 없습니다. 사용자 프로비저닝 인프라로 설치된 Cryostat 클러스터에서 가상 미디어를 사용하여 베어 메탈 데이터 플레인 노드만 프로비저닝할 수 있습니다.

프로비저닝 CR을 생성하는 방법에 대한 자세한 내용은 베어 메탈 설치 가이드에서 Bare Metal Operator를 사용하여 사용자 프로비저닝 클러스터 스케일링을 참조하십시오.

4.2. Bare Metal Operator(BMO)

데이터 플레인의 베어 메탈 노드는 Red Hat OpenShift Container Platform (RHOCP) Cluster Baremetal Operator (CBO)에서 지원됩니다. CBO는 BMO( Bare Metal Operator) 및 Ironic 컨테이너를 포함하여 Cryostat 클러스터에 베어 메탈 노드를 프로비저닝하는 데 필요한 구성 요소를 배포합니다.

BMO는 클러스터에서 사용 가능한 호스트를 관리하고 다음 작업을 수행합니다.

  • 노드 하드웨어 세부 정보를 검사하고 해당 BareMetalHost CR에 보고합니다. 여기에는 CPU, RAM, 디스크, NIC에 대한 정보가 포함됩니다.
  • 특정 이미지로 노드를 프로비저닝합니다.
  • 프로비저닝 전후에 노드 디스크 콘텐츠를 정리합니다.

Bare Metal Operator 및 BareMetalHost CR 구성 방법에 대한 자세한 내용은 Cryostat Postinstallation 구성 가이드에서 베어 메탈 구성 을 참조하십시오.

5장. 네트워크 계획

RHOSO를 배포하기 전에 네트워킹 요구 사항 및 전체 환경을 인벤토리하여 네트워크 설계 결정에 알립니다.

5.1. 기본 물리적 네트워크

다음 물리적 데이터 센터 네트워크는 일반적으로 OpenShift(RHOSO)의 Red Hat OpenStack Services에 대해 구현됩니다.

  • 컨트롤 플레인 네트워크
  • 외부 네트워크(선택 사항)
  • 내부 API 네트워크
  • 스토리지 네트워크
  • 테넌트(프로젝트) 네트워크
  • 스토리지 관리 네트워크(선택 사항)

자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드의 OpenShift 네트워크에서 기본 Red Hat OpenStack Services 를 참조하십시오.

5.2. RHOSO 네트워크 격리

배포에서 특정 유형의 네트워크 트래픽을 격리하여 호스팅하는 방법을 계획해야 합니다. 여기에는 계획 IP 범위, 서브넷 및 가상 IP, NIC 레이아웃 구성이 포함됩니다.

RHOSO(Red Hat OpenStack Services on OpenShift) 컨트롤 플레인 서비스는 RHOCP(Red Hat OpenShift Container Platform) 워크로드로 실행됩니다. 컨트롤 플레인에서 NMState Operator를 사용하여 작업자 노드를 필요한 격리된 네트워크에 연결합니다. 서비스 Pod를 격리된 네트워크에 연결할 각 격리된 네트워크마다 NetworkAttachmentDefinition (nad) 사용자 정의 리소스(CR)를 생성합니다. MetalLB Operator를 사용하여 격리된 네트워크에 내부 서비스 끝점을 노출합니다. 기본적으로 공용 서비스 끝점은 Cryostat 경로로 노출됩니다.

또한 VIP의 발표 방법을 정의하는 L2Advertisement 리소스와 VIP로 사용할 수 있는 IP를 구성하는 IpAddressPool 리소스를 생성해야 합니다. 계층 2 모드에서 한 노드는 로컬 네트워크에 서비스를 알리는 책임이 있다고 가정합니다.

자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드에서 RHOSO 네트워크 격리 준비를 참조하십시오.

데이터 플레인 네트워크를 생성하려면 NetConfig CR(사용자 정의 리소스)을 정의하고 데이터 플레인 네트워크의 모든 서브넷을 지정합니다. 데이터 플레인에 대해 하나 이상의 컨트롤 플레인 네트워크를 정의해야 합니다. VLAN 네트워크를 정의하여 구성 가능 네트워크(예: InternalAPI, Storage, External)에 대한 네트워크 격리를 생성할 수도 있습니다. 각 네트워크 정의에는 IP 주소 할당이 포함되어야 합니다.

자세한 내용은 OpenShift에 Red Hat OpenStack Services 배포 가이드에서 데이터 플레인 네트워크 생성 을 참조하십시오.

5.3. NIC

컴팩트한 RHOSO 배포에는 각 RHOSO 컨트롤 플레인 작업자 노드에 두 개 이상의 NIC가 필요합니다.

각 작업자 노드의 NIC 1개가 OpenShift를 제공합니다. OpenShift 클러스터 네트워크의 OpenShift 구성 요소 간 연결을 제공합니다.

다른 NIC는 OpenStack을 제공합니다. 작업자 노드에서 실행되는 OpenStack 서비스를 RHOSO 데이터 플레인의 격리된 네트워크에 연결합니다.

5.3.1. NIC 및 스케일링 고려 사항

네트워크 요구 사항은 환경 및 비즈니스 요구 사항에 따라 다릅니다. 예를 들어 다음과 같은 네트워킹 기능이 필요할 수 있습니다.

  • 특정 RHOSP 격리된 네트워크에 대해 Cryostat 작업자 노드의 전용 NIC입니다.
  • 포트 스위치는 격리된 필수 네트워크에 대해 VLAN을 전환합니다.

배포에 필요한 요구 사항이 있는지에 대해 Cryostat 및 네트워크 관리자에게 문의하십시오. 각 컴퓨팅 노드에는 NIC가 하나 이상 필요합니다. 격리된 네트워크에 대한 연결을 제공하도록 확장할 수 있습니다.

5.4. 스토리지 네트워크 계획 고려 사항

자세한 내용은 이 가이드의 스토리지 네트워크를 참조하십시오.

5.5. NFV(네트워크 기능 가상화)

NFV(네트워크 기능 가상화)는 통신 서비스 공급자(CSP)가 기존의 독점 하드웨어를 넘어 이동하도록 지원하여 효율성과 민첩성을 높이고 운영 비용을 절감할 수 있도록 지원하는 소프트웨어 기반 솔루션입니다.

RHSM(Red Hat OpenStack Services on OpenShift) 환경에서 NFV를 사용하면 표준 가상화 기술을 사용하여 스위치, 라우터 및 스토리지와 같은 하드웨어 장치에서 실행되는 네트워크 기능(VNF)을 가상화하는 가상화된 인프라를 제공하여 IT 및 네트워크 통합이 가능합니다. NFV 환경은 DPDK(Data Plane Development Kit) 및 SR-IOV(Single Root I/O Virtualization) 기술을 활용하여 패킷 처리 속도를 향상시킵니다.

NFV 배포를 선택하는 경우 OpenShift에 Red Hat OpenStack Services를 배포하는 대신 Deploying a Network Functions Virtualization 환경을 배포 가이드로 사용해야 합니다.

5.6. RHOSO 네트워크 계획을 위한 추가 리소스

6장. OpenShift의 Red Hat OpenStack Services에 대한 연방 정보 처리 표준

FIPS(Federal Information Processing Standards)는 NIST(National Institute of Standards and Technology)에서 개발한 일련의 보안 요구 사항입니다. Red Hat Enterprise Linux 9에서 지원되는 표준은 FIPS 게시 140-3: 암호화 모듈에 대한 보안 요구 사항입니다. 지원되는 표준에 대한 자세한 내용은 연방 정보 처리 표준 발행 140-3 를 참조하십시오.

FIPS 140-3 검증 암호화 모듈은 NIST CMVP 프로세스를 완료하고 NIST에서 인증서를 수신한 암호화 라이브러리입니다. Red Hat FIPS 140 검증 모듈에 대한 최신 정보는 규정 준수 활동 및 정부 표준을 참조하십시오.

RHOSO가 FIPS 활성화된 RHOCP(Red Hat OpenShift Container Platform) 클러스터에 설치된 경우 FIPS는 OpenShift의 Red Hat OpenStack Services on OpenShift (RHOSO)에서 기본적으로 활성화됩니다. Cryostat의 초기 설치 시 FIPS를 활성화해야 합니다. FIPS 모드에서 Cryostat 클러스터를 설치하는 방법에 대한 자세한 내용은 FIPS 모드에서 클러스터 설치를 참조하십시오.

시스템 전체 암호화 정책인 FIPS 140 모드인 RHEL 및 CoreOS는 코어 암호화 모듈 및 라이브러리 사용을 FIPS 검증으로 제한하도록 설계되었습니다. 그러나 paramiko는 코드로 암호화 기능을 구현하며 FIPS 검증되지 않았습니다. RHOSO 핵심 구성 요소는 paramiko를 호출하지 않는 한 FIPS 검증을 위해 NIST에 제출된 RHEL 암호화 라이브러리를 사용합니다.

6.1. OpenShift 컨트롤 플레인에 FIPS가 활성화된 Red Hat OpenStack Services 설치 준비

OpenShift(RHOSO) 컨트롤 플레인에 Red Hat OpenStack Services를 설치하기 전에 iscsi.conf 를 수정하여 MD5 및 SHA1을 제거해야 합니다. 컨트롤 플레인의 iSCSId 구성은 RHOSO 운영자가 처리하지 않으므로 Red Hat OpenShift Container Platform (RHOCP) 클러스터에서 이 단계를 완료해야 합니다.

사전 요구 사항

  • FIPS가 활성화된 기존 Cryostat 클러스터가 있어야 합니다. Cryostat의 FIPS에 대한 자세한 내용은 FIPS 암호화 지원을 참조하십시오.

프로세스

  • 각 노드에서 /etc/iscsi/iscsi.conf 파일의 node.session.auth.chap_algs 값이 SHA3-256,SHA256 으로 설정되어 있는지 확인합니다.

6.2. FIPS 상태 확인

FIPS 또는 배포된 작업자 노드의 상태를 확인할 수 있습니다.

프로세스

  1. cluster-admin 권한이 있는 계정을 사용하여 RHOCP(Red Hat OpenShift Container Platform) 클러스터에 로그인합니다.
  2. 클러스터의 노드 목록을 가져옵니다.

    $ oc get nodes

    출력 예:

    NAME  	STATUS   ROLES              	AGE	VERSION
    master1   Ready	control-plane,master   7d1h   v1.28.6+6216ea1
    master2   Ready	control-plane,master   7d1h   v1.28.6+6216ea1
    master3   Ready	control-plane,master   7d1h   v1.28.6+6216ea1
    worker1   Ready	worker             	7d1h   v1.28.6+6216ea1
    worker2   Ready	worker             	7d1h   v1.28.6+6216ea1
    worker3   Ready	worker
  3. 이전 단계의 출력에 표시된 노드 중 하나에서 디버그 Pod를 엽니다.

    $ oc debug node/worker2

    출력 예:

    Temporary namespace openshift-debug-rq2m8 is created for debugging node...
    Starting pod/worker2-debug-5shqt ...
    To use host binaries, run `chroot /host`
    Pod IP: 192.168.50.112
    If you don't see a command prompt, try pressing enter.
    sh-5.1#
  4. /proc에서 fips_enabled 확인

    sh-5.1# cat /proc/sys/crypto/fips_enabled

    출력 예. 1 이 비활성화된 경우 0 에 대해 표시됩니다.

    1

FIPS 모드에서 Red Hat OpenShift Cluster Platform을 설치하는 방법에 대한 자세한 내용은 Cryostat 설치 가이드에서 FIPS 암호화 지원을 참조하십시오.

7장. 스토리지 및 공유 파일 시스템 계획

Red Hat OpenStack Services on OpenShift(RHOSO)는 배포 요구 사항을 서비스하는 데 임시 및 영구 스토리지를 사용합니다.

임시 스토리지는 특정 컴퓨팅 인스턴스와 연결됩니다. 이 인스턴스가 종료되면 연결된 임시 스토리지가 됩니다. 임시 스토리지는 인스턴스의 운영 체제 저장과 같은 런타임 요구 사항에 유용합니다.

영구 스토리지는 실행 중인 모든 인스턴스와 독립적입니다. 영구 스토리지는 데이터 볼륨, 디스크 이미지, 공유 가능한 파일 시스템과 같은 재사용 가능한 데이터를 저장하는 데 유용합니다.

배포를 시작하기 전에 배포 스토리지 요구 사항을 고려하고 신중하게 계획해야 합니다. 여기에는 다음과 같은 고려 사항이 포함됩니다.

  • 지원되는 기능 및 토폴로지
  • 스토리지 기술
  • 네트워킹
  • 확장성
  • 접근성
  • 성능
  • 비용
  • 보안
  • 중복 및 재해 복구
  • 스토리지 관리

7.1. 지원되는 스토리지 기능 및 토폴로지

RHOSO는 다음 스토리지 및 네트워킹 기능을 지원합니다.

  • Red Hat Ceph Storage 통합:

    • 영구 스토리지, 이미지 서비스(glance) 및 임시 저장을 위한 Compute 서비스(nova)를 위한 Block Storage 서비스(cinder)를 사용하는 Ceph 블록 장치(RBD)입니다.
    • Shared File Systems 서비스(manila)를 사용한 Ceph 파일 시스템(Native CephFS 또는 NFS를 통한 CephFS).
    • Ceph Object Gateway(RGW)와 오브젝트 스토리지 서비스 통합
    • 하이퍼컨버지드 인프라(HCI): 하이퍼컨버지드 인프라는 하이퍼컨버지드 노드로 구성됩니다. 하이퍼컨버지드 노드는 최적화된 하드웨어 풋프린트를 위해 컴퓨팅 및 Red Hat Ceph Storage 서비스가 동일한 노드에 배치된 외부 데이터 플레인 노드입니다.
  • 적절한 구성 및 드라이버를 포함하는 블록 스토리지 서비스의 전송 프로토콜:

    • TCP를 통한 NVMe
    • RBD
    • NFS
    • FC

      참고

      블록 스토리지 서비스 및 파이버 채널(FC) 백엔드를 사용하는 모든 배포의 모든 Compute 및 OCP 작업자 노드에 HBA(Host Bus Adapter)를 설치해야 합니다.

    • iSCSI
  • TCP를 통한 iSCSI, FC 및 NVMe를 사용한 멀티패스는 적절한 Cryostat MachineConfig가 있는 컨트롤 플레인에서 사용할 수 있습니다.
  • 적절한 구성 및 드라이버를 사용하여 공유 파일 시스템 서비스의 전송 프로토콜:

    • CephFS
    • NFS
    • CIFS
  • 기본 Swift 또는 Amazon S3 호환 API를 통한 오브젝트 스토리지

RHOSO는 다음 스토리지 서비스를 지원합니다.

서비스백엔드

Image 서비스(glance)

  • Red Hat Ceph Storage RBD
  • Block Storage(cinder)
  • Object Storage(swift)
  • NFS

컴퓨팅 서비스(nova)

  • 로컬 파일 스토리지
  • Red Hat Ceph Storage RBD

Block Storage 서비스(cinder)

  • Red Hat Ceph Storage RBD
  • 파이버 채널
  • iSCSI
  • NFS
  • TCP를 통한 NVMe
참고

지원은 타사 드라이버를 통해 제공됩니다.

공유 파일 시스템 서비스(manila)

  • Red Hat Ceph Storage CephFS
  • Red Hat Ceph Storage CephFS-NFS
  • 타사 벤더 스토리지 시스템을 통한 NFS 또는 CIFS

Object Storage 서비스(swift)

  • 외부 데이터 플레인 노드의 디스크
  • OpenShift 노드의 영구 볼륨(PV)(기본값)
  • Ceph RGW와 통합

프로젝트별 시스템 리소스 사용을 관리하기 위해 Block Storage 서비스(cinder) 및 Shared File Systems 서비스(manila)에 대한 할당량을 구성할 수 있습니다. 개별 프로젝트에 다른 사용 제한이 있도록 기본 할당량을 덮어쓸 수 있습니다.

7.2. 스토리지 기술

RHOSO는 별도로 또는 조합하여 배포에 스토리지 솔루션을 제공할 수 있는 다양한 스토리지 기술을 지원합니다.

7.2.1. Red Hat Ceph Storage

Red Hat Ceph Storage는 성능, 안정성 및 확장성을 위해 설계된 분산 데이터 오브젝트 저장소입니다. 분산 오브젝트 저장소는 구조화되지 않은 데이터를 사용하여 최신 및 기존 오브젝트 인터페이스를 동시에 서비스합니다. 블록, 파일 및 오브젝트 스토리지에 대한 액세스를 제공합니다.

Red Hat Ceph Storage는 클러스터로 배포됩니다. 클러스터는 두 가지 기본 유형의 데몬으로 구성됩니다.

  • Ceph OSD(오브젝트 스토리지 데몬) - CephOSD는 데이터 스토리지, 데이터 복제, 재조정, 복구, 모니터링 및 보고 작업을 수행합니다.
  • Ceph Monitor(CephMon) - CephMon은 클러스터 맵의 기본 사본을 클러스터의 현재 상태로 유지 관리합니다.

RHOSO는 다음 배포 시나리오에서 Red Hat Ceph Storage 7을 지원합니다.

  • 외부적으로 배포된 Red Hat Ceph Storage 7 클러스터와의 통합.
  • 최적화된 리소스 사용을 위해 컴퓨팅 및 Red Hat Ceph Storage 서비스가 동일한 노드에 배치된 외부 데이터 플레인 노드로 구성된 HCI(하이퍼 컨버지드 인프라) 환경.
참고

Red Hat OpenStack Services on OpenShift(RHOSO) 18.0은 Red Hat Ceph Storage Object Gateway(RGW)를 사용한 삭제 코딩을 지원합니다. Red Hat Ceph Storage Block Device(RDB)를 사용한 삭제 코딩은 현재 지원되지 않습니다.

Red Hat Ceph Storage 아키텍처에 대한 자세한 내용은 Red Hat Ceph Storage 7 아키텍처 가이드를 참조하십시오.

7.2.2. 블록 스토리지(cinder)

Block Storage 서비스(cinder)를 사용하면 사용자가 백엔드에 블록 스토리지 볼륨을 프로비저닝할 수 있습니다. 사용자는 볼륨을 인스턴스에 연결하여 임시 스토리지를 범용 영구 스토리지로 보강할 수 있습니다. 볼륨을 인스턴스에 분리하고 다시 연결할 수 있지만 연결된 인스턴스를 통해서만 이러한 볼륨에 액세스할 수 있습니다.

임시 스토리지를 사용하지 않도록 인스턴스를 구성할 수도 있습니다. 임시 스토리지를 사용하는 대신 볼륨에 이미지를 작성하도록 블록 스토리지 서비스를 구성할 수 있습니다. 그런 다음 볼륨을 인스턴스의 부팅 가능한 루트 볼륨으로 사용할 수 있습니다. 볼륨은 백업 및 스냅샷을 통해 고유한 중복 및 재해 복구 기능도 제공합니다. 그러나 백업은 선택적 Block Storage 백업 서비스를 배포하는 경우에만 제공됩니다. 또한 보안을 강화하기 위해 볼륨을 암호화할 수 있습니다.

7.2.3. 이미지 (glance)

Image 서비스(glance)는 인스턴스 이미지에 대한 검색, 등록 및 전달 서비스를 제공합니다. 또한 복제 또는 복원을 위해 인스턴스 임시 디스크의 스냅샷을 저장하는 기능도 제공합니다. 저장된 이미지를 템플릿으로 사용하여 서버 운영 체제를 설치하고 개별적으로 서비스를 구성하는 것보다 새 서버를 빠르고 일관되게 위임할 수 있습니다.

7.2.4. Object Storage(swift)

Object Storage 서비스(swift)는 미디어 파일, 대규모 데이터 세트 및 디스크 이미지와 같은 모든 종류의 정적 데이터 또는 바이너리 오브젝트를 저장하는 데 사용할 수 있는 완전한 배포 스토리지 솔루션을 제공합니다. 오브젝트 스토리지 서비스는 파일 시스템의 디렉터리와 유사하지만 중첩될 수 없는 오브젝트 컨테이너를 사용하여 오브젝트를 구성합니다. 오브젝트 스토리지 서비스를 클라우드에서 거의 모든 서비스에 대한 리포지토리로 사용할 수 있습니다.

Red Hat Ceph Storage RGW는 Object Storage 서비스의 대안으로 사용할 수 있습니다.

7.2.5. 공유 파일 시스템(manila)

Shared File Systems 서비스(manila)는 원격의 공유 가능한 파일 시스템을 프로비저닝할 수 있는 수단을 제공합니다. 이를 공유라고 합니다. 공유를 사용하면 클라우드의 프로젝트를 POSIX 호환 스토리지를 공유할 수 있으며 여러 인스턴스에서 동시에 사용할 수 있습니다.

공유는 인스턴스 사용에 사용되며, 읽기/쓰기 액세스 모드를 사용하여 여러 인스턴스에서 동시에 사용할 수 있습니다.

7.3. 스토리지 네트워크

두 개의 기본 스토리지 관련 네트워크는 RHOSO 설치 중에 구성됩니다. 스토리지 및 스토리지 관리 네트워크입니다. 이러한 격리된 네트워크는 스토리지 구성 요소와 배포 간 네트워크 연결에 대한 모범 사례를 따릅니다.

스토리지 네트워크는 데이터 스토리지 액세스 및 검색에 사용됩니다.

스토리지 관리 네트워크는 관리 콘솔에 액세스할 수 있는 스토리지 솔루션의 특정 인터페이스에 액세스할 수 있도록 RHOSO 서비스에서 사용합니다. 예를 들어 Red Hat Ceph Storage는 HCI(하이퍼 컨버지드 인프라) 환경에서 스토리지 관리 네트워크를 cluster_network로 사용하여 데이터를 복제합니다.

다음 표에는 기본 스토리지 관련 네트워크의 속성이 나열되어 있습니다.

네트워크 이름VLANCIDRnetconfig allocationRangeMetalLB IPAddressPool rangeCryostatD ipam 범위OCP 작업자 nncp 범위

storage

21

172.18.0.0/24

172.18.0.100 - 172.18.0.250

해당 없음

172.18.0.30 - 172.18.0.70

172.18.0.10 - 172.18.0.20

storageMgmt

23

172.20.0.0/24

172.20.0.100 - 172.20.0.250

해당 없음

172.20.0.30 - 172.20.0.70

172.20.0.10 - 172.20.0.20

스토리지 솔루션에는 추가 네트워크 구성이 필요할 수 있습니다. 이러한 기본값은 전체 배포를 구축하기 위한 기반을 제공합니다.

백엔드(cinder-volumecinder-backup)가 있는 모든 블록 스토리지 서비스에는 백엔드에 따라 스토리지 관리 네트워크가 포함되지 않을 수 있습니다. 백엔드가 있는 블록 스토리지 서비스는 스토리지 관리 네트워크에만 액세스해야 합니다. 대부분의 배포에는 단일 관리 네트워크가 있지만 스토리지 관리 네트워크가 여러 개인 경우 각 서비스 지원 엔드 쌍은 해당 관리 네트워크에 대한 액세스 권한만 있으면 됩니다.

블록 스토리지 서비스 및 파이버 채널(FC) 백엔드를 사용하는 배포의 모든 OCP 작업자 노드에 호스트 버스 어댑터(HBA)를 설치해야 합니다.

7.3.1. 블록 스토리지 서비스에 대한 네트워킹 계획

스토리지 모범 사례는 두 개의 다른 네트워크를 사용하는 것이 좋습니다.

  • 데이터 I/O 네트워크 1개
  • 스토리지 관리를 위한 하나의 네트워크

이러한 네트워크를 스토리지스토리지라고 합니다. 배포가 두 네트워크의 아키텍처와 다른 경우 필요에 따라 문서화된 예제를 조정합니다. 예를 들어 스토리지 시스템의 관리 인터페이스가 스토리지 네트워크에서 사용 가능한 경우 storage Mgmt를 하나의 네트워크만 있는 경우 storageMgmt 를 스토리지로 교체하고 스토리지 네트워크가 이미 있는 경우 storageMgmt 를 제거합니다.

Object Storage 서비스(swift)를 제외하고 OpenShift의 Red Hat OpenStack Services의 스토리지 서비스는 스토리지 및 스토리지 Mgmt 네트워크에 액세스해야 합니다. OpenStackControlPlane CR의 networkAttachments 필드에서 storagestorageMgmt 네트워크를 구성할 수 있습니다. networkAttachments 필드는 구성 요소가 액세스해야 하는 모든 네트워크가 포함된 문자열 목록을 허용합니다. 예를 들어 Block Storage 서비스(cinder) API 구성 요소에는 스토리지 네트워크에 액세스할 필요가 없는 다양한 네트워크 요구 사항이 있을 수 있습니다.

다음 예제에서는 블록 스토리지 볼륨의 networkAttachments 를 보여줍니다.

apiVersion: core.openstack.org/v1beta1
kind: OpenStackControlPlane
metadata:
  name: openstack
spec:
  cinder:
    template:
      cinderVolumes:
        iscsi:
          networkAttachments:
          - storage
          - storageMgmt

7.3.2. 공유 파일 시스템 서비스에 대한 네트워킹 계획

클라우드에서 네트워킹을 계획하여 클라우드 사용자가 OpenShift(RHOSO) 가상 머신, 베어 메탈 서버 및 컨테이너에서 실행되는 워크로드에 공유를 연결할 수 있도록 합니다.

클라우드 사용자에게 필요한 보안 및 격리 수준에 따라 driver_handles_share_servers 매개변수(DHSS)를 true 또는 false 로 설정할 수 있습니다.

7.3.2.1. DHSS를 true로 설정

DHSS 매개변수를 true 로 설정하면 공유 파일 시스템 서비스를 사용하여 분리된 공유 서버가 있는 최종 사용자 정의 공유 네트워크로 공유를 내보낼 수 있습니다. 사용자는 자체 워크로드를 셀프 서비스 공유 네트워크에 프로비저닝하여 격리된 NAS 파일 서버가 전용 네트워크 세그먼트에서 공유를 내보내도록 할 수 있습니다.

프로젝트 관리자는 격리된 네트워크를 매핑하는 물리적 네트워크가 스토리지 인프라로 확장되는지 확인해야 합니다. 또한 사용 중인 스토리지 시스템이 네트워크 세그먼트를 지원하는지 확인해야 합니다. NetApp ONTAP 및 Dell EMC PowerMax, Unity 및 VNX와 같은 스토리지 시스템은 GENEVE 또는 VXLAN과 같은 가상 오버레이 분할 스타일을 지원하지 않습니다.

오버레이 네트워킹의 대안으로 다음 중 하나를 수행할 수 있습니다.

  • 프로젝트 네트워크에 VLAN 네트워킹을 사용합니다.
  • 공유 공급자 네트워크에서 VLAN 세그먼트를 허용합니다.
  • 이미 스토리지 시스템에 연결된 기존 세그먼트 네트워크에 대한 액세스를 제공합니다.
7.3.2.2. DHSS를 false로 설정

DHSS 매개변수를 false 로 설정하면 클라우드 사용자가 자체 공유 네트워크에서 공유를 생성할 수 없습니다. 전용 공유 스토리지 네트워크를 생성할 수 있으며 클라우드 사용자는 공유 영역에 액세스하려면 해당 클라이언트를 구성된 네트워크에 연결해야 합니다.

모든 공유 파일 시스템 스토리지 드라이버가 DHSS=trueDHSS=false 를 모두 지원하는 것은 아닙니다. DHSS=trueDHSS=false 모두 데이터 경로 멀티 테넌시 격리를 보장합니다. 그러나 테넌트 워크로드에 대한 네트워크 경로 멀티 테넌시 격리가 셀프 서비스 모델의 일부로 필요한 경우 DHSS=true 를 지원하는 백엔드와 함께 Shared File Systems 서비스(manila)를 배포해야 합니다.

7.3.2.3. 공유에 대한 네트워크 연결 확인

파일 공유에 연결하려면 클라이언트가 해당 공유에 대한 하나 이상의 내보내기 위치에 네트워크 연결이 있어야 합니다.

관리자가 공유 유형에 대해 driver_handles_share_servers 매개변수(DHSS)를 true 로 설정하면 클라우드 사용자가 Compute 인스턴스가 연결되는 네트워크의 세부 정보를 사용하여 공유 네트워크를 생성할 수 있습니다. 그러면 공유를 생성할 때 클라우드 사용자가 공유 네트워크를 참조할 수 있습니다.

관리자가 공유 유형에 대한 DHSS 매개변수를 false 로 설정하면 클라우드 사용자가 Red Hat OpenStack Services on OpenShift(RHOSO) 배포에 대해 구성된 공유 스토리지 네트워크에 Compute 인스턴스를 연결해야 합니다. 공유 네트워크에 대한 네트워크 연결을 구성하고 유효성을 검사하는 방법에 대한 자세한 내용은 공유 네트워크에 연결하여 스토리지 작업 수행 의 공유에 액세스 합니다.

7.4. 확장성 및 백엔드 스토리지

일반적으로 클러스터형 스토리지 솔루션은 백엔드 확장성 및 복원력을 향상시킵니다. 예를 들어 Red Hat Ceph Storage를 Block Storage(cinder) 백엔드로 사용하는 경우 더 많은 Ceph Object Storage Daemon(OSD) 노드를 추가하여 스토리지 용량 및 중복성을 확장할 수 있습니다. 블록 스토리지, Object Storage(swift) 및 Shared File Systems Storage(manila) 서비스는 Red Hat Ceph Storage를 백엔드로 지원합니다.

블록 스토리지 서비스는 여러 스토리지 솔루션을 개별 백엔드로 사용할 수 있습니다. 서비스 수준에서 더 많은 백엔드를 추가하여 용량을 확장할 수 있습니다.

기본적으로 Object Storage 서비스는 OpenShift 기본 인프라에서 영구 볼륨을 할당하여 공간을 사용합니다. 전용 스토리지 노드에서 파일 시스템을 사용하도록 구성할 수 있으며 사용 가능한 만큼 공간을 사용할 수 있습니다. 오브젝트 스토리지 서비스는 XFS 및 ext4 파일 시스템을 지원하며 사용 가능한 많은 기본 블록 스토리지를 사용하도록 두 파일 시스템을 모두 확장할 수 있습니다. 스토리지 노드에 스토리지 장치를 추가하여 용량을 확장할 수도 있습니다.

공유 파일 시스템 서비스는 Red Hat Ceph Storage 또는 기타 백엔드 스토리지 시스템에서 관리하는 지정된 스토리지 풀의 파일 공유를 프로비저닝합니다. 서비스에 사용 가능한 스토리지 풀의 크기 또는 수를 늘리거나 배포에 백엔드 스토리지 시스템을 추가하여 이 공유 스토리지를 확장할 수 있습니다. 각 백엔드 스토리지 시스템은 스토리지 시스템과 상호 작용하고 관리하기 위한 전용 서비스와 통합됩니다.

7.5. 스토리지 접근성 및 관리

볼륨은 인스턴스를 통해서만 소비됩니다. 사용자는 볼륨의 스냅샷을 확장, 생성하며 스냅샷을 사용하여 볼륨을 이전 상태로 복제하거나 복원할 수 있습니다.

Block Storage 서비스(cinder)를 사용하여 볼륨 설정을 집계하는 볼륨 유형을 생성할 수 있습니다. 볼륨 유형을 암호화 및 QoS(Quality of Service) 사양과 연결하여 클라우드 사용자에게 다른 수준의 성능을 제공할 수 있습니다. 클라우드 사용자는 새 볼륨을 생성할 때 필요한 볼륨 유형을 지정할 수 있습니다. 예를 들어 고성능 QoS 사양을 사용하는 볼륨은 사용자에게 더 많은 IOPS를 제공할 수 있거나 사용자는 더 낮은 성능 QoS 사양을 사용하여 리소스를 보존하는 볼륨에 더 낮은 워크로드를 할당할 수 있습니다. 공유는 하나 이상의 인스턴스, 베어 메탈 노드 또는 컨테이너에서 동시에 사용할 수 있습니다. Shared File Systems 서비스(manila)는 공유 크기 조정, 스냅샷 및 복제도 지원하며 관리자는 집계 설정을 위해 공유 유형을 생성할 수 있습니다.

사용자는 Object Storage 서비스(swift) API를 사용하여 컨테이너의 오브젝트에 액세스할 수 있으며 관리자는 클라우드의 인스턴스 및 서비스에서 오브젝트에 액세스할 수 있습니다. 이 접근성은 오브젝트를 서비스 리포지토리로 이상하게 합니다. 예를 들어 Object Storage 서비스에서 관리하는 컨테이너에 Image 서비스(glance) 이미지를 저장할 수 있습니다.

7.6. 스토리지 보안

블록 스토리지 서비스는 키 관리자 서비스(barbican)를 통해 데이터 보안을 제공합니다. 블록 스토리지 서비스는 키 관리자 서비스에서 관리하는 키와 함께 볼륨 매핑에 일대일 키를 사용합니다. 암호화 유형은 볼륨 유형을 구성할 때 정의됩니다.

또한 Red Hat Ceph Storage와 같이 제어 및/또는 데이터 트래픽을 암호화하여 백엔드 수준에서 보안을 개선할 수도 있습니다(예: Red Hat Ceph Storage를 사용하면engerv2 보안 모드를 활성화할 수 있습니다. 이렇게 하면 Ceph 서비스와 OpenStack 컴퓨팅 노드 간의 네트워크 트래픽이 암호화됩니다.

서비스 및 노드 수준에서 오브젝트 및 컨테이너 보안을 구성합니다. Object Storage 서비스(swift)는 컨테이너 및 오브젝트에 대한 기본 암호화를 제공하지 않습니다. 그러나 키 관리자 서비스를 활성화하면 Object Storage 서비스가 저장된 오브젝트를 투명하게 암호화하고 암호 해독할 수 있습니다. At-rest 암호화는 디스크에 저장되는 동안 암호화되는 개체를 참조하는 점에서 전송 중 암호화와 다릅니다.

Shared File Systems 서비스(manila)는 인스턴스 IP, 사용자 또는 그룹 또는 TLS 인증서 여부에 관계없이 액세스 제한을 통해 공유를 보호할 수 있습니다. 일부 공유 파일 시스템 서비스 배포에서는 공유 네트워크와 공유 간의 관계를 관리하기 위해 별도의 공유 서버를 사용할 수 있습니다. 일부 공유 서버는 지원하거나 추가 네트워크 보안이 필요합니다. 예를 들어 CIFS 공유 서버에는 LDAP, Active Directory 또는 Kerberos 인증 서비스를 배포해야 합니다.

일부 백엔드에서는 AT REST 데이터 암호화도 지원합니다. 이를 통해 백엔드 디스크 자체를 암호화하여 보안을 강화하여 도난 또는 재활용되지 않은 디스크와 같은 물리적 보안 위협을 방지할 수 있습니다.

블록 스토리지 서비스, 오브젝트 스토리지 서비스 및 공유 파일 시스템 서비스에 대한 보안 옵션을 구성하는 방법에 대한 자세한 내용은 보안 서비스 구성을 참조하십시오.

7.7. 스토리지 중복 및 재해 복구

선택적 Block Storage 백업 서비스를 배포하는 경우 Block Storage 서비스(cinder)는 사용자 스토리지의 기본 재해 복구를 위해 볼륨 백업 및 복원을 제공합니다. 백업을 사용하여 볼륨 콘텐츠를 보호할 수 있습니다. 블록 스토리지 서비스는 스냅샷도 지원합니다. 복제 외에도 스냅샷을 사용하여 볼륨을 이전 상태로 복원할 수 있습니다.

환경에 여러 개의 백엔드가 포함된 경우 이러한 백엔드 간에 볼륨을 마이그레이션할 수도 있습니다. 유지 관리를 위해 백엔드를 오프라인 상태로 전환해야 하는 경우 유용합니다. 백업은 일반적으로 데이터를 보호하는 데 도움이 되도록 소스 볼륨과 별도로 스토리지 백엔드에 저장됩니다. 스냅샷은 소스 볼륨에 따라 다르기 때문에 스냅샷에서는 이 작업을 수행할 수 없습니다.

블록 스토리지 서비스는 동시에 스냅샷 생성을 위해 볼륨을 그룹화하는 일관성 그룹 생성도 지원합니다. 이를 통해 여러 볼륨에서 데이터 일관성이 향상됩니다.

참고

Red Hat은 현재 Block Storage 서비스 복제를 지원하지 않습니다.

Object Storage 서비스(swift)는 내장 백업 기능을 제공하지 않습니다. 파일 시스템 또는 노드 수준에서 모든 백업을 수행해야 합니다. 그러나 Object Storage 서비스에는 강력한 중복 및 내결함성이 있습니다. Object Storage 서비스의 가장 기본적인 배포도 오브젝트를 여러 번 복제합니다. DM Multipath(Device mapper multipathing)와 같은 장애 조치 기능을 사용하여 중복성을 향상시킬 수 있습니다.

Shared File Systems 서비스(manila)는 공유에 대한 기본 제공 백업 기능을 제공하지 않지만 복제 및 복원을 위한 스냅샷을 생성할 수 있습니다.

7.8. 스토리지 솔루션 관리

RHOSO 대시보드(horizon) 또는 RHOSO CLI(명령줄 인터페이스)를 사용하여 RHOSO 구성을 관리할 수 있습니다. 두 방법 중 하나를 사용하여 대부분의 절차를 수행할 수 있지만 일부 고급 절차는 CLI를 사용하여만 완료할 수 있습니다.

스토리지 벤더가 제공하는 전용 관리 인터페이스를 사용하여 스토리지 솔루션 구성을 관리할 수 있습니다.

7.9. Red Hat OpenShift 스토리지 크기 조정

Red Hat OpenShift 백업 스토리지에 공간을 할당하도록 이미지 및 오브젝트 스토리지 서비스를 구성할 수 있습니다. 이 시나리오에서 Red Hat OpenShift 스토리지 크기 조정은 이러한 서비스의 예상 사용에 따라 추정해야 합니다.

7.9.1. 이미지 서비스 고려 사항

Image 서비스(glance)를 사용하려면 가져오기 작업 중에 데이터를 조작할 수 있는 스테이징 영역이 필요합니다. 이미지 데이터를 여러 저장소에 복사할 수 있으므로 이미지 서비스에 약간의 지속성이 필요합니다. PVC는 이미지 서비스의 주요 스토리지 모델을 나타내지만 외부 모델도 선택할 수 있습니다.

외부 모델

External을 선택하면 PVC가 생성되지 않으며 이미지 서비스는 지속성을 제공하지 않고 상태 비저장 인스턴스처럼 작동합니다. 이 경우 extraMounts 를 사용하여 지속성을 제공해야 합니다. NFS는 종종 지속성을 제공하는 데 사용됩니다. /var/lib/glance:에 매핑할 수 있습니다.

...
default:
  storage:
    external: true
...
...
extraMounts:
- extraVol:
  - extraVolType: NFS
    mounts:
    - mountPath: /var/lib/glance/os_glance_staging_store
      name: nfs
    volumes:
    - name: nfs
      nfs:
        path: <nfs_export_path>
        server: <nfs_ip_address>
  • & lt;nfs_export_path >를 NFS 공유의 내보내기 경로로 바꿉니다.
  • & lt;nfs_ip_address >를 NFS 공유의 IP 주소로 바꿉니다. 이 IP 주소는 이미지 서비스에서 연결할 수 있는 오버레이 네트워크의 일부여야 합니다.

구성 샘플이 분산 이미지 가져오기 기능과 충돌한다는 점에 유의해야 합니다. 분산 이미지 가져오기에는 RWO 스토리지가 특정 인스턴스에 연결되어 있어야 합니다. 이는 데이터를 소유하고 업로드 작업에 준비된 데이터가 필요한 경우 요청을 받습니다. 외부 모델이 채택되면 Red Hat Ceph Storage를 백엔드로 사용하고 이미지 변환 작업이 기존 복제본 중 하나에서 실행되는 경우 glance-operator 는 스테이징 영역에 연결된 기본 스토리지를 가정할 필요가 없으며, os_glance_staging_store 디렉터리 (Pod 내)는 추가 마운트 를 통해 제공되는 RWX NFS 백엔드와 상호 작용합니다. 이 시나리오에서는 extraMounts 를 사용하여 지속성을 계획해야 하므로 이미지 캐시 PVC를 하위 경로에 요청하고 마운트할 수 없습니다.

PVC 모델

PVC 모델은 기본값입니다. GlanceAPI 인스턴스가 배포되면 storageClassstorageRequest 에 따라 PVC가 생성되어 /var/lib/glance 에 바인딩됩니다.

...
default:
  replicas: 3
  storage:
    storageRequest: 10G
...

이 모델에서 Red Hat Ceph Storage가 백엔드로 설정된 경우 전용 이미지 변환 PVC가 생성되지 않습니다. 관리자는 PVC 크기 조정을 미리 고려해야 합니다. PVC 크기는 가장 큰 변환된 이미지 크기여야 합니다. 동일한 Pod 내의 동시 변환은 PVC 크기 측면에서 문제가 발생할 수 있습니다. PVC가 가득 차 있고 공간이 충분하지 않으면 변환이 실패하거나 수행할 수 없습니다. 이전 변환이 끝나면 업로드를 재시도하고 스테이징 영역 공간이 해제되어야 합니다. 그러나 다른 Pod에서는 동시 변환 작업이 발생할 수 있습니다. 특정 glanceAPI 에 최소 3개의 복제본을 배포해야 합니다. 이렇게 하면 이미지 변환과 같은 많은 작업을 처리하는 데 도움이 됩니다.

PVC 기반 레이아웃의 경우 복제본 측면에서 glanceAPI 축소는 storageClass 에서 제공하는 사용 가능한 스토리지에 의해 제한되며 storageRequest 에 따라 다릅니다. storageRequest 는 중요한 매개 변수이며 모든 glanceAPI 에 대해 전역적으로 정의하거나 각 API에 대해 다른 값으로 정의할 수 있습니다. 이는 각 작업의 스케일 아웃 작업에 영향을 미칩니다. 스테이징 영역에 필요한 로컬 PVC 외에도 glanceAPI 인스턴스에 바인딩된 추가 PVC로 변환되는 이미지 캐시를 활성화할 수 있습니다. glance-cache PVC는 /var/lib/glance/image-cache 에 바인딩됩니다. glance-operator는 image_cache_max_sizeimage_cache_dir 매개변수를 둘 다 설정하여 glanceAPI 인스턴스를 적절하게 구성합니다. 이미지 캐시 PVC의 수는 로컬 PVC에 대해 설명된 것과 동일한 규칙을 따르며 요청된 PVC 수는 복제본 수에 비례합니다.

7.9.2. Object Storage 서비스 고려 사항

오브젝트 스토리지 서비스에는 데이터를 위한 스토리지 장치가 필요합니다. 이러한 장치는 수명 동안 동일한 호스트 이름 또는 IP 주소를 사용하여 액세스할 수 있어야 합니다. 헤드리스 서비스를 사용하는 StatefulSet의 구성은 이를 수행하는 방법입니다.

스토리지 볼륨을 사용하여 워크로드에 대한 지속성을 제공하려면 솔루션의 일부로 StatefulSet을 사용할 수 있습니다. StatefulSet의 개별 Pod는 실패할 수 있지만 영구 Pod 식별자를 사용하면 기존 볼륨을 실패한 Pod를 대체하는 새 Pod와 쉽게 일치시킬 수 있습니다.

Object Storage 서비스에는 이러한 PV에 액세스하기 위해 몇 가지 서비스가 필요하며, 모두 단일 Pod에서 실행됩니다.

또한 StatefulSet이 삭제되면 볼륨이 삭제되지 않습니다. StatefulSet(또는 전체 배포)을 원하지 않으면 즉시 심각한 데이터 손실이 발생하지 않지만 관리자 상호 작용에서 복구할 수 있습니다.

헤드리스 서비스를 사용하면 DNS 이름을 사용하여 스토리지 Pod에 직접 액세스할 수 있습니다. 예를 들어 Pod 이름이 swift-storage-0 이고 SwiftStorage 인스턴스의 이름이 swift-storage 이면 swift-storage -0.swift-storage 를 사용하여 액세스할 수 있습니다. 이렇게 하면 Object Storage 서비스 링 내에서 쉽게 사용할 수 있으며 IP 변경 사항이 투명하며 링 업데이트가 필요하지 않습니다.

병렬 Pod 관리는 StatefulSet 컨트롤러에서 모든 Pod를 병렬로 시작 또는 종료하고 다른 Pod를 시작하거나 종료하기 전에 Pod가 RunningReady 또는 완전히 종료될 때까지 기다리지 않도록 합니다. 이 옵션은 확장 작업 동작에만 영향을 미칩니다. 업데이트는 영향을 받지 않습니다.

이는 두 개 이상의 복제본이 있는 새 배포를 포함하여 두 개 이상으로 확장해야 합니다. 동시에 모든 Pod를 생성해야 합니다. 그러지 않으면 바인딩되지 않은 PVC가 있고 오브젝트 스토리지 서비스 링을 생성할 수 없으므로 이러한 Pod의 시작을 차단합니다.

단일 장애 지점을 방지하려면 스토리지 Pod를 다른 노드에 배포해야 합니다. preferredDuringSchedulingIgnoredDuringExecution 가 있는 podAntiAffinity 규칙은 가능한 경우 Pod를 다른 노드에 배포하는 데 사용됩니다. 다른 노드에 있는 별도의 storageClass 및 PersistentVolume을 사용하여 추가 배포를 적용할 수 있습니다.

오브젝트 스토리지 서비스 백엔드 서비스는 다른 백엔드 서비스 및 오브젝트 스토리지 서비스 프록시에서만 액세스할 수 있어야 합니다. 액세스를 제한하기 위해 이러한 Pod 간 트래픽만 허용하도록 NetworkPolicy 가 추가됩니다. NetworkPolicy 자체는 라벨에 따라 다르며 트래픽을 허용하려면 일치해야합니다. 따라서 레이블은 고유하지 않아야 합니다. 대신 모든 Pod에서 동일한 레이블을 사용하여 액세스를 허용해야 합니다. 이는 swift-operatorlib-common 의 라벨을 사용하지 않는 이유이기도 합니다.

오브젝트 스토리지 서비스 링에는 사용할 디스크에 대한 정보가 필요하며 여기에는 크기 및 호스트 이름 또는 IP가 포함됩니다. PVC를 사용하여 StatefulSet을 시작할 때 크기는 알 수 없으며 크기 요구 사항은 더 낮은 제한이지만 실제 PV가 훨씬 클 수 있습니다.

그러나 StatefulSets는 ConfigMaps 를 사용할 수 있을 때까지 PVC를 생성하고 이러한 PVC를 사용할 수 있을 때까지 Pod 시작을 기다리기만 하면 됩니다. SwiftRing 조정기에서는 SwiftStorage 인스턴스를 조사하고 PVC를 반복하여 사용된 디스크에 대한 실제 정보를 가져옵니다. 이러한 요소가 바인딩되면 크기를 알고 있고 swift-ring-rebalance 작업은 Swift 링을 생성하고 결국 ConfigMap 을 생성합니다. ConfigMap 을 사용할 수 있게 되면 StatefulSets가 서비스 pod를 시작합니다.

링은 예상 볼륨을 사용하여 SwiftProxySwiftStorage 인스턴스에서 마운트한 ConfigMap 에 저장됩니다. 이렇게 하면 다른 위치에서 이러한 파일을 병합하지 않고도 필요한 모든 파일을 동일한 위치에 마운트할 수 있습니다. 업데이트된 ConfigMaps 는 이러한 파일을 업데이트하고 Swift 서비스에서 이러한 변경 사항은 결국 이러한 파일을 다시 로드합니다.

일부 Operator는 customServiceConfig 옵션을 사용하여 설정을 사용자 지정합니다. 그러나 SwiftRing 인스턴스는 여러 백엔드 서비스를 배포하고 이러한 각 서비스를 사용자 지정하려면 특정 파일이 필요합니다. 따라서 swift-operator 를 사용할 때 파일 이름으로 특정 키를 사용하는 defaultConfigOverwrite 만 지원됩니다.

8장. Integration

Red Hat OpenStack Services on OpenShift (RHOSO)를 다음 타사 소프트웨어와 통합할 수 있습니다. ( 테스트 및 승인 소프트웨어)

신뢰할 수 있는 클라우드 공급자에 RHOSO를 배포할 수 있습니다. 인증된 제품 목록은 하드웨어 - 테스트 및 승인 을 참조하십시오.

9장. 서브스크립션

OpenShift(RHOSO)에 Red Hat OpenStack Services를 설치하려면 RHOSO 환경의 모든 시스템을 Red Hat Subscription Manager에 등록하고 필요한 채널을 구독해야 합니다.

OpenShift 서브스크립션의 Red Hat OpenStack Services에 대한 자세한 내용은 Red Hat OpenStack Services on OpenShift FAQ 에서 참조하십시오.

법적 공지

Copyright © 2024 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available at http://creativecommons.org/licenses/by-sa/3.0/. In accordance with CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, the Red Hat logo, JBoss, OpenShift, Fedora, the Infinity logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.
MySQL® is a registered trademark of MySQL AB in the United States, the European Union and other countries.
Node.js® is an official trademark of Joyent. Red Hat is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.
The OpenStack® Word Mark and OpenStack logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.
All other trademarks are the property of their respective owners.
Red Hat logoGithubRedditYoutubeTwitter

자세한 정보

평가판, 구매 및 판매

커뮤니티

Red Hat 문서 정보

Red Hat을 사용하는 고객은 신뢰할 수 있는 콘텐츠가 포함된 제품과 서비스를 통해 혁신하고 목표를 달성할 수 있습니다.

보다 포괄적 수용을 위한 오픈 소스 용어 교체

Red Hat은 코드, 문서, 웹 속성에서 문제가 있는 언어를 교체하기 위해 최선을 다하고 있습니다. 자세한 내용은 다음을 참조하세요.Red Hat 블로그.

Red Hat 소개

Red Hat은 기업이 핵심 데이터 센터에서 네트워크 에지에 이르기까지 플랫폼과 환경 전반에서 더 쉽게 작업할 수 있도록 강화된 솔루션을 제공합니다.

© 2024 Red Hat, Inc.