运行应用程序
第 1 章 使用 Kustomize 清单部署应用程序
您可以将 kustomize
配置管理工具与应用程序清单一起使用来部署应用程序。阅读以下流程,以了解 Kustomize 在 MicroShift 中的工作方式。
1.1. Kustomize 如何与清单一起工作来部署应用程序
kustomize
配置管理工具与 MicroShift 集成。您可以使用 Kustomize 和 OpenShift CLI (oc
)将自定义应用到应用程序清单,并将这些应用程序部署到 MicroShift 集群。
-
kustomization.yaml
文件是资源及自定义的规格。 -
Kustomize 使用
kustomization.yaml
文件加载资源,如应用程序,然后应用您想要的应用程序清单的任何更改,并生成具有 overlaid 更改的清单副本。 - 使用带有覆盖的清单副本会使应用程序的原始配置文件保持不变,同时允许您有效地部署应用程序的迭代和自定义。
-
然后,您可以使用
oc
命令在 MicroShift 集群中部署应用程序。
1.1.1. MicroShift 如何使用清单
在每次开始时,MicroShift 会在以下清单目录中搜索 Kustomize 清单文件:
-
/etc/microshift/manifests
-
/etc/microshift/manifests.d/*
-
/usr/lib/microshift/
-
/usr/lib/microshift/manifests.d/*
MicroShift 会自动运行与 kubectl apply -k
命令等效的命令,以便在搜索目录中存在以下文件类型时将清单应用到集群:
-
kustomization.yaml
-
kustomization.yml
-
kustomization
这从多个目录自动加载意味着您可以管理 MicroShift 工作负载,使不同工作负载可以独立运行。
位置 | 作用 |
---|---|
| 用于配置管理系统或开发的读写位置。 |
| 用于配置管理系统或开发的读写位置。 |
| 在基于 OSTree 的系统上嵌入配置清单的只读位置。 |
| 在基于 OSTree 的系统上嵌入配置清单的只读位置。 |
1.2. 覆盖清单路径列表
您可以使用新的单一路径或将新的 glob 模式用于多个文件来覆盖默认清单路径列表。使用以下步骤自定义清单路径。
流程
通过插入您自己的值并运行以下命令之一来覆盖默认路径列表:
-
将配置文件中的
manifests.kustomizePaths
设置为 <"/opt/alternate/path
">。 在用于 glob 模式的配置文件中将
kustomizePaths
设置为,"/opt/alternative/path.d
mdadm"。manifests: kustomizePaths: - <location>
manifests: kustomizePaths: - <location>
1 Copy to Clipboard Copied! - 1
- 使用
"/opt/alternate/path"
或 glob 模式将每个位置条目设置为准确路径,使用"/opt/alternative/path.d8:0:1::"
。
-
将配置文件中的
要禁用加载清单,请将配置选项设置为空列表。
manifests: kustomizePaths: []
manifests: kustomizePaths: []
Copy to Clipboard Copied! 注意配置文件完全会覆盖默认值。如果设置了
kustomizePaths
值,则只使用配置文件中的值。将值设为空列表可禁用清单加载。
1.3. 使用清单示例
本例演示了使用 /etc/microshift/manifests
目录中的 kustomize
清单自动部署 BusyBox 容器。
流程
运行以下命令来创建 BusyBox 清单文件:
定义目录位置:
MANIFEST_DIR=/etc/microshift/manifests
$ MANIFEST_DIR=/etc/microshift/manifests
Copy to Clipboard Copied! 创建目录:
sudo mkdir -p ${MANIFEST_DIR}
$ sudo mkdir -p ${MANIFEST_DIR}
Copy to Clipboard Copied! 将 YAML 文件放在目录中:
sudo tee ${MANIFEST_DIR}/busybox.yaml &>/dev/null <<EOF apiVersion: v1 kind: Namespace metadata: name: busybox --- apiVersion: apps/v1 kind: Deployment metadata: name: busybox namespace: busybox-deployment spec: selector: matchLabels: app: busybox template: metadata: labels: app: busybox spec: containers: - name: busybox image: BUSYBOX_IMAGE command: [ "/bin/sh", "-c", "while true ; do date; sleep 3600; done;" ] EOF
sudo tee ${MANIFEST_DIR}/busybox.yaml &>/dev/null <<EOF apiVersion: v1 kind: Namespace metadata: name: busybox --- apiVersion: apps/v1 kind: Deployment metadata: name: busybox namespace: busybox-deployment spec: selector: matchLabels: app: busybox template: metadata: labels: app: busybox spec: containers: - name: busybox image: BUSYBOX_IMAGE command: [ "/bin/sh", "-c", "while true ; do date; sleep 3600; done;" ] EOF
Copy to Clipboard Copied!
接下来,运行以下命令来创建
kustomize
清单文件:将 YAML 文件放在目录中:
sudo tee ${MANIFEST_DIR}/kustomization.yaml &>/dev/null <<EOF apiVersion: kustomize.config.k8s.io/v1beta1 kind: Kustomization namespace: busybox resources: - busybox.yaml images: - name: BUSYBOX_IMAGE newName: busybox:1.35 EOF
sudo tee ${MANIFEST_DIR}/kustomization.yaml &>/dev/null <<EOF apiVersion: kustomize.config.k8s.io/v1beta1 kind: Kustomization namespace: busybox resources: - busybox.yaml images: - name: BUSYBOX_IMAGE newName: busybox:1.35 EOF
Copy to Clipboard Copied!
运行以下命令重启 MicroShift 以应用清单:
sudo systemctl restart microshift
$ sudo systemctl restart microshift
Copy to Clipboard Copied! 运行以下命令应用清单并启动
busybox
pod:oc get pods -n busybox
$ oc get pods -n busybox
Copy to Clipboard Copied!
第 2 章 在 RHEL for Edge 镜像中嵌入 MicroShift 应用程序的选项
您可以在 Red Hat Enterprise Linux for Edge (RHEL for Edge)镜像中嵌入基于微服务的工作负载和应用程序,以便在 MicroShift 集群中运行。嵌入式应用程序可以直接安装在边缘设备上,以便在 air-gapped、断开连接或离线环境中运行。
2.1. 将应用程序 RPM 添加到 rpm-ostree 镜像
如果您的应用程序包含 API、容器镜像和配置文件,如清单等部署,您可以构建应用程序 RPM。然后,您可以在 RHEL for Edge 系统镜像中添加 RPM。
以下是将应用程序或工作负载嵌入到完全自包含的操作系统镜像中的流程:
- 构建包含应用程序清单的您自己的 RPM。
- 将 RPM 添加到用于安装红帽构建的 MicroShift 的蓝图中。
- 将工作负载容器镜像添加到同一蓝图中。
- 创建可引导 ISO。
有关在 RHEL for Edge 镜像中准备和嵌入应用程序的逐步教程,请使用以下教程:
2.2. 在镜像中添加应用程序清单以离线使用
如果您有一个简单的应用程序,其中包含几个用于部署的文件,如清单,您可以将这些清单直接添加到 RHEL for Edge 系统镜像中。
有关示例,请参阅以下 RHEL for Edge 文档中的"创建自定义文件蓝图自定义"部分:
2.3. 嵌入应用程序供离线使用
如果您的应用程序包含多个文件,您可以嵌入应用程序以离线使用。请参见以下步骤:
第 3 章 嵌入应用程序供离线使用
您可以在 Red Hat Enterprise Linux for Edge (RHEL for Edge)镜像中嵌入基于微服务的工作负载和应用程序。嵌入意味着您可以在 air-gapped、断开连接或离线环境中运行 MicroShift 集群的红帽构建。
3.1. 嵌入工作负载容器镜像供离线使用
要在没有网络连接的边缘将容器镜像嵌入到设备中,您必须创建新容器,挂载 ISO,然后将内容复制到文件系统中。
先决条件
- 有对主机的 root 访问权限。
- 应用程序 RPM 已添加到蓝图中。
流程
呈现清单,提取所有容器镜像引用,并通过运行以下命令来将应用程序镜像转换为蓝图容器源:
oc kustomize ~/manifests | grep "image:" | grep -oE '[^ ]+$' | while read line; do echo -e "[[containers]]\nsource = \"${line}\"\n"; done >><my_blueprint>.toml
$ oc kustomize ~/manifests | grep "image:" | grep -oE '[^ ]+$' | while read line; do echo -e "[[containers]]\nsource = \"${line}\"\n"; done >><my_blueprint>.toml
Copy to Clipboard Copied! 运行以下命令,将更新的蓝图推送到镜像构建器:
sudo composer-cli blueprints push <my_blueprint>.toml
$ sudo composer-cli blueprints push <my_blueprint>.toml
Copy to Clipboard Copied! 如果您的工作负载容器位于私有存储库中,则必须为镜像构建器提供所需的 pull secret:
-
在
/etc/osbuild-worker/osbuild-worker.toml
文件中的osbuilder worker
配置的[containers]
部分中设置auth_file_path
,以指向 pull secret。 如果需要,为 pull secret 创建目录和文件,例如:
目录和文件示例
[containers] auth_file_path = "/<path>/pull-secret.json"
[containers] auth_file_path = "/<path>/pull-secret.json"
1 Copy to Clipboard Copied! - 1
- 使用之前设置的自定义位置来复制和检索镜像。
-
在
运行以下命令来构建容器镜像:
sudo composer-cli compose start-ostree <my_blueprint> edge-commit
$ sudo composer-cli compose start-ostree <my_blueprint> edge-commit
Copy to Clipboard Copied! -
继续您首选的
rpm-ostree
镜像流,如等待构建完成,导出镜像并将其集成到rpm-ostree
存储库或创建可引导 ISO。
第 4 章 嵌入红帽构建的 MicroShift 应用程序教程
以下教程提供了如何在 RHEL for Edge 镜像中嵌入应用程序以便在各种环境中在 MicroShift 集群中使用的详细示例。
4.1. 嵌入应用程序 RPM 指南
以下教程回顾 MicroShift 安装步骤,并添加用于嵌入应用程序的工作流的描述。如果您已经熟悉 rpm-ostree
系统,如 Red Hat Enterprise Linux for Edge (RHEL for Edge)和 MicroShift,您可以直接进入相关的操作。
4.1.1. 安装工作流查看
嵌入的应用程序需要类似的工作流将 MicroShift 嵌入到 RHEL for Edge 镜像中。
- 下图显示了系统工件(如 RPM、容器和文件)如何添加到蓝图中,并由镜像 composer 创建 ostree 提交。
- 然后,ostree 提交可以遵循 ISO 路径或边缘设备的存储库路径。
- ISO 路径可用于断开连接的环境,而存储库路径通常用于网络通常连接。
嵌入 MicroShift 工作流
查看这些步骤可帮助您了解嵌入应用程序所需的步骤:
- 要在 RHEL for Edge 上嵌入 MicroShift,您需要将 MicroShift 存储库添加到 Image Builder 中。
- 您创建了声明您所需的所有 RPM、容器镜像、文件和自定义的蓝图,包括添加 MicroShift。
-
您已将蓝图添加到镜像构建器,并使用 Image Builder CLI 工具(
composer-cli
)运行构建。此步骤创建rpm-ostree
提交,用于创建容器镜像。此镜像包含 RHEL for Edge。 -
将安装程序蓝图添加到镜像构建器中,以创建
rpm-ostree
镜像(ISO)来从其引导。此构建包含 RHEL for Edge 和 MicroShift。 - 下载了使用 MicroShift 嵌入的 ISO,准备好使用、置备它,然后将其安装到边缘设备中。
4.1.2. 嵌入应用程序 RPM 工作流
设置满足 Image Builder 要求的构建主机后,您可以将应用程序以清单目录的形式添加到镜像。这些步骤后,将应用程序或工作负载嵌入到新 ISO 中最简单的方法是创建自己的包含清单的 RPM。您的应用程序 RPM 包含描述部署的所有配置文件。
以下"嵌入的应用程序工作流"镜像演示了如何将 Kubernetes 应用程序清单和 RPM 规格文件合并到单个应用程序 RPM 构建中。此构建成为工作流中包含的 RPM 工件,用于将 MicroShift 嵌入到 ostree 提交中。
嵌入应用程序工作流
以下流程使用 rpmbuild
工具创建规格文件和本地存储库。规范文件定义了如何构建软件包,将应用程序清单移到 MicroShift 的 RPM 软件包中的正确位置,以便获取它们。然后,该 RPM 软件包被嵌入到 ISO 中。
4.1.3. 准备进行应用程序 RPM
要构建自己的 RPM,请选择您选择的工具,如 rpmbuild
工具,并在主目录中初始化 RPM 构建树。以下是示例步骤。只要您的 RPM 可以被镜像构建器访问,就可以使用您喜欢构建应用程序 RPM 的方法。
先决条件
- 您已设置了满足 Image Builder 系统要求的 Red Hat Enterprise Linux for Edge (RHEL for Edge) 9.2 构建主机。
- 有对主机的 root 访问权限。
流程
运行以下命令,安装
rpmbuild
工具并为其创建 yum 存储库:sudo dnf install rpmdevtools rpmlint yum-utils createrepo
$ sudo dnf install rpmdevtools rpmlint yum-utils createrepo
Copy to Clipboard Copied! 运行以下命令,创建构建 RPM 软件包所需的文件树:
rpmdev-setuptree
$ rpmdev-setuptree
Copy to Clipboard Copied!
验证
运行以下命令列出确认创建的目录:
ls ~/rpmbuild/
$ ls ~/rpmbuild/
Copy to Clipboard Copied! 输出示例
BUILD RPMS SOURCES SPECS SRPMS
BUILD RPMS SOURCES SPECS SRPMS
Copy to Clipboard Copied!
4.1.4. 为应用程序清单构建 RPM 软件包
要构建自己的 RPM,您必须创建一个 spec 文件,将应用程序清单添加到 RPM 软件包中。以下是示例步骤。只要应用程序 RPM 和其他镜像构建元素可供镜像构建器访问,您可以使用您喜欢的方法。
先决条件
- 您已设置了满足 Image Builder 系统要求的 Red Hat Enterprise Linux for Edge (RHEL for Edge) 9.2 构建主机。
- 有对主机的 root 访问权限。
- 构建 RPM 软件包所需的文件树已创建。
流程
在
~/rpmbuild/SPECS
目录中,使用以下模板创建一个文件,如 <application_workload_manifests.spec
> :spec 文件示例
Name: <application_workload_manifests> Version: 0.0.1 Release: 1%{?dist} Summary: Adds workload manifests to microshift BuildArch: noarch License: GPL Source0: %{name}-%{version}.tar.gz #Requires: microshift %description Adds workload manifests to microshift %prep %autosetup %install rm -rf $RPM_BUILD_ROOT mkdir -p $RPM_BUILD_ROOT/%{_prefix}/lib/microshift/manifests cp -pr ~/manifests $RPM_BUILD_ROOT/%{_prefix}/lib/microshift/ %clean rm -rf $RPM_BUILD_ROOT %files %{_prefix}/lib/microshift/manifests/** %changelog * <DDD MM DD YYYY username@domain - V major.minor.patch> - <your_change_log_comment>
Name: <application_workload_manifests> Version: 0.0.1 Release: 1%{?dist} Summary: Adds workload manifests to microshift BuildArch: noarch License: GPL Source0: %{name}-%{version}.tar.gz #Requires: microshift %description Adds workload manifests to microshift %prep %autosetup %install
1 rm -rf $RPM_BUILD_ROOT mkdir -p $RPM_BUILD_ROOT/%{_prefix}/lib/microshift/manifests cp -pr ~/manifests $RPM_BUILD_ROOT/%{_prefix}/lib/microshift/ %clean rm -rf $RPM_BUILD_ROOT %files %{_prefix}/lib/microshift/manifests/** %changelog * <DDD MM DD YYYY username@domain - V major.minor.patch> - <your_change_log_comment>
Copy to Clipboard Copied! - 1
%install
部分在 RPM 软件包/usr/lib/microshift/manifests/
中创建目标目录,并从源主目录~/manifests
复制清单。
重要所有必需的 YAML 文件都必须位于源主目录
~/manifests
中,如果您使用的是 kustomize,则包括kustomize.yaml
文件。运行以下命令,在
~/rpmbuild/RPMS
目录中构建 RPM 软件包:rpmbuild -bb ~/rpmbuild/SPECS/<application_workload_manifests.spec>
$ rpmbuild -bb ~/rpmbuild/SPECS/<application_workload_manifests.spec>
Copy to Clipboard Copied!
4.1.5. 在蓝图中添加应用程序 RPM
要将应用程序 RPM 添加到蓝图中,您必须创建一个本地仓库,供 Image Builder 用于创建 ISO。使用这个流程,您的工作负载所需的容器镜像可以通过网络拉取。
先决条件
- 有对主机的 root 访问权限。
-
工作负载或应用程序 RPM 存在于
~/rpmbuild/RPMS
目录中。
流程
运行以下命令来创建本地 RPM 存储库:
createrepo ~/rpmbuild/RPMS/
$ createrepo ~/rpmbuild/RPMS/
Copy to Clipboard Copied! 运行以下命令,为 Image Builder 授予对 RPM 存储库的访问权限:
sudo chmod a+rx ~
$ sudo chmod a+rx ~
Copy to Clipboard Copied! 注意您必须确保 Image Builder 具有访问镜像构建所需的所有文件所需的权限,或者构建无法继续。
使用以下模板创建蓝图文件
repo-local-rpmbuild.toml
:id = "local-rpm-build" name = "RPMs build locally" type = "yum-baseurl" url = "file://<path>/rpmbuild/RPMS" check_gpg = false check_ssl = false system = false
id = "local-rpm-build" name = "RPMs build locally" type = "yum-baseurl" url = "file://<path>/rpmbuild/RPMS"
1 check_gpg = false check_ssl = false system = false
Copy to Clipboard Copied! - 1
- 指定创建您选择的位置的路径部分。在后续命令中使用此路径来设置存储库并复制 RPM。
运行以下命令,将存储库添加为镜像构建器的源:
sudo composer-cli sources add repo-local-rpmbuild.toml
$ sudo composer-cli sources add repo-local-rpmbuild.toml
Copy to Clipboard Copied! 通过添加以下几行,将 RPM 添加到蓝图中:
… [[packages]] name = "<application_workload_manifests>" version = "*" …
… [[packages]] name = "<application_workload_manifests>"
1 version = "*" …
Copy to Clipboard Copied! - 1
- 在此处添加工作负载的名称。
运行以下命令,将更新的蓝图推送到镜像构建器:
sudo composer-cli blueprints push repo-local-rpmbuild.toml
$ sudo composer-cli blueprints push repo-local-rpmbuild.toml
Copy to Clipboard Copied! 此时,您可以运行 Image Builder 来创建 ISO,或嵌入容器镜像供离线使用。
要创建 ISO,请运行以下命令启动镜像构建器:
sudo composer-cli compose start-ostree repo-local-rpmbuild edge-commit
$ sudo composer-cli compose start-ostree repo-local-rpmbuild edge-commit
Copy to Clipboard Copied!
在这种情况下,容器镜像在启动时由边缘设备通过网络拉取。
第 5 章 Greenboot 工作负载健康检查脚本
Greenboot 健康检查脚本在边缘设备(这些设备的直接服务可用性可能会非常有限或不存在)上很有用。您可以创建健康检查脚本来评估工作负载和应用程序的健康状况。这些额外的健康检查脚本是软件问题检查和自动系统回滚的有用组件。
MicroShift 健康检查脚本包含在 microshift-greenboot
RPM 中。您还可以根据正在运行的工作负载创建自己的健康检查脚本。例如,您可以编写一个验证服务是否已启动的时间。
5.1. 工作负载健康检查脚本的工作方式
本教程中描述的工作负载或应用程序健康检查脚本使用 /usr/share/microshift/functions/greenboot.sh
文件中提供的 MicroShift 健康检查功能。这可让您重复使用为 MicroShift 核心服务实现的流程。
该脚本首先运行检查工作负载的基本功能是否如预期运行。成功运行脚本:
- 从 root 用户帐户执行脚本。
- 启用 MicroShift 服务。
健康检查执行以下操作:
-
获取
wait_for
函数的当前引导周期的等待超时。 -
调用
namespace_images_downloaded
功能,以等待 pod 镜像可用。 -
调用
namespace_pods_ready
函数以等待 pod 就绪。 -
调用
namespace_pods_not_restarting
函数,以验证 pod 没有重启。
重启 pod 可能会导致崩溃循环。
5.2. 包括 greenboot 健康检查
健康检查脚本位于 /usr/lib/greenboot/check
中,这是 RPM-OSTree 系统中只读目录。以下健康检查包含在 greenboot-default-health-checks
框架中。
检查存储库 URL 是否仍然是 DNS 解决性:
这个脚本位于
/usr/lib/greenboot/check/required.d/01_repository_dns_check.sh
下,并确保对存储库 URL 的 DNS 查询仍然可用。检查更新平台是否仍然可访问:
这个脚本位于
/usr/lib/greenboot/check/wanted.d/01_update_platform_check.sh
下,并尝试从/etc/ostree/remotes.d
中定义的更新平台连接并获取 2XX 或 3XX HTTP 代码。检查当前引导是否已由硬件 watchdog 触发:
这个脚本位于
/usr/lib/greenboot/check/required.d/02_watchdog.sh
下,并检查当前引导是否已 watchdog-triggered。- 如果在宽限期内发生 watchdog-triggered 重启,则当前引导会被标记为红色。Greenboot 不会触发到以前部署的回滚。
- 如果在宽限期后 watchdog-triggered 重启发生,则当前引导不会标记为红色。Greenboot 不会触发到以前部署的回滚。
-
默认启用 24 小时宽限期。可以通过以下方法禁用宽限(grace)期:修改
/etc/greenboot/greenboot.conf to false
中的GREENBOOT_WATCHDOG_CHECK_ENABLED
;或通过/etc/greenboot/greenboot.conf
中的GREENBOOT_WATCHDOG_GRACE_PERIOD=number_of_hours
变量值进行配置。
5.3. 如何为您的应用程序创建健康检查脚本
您可以使用本文档中的示例在您选择的文本编辑器中创建工作负载或应用程序健康检查脚本。将脚本保存到 /etc/greenboot/check/required.d
目录中。当 /etc/greenboot/check/required.d
目录中的脚本退出时,greenboot 会触发重启尝试修复系统。
如果 /etc/greenboot/check/required.d
目录中的任何脚本退出并显示错误,则会触发重新引导。
如果您的健康检查逻辑需要任何 post-check 步骤,您也可以创建额外的脚本并将其保存到相关的 greenboot 目录中。例如:
-
您还可以在
/etc/greenboot/green.d
中声明成功后要运行的 shell 脚本。 -
您可以将在声明引导失败后要运行的 shell 脚本放在
/etc/greenboot/red.d
中。例如,如果您在重启前有修复系统的步骤,您可以为用例创建脚本并将其放在/etc/greenboot/red.d
目录中。
5.3.1. 关于工作负载健康检查脚本示例
以下示例使用 MicroShift 健康检查脚本作为模板。您可以将此示例与提供的库一起使用,作为为您的应用程序创建基本健康检查脚本的指南。
5.3.1.1. 创建健康检查脚本的基本先决条件
- 必须安装工作负载。
- 您必须有 root 访问权限。
5.3.1.2. 示例和功能要求
您可以使用以下示例健康检查脚本开始。根据您的用例修改它。在工作负载健康检查脚本中,您必须完成以下最小步骤:
- 设置环境变量。
- 定义用户工作负载命名空间。
- 列出预期的 pod 数量。
为您的应用程序选择一个名称前缀,以确保它在 40_microshift_running_check.sh
脚本后运行,该脚本为核心服务实施红帽构建的 MicroShift 健康检查流程。
工作负载健康检查脚本示例
#!/bin/bash Update these two lines with at least one namespace and the pod counts that are specific to your workloads. Use the kubernetes <namespace> where your workload is deployed. Set greenboot to read and execute the workload health check functions library. Set the exit handler to log the exit status. Set the script exit handler to log a `FAILURE` or `FINISHED` message depending on the exit status of the last command. args: None return: None Set the system to automatically stop the script if the user running it is not 'root'. Set the script to stop without reporting an error if the MicroShift service is not running. Set the wait timeout for the current check based on the boot counter. Set the script to wait for the pod images to be downloaded. Set the script to wait for pods to enter ready state. Verify that pods are not restarting by running, which could indicate a crash loop.
# #!/bin/bash
set -e
SCRIPT_NAME=$(basename $0)
PODS_NS_LIST=(<user_workload_namespace1> <user_workload_namespace2>)
PODS_CT_LIST=(<user_workload_namespace1_pod_count> <user_workload_namespace2_pod_count>)
# Update these two lines with at least one namespace and the pod counts that are specific to your workloads. Use the kubernetes <namespace> where your workload is deployed.
# Set greenboot to read and execute the workload health check functions library.
source /usr/share/microshift/functions/greenboot.sh
# Set the exit handler to log the exit status.
trap 'script_exit' EXIT
# Set the script exit handler to log a `FAILURE` or `FINISHED` message depending on the exit status of the last command.
# args: None
# return: None
function script_exit() {
[ "$?" -ne 0 ] && status=FAILURE || status=FINISHED
echo $status
}
# Set the system to automatically stop the script if the user running it is not 'root'.
if [ $(id -u) -ne 0 ] ; then
echo "The '${SCRIPT_NAME}' script must be run with the 'root' user privileges"
exit 1
fi
echo "STARTED"
# Set the script to stop without reporting an error if the MicroShift service is not running.
if [ $(systemctl is-enabled microshift.service 2>/dev/null) != "enabled" ] ; then
echo "MicroShift service is not enabled. Exiting..."
exit 0
fi
# Set the wait timeout for the current check based on the boot counter.
WAIT_TIMEOUT_SECS=$(get_wait_timeout)
# Set the script to wait for the pod images to be downloaded.
for i in ${!PODS_NS_LIST[@]}; do
CHECK_PODS_NS=${PODS_NS_LIST[$i]}
echo "Waiting ${WAIT_TIMEOUT_SECS}s for pod image(s) from the ${CHECK_PODS_NS} namespace to be downloaded"
wait_for ${WAIT_TIMEOUT_SECS} namespace_images_downloaded
done
# Set the script to wait for pods to enter ready state.
for i in ${!PODS_NS_LIST[@]}; do
CHECK_PODS_NS=${PODS_NS_LIST[$i]}
CHECK_PODS_CT=${PODS_CT_LIST[$i]}
echo "Waiting ${WAIT_TIMEOUT_SECS}s for ${CHECK_PODS_CT} pod(s) from the ${CHECK_PODS_NS} namespace to be in 'Ready' state"
wait_for ${WAIT_TIMEOUT_SECS} namespace_pods_ready
done
# Verify that pods are not restarting by running, which could indicate a crash loop.
for i in ${!PODS_NS_LIST[@]}; do
CHECK_PODS_NS=${PODS_NS_LIST[$i]}
echo "Checking pod restart count in the ${CHECK_PODS_NS} namespace"
namespace_pods_not_restarting ${CHECK_PODS_NS}
done
5.4. 测试工作负载健康检查脚本
先决条件
- 有 root 访问权限。
- 已安装工作负载。
- 您已为工作负载创建了健康检查脚本。
- 红帽构建的 MicroShift 服务已启用。
流程
要测试 greenboot 是否在运行健康检查脚本文件,请运行以下命令重启主机:
sudo reboot
$ sudo reboot
Copy to Clipboard Copied! 运行以下命令,检查 greenboot 健康检查的输出:
sudo journalctl -o cat -u greenboot-healthcheck.service
$ sudo journalctl -o cat -u greenboot-healthcheck.service
Copy to Clipboard Copied! 注意MicroShift 核心服务健康检查在工作负载健康检查前运行。
输出示例
GRUB boot variables: boot_success=0 boot_indeterminate=0 Greenboot variables: GREENBOOT_WATCHDOG_CHECK_ENABLED=true ... ... FINISHED Script '40_microshift_running_check.sh' SUCCESS Running Wanted Health Check Scripts... Finished greenboot Health Checks Runner.
GRUB boot variables: boot_success=0 boot_indeterminate=0 Greenboot variables: GREENBOOT_WATCHDOG_CHECK_ENABLED=true ... ... FINISHED Script '40_microshift_running_check.sh' SUCCESS Running Wanted Health Check Scripts... Finished greenboot Health Checks Runner.
Copy to Clipboard Copied!
第 6 章 使用 GitOps 控制器自动执行应用程序管理
带有 MicroShift 的 Argo CD 的 GitOps 是一个轻量级的附加控制器,它派生自 Red Hat OpenShift GitOps Operator。MicroShift 的 GitOps 使用 Argo CD 的命令行界面(CLI)与作为声明性 GitOps 引擎的 GitOps 控制器交互。您可以在集群和开发生命周期中一致地配置和部署基于 Kubernetes 的基础架构和应用程序。
6.1. GitOps 代理的作用
通过使用带有 MicroShift 的 Argo CD 代理的 GitOps,您可以使用以下原则:
实施应用程序生命周期管理。
- 使用在 Git 存储库中开发和维护软件的核心原则创建和管理集群和应用程序配置文件。
- 您可以更新单个存储库和 GitOps 会自动部署新应用程序或更新现有应用程序。
- 例如,如果您有 1,000 个边缘设备,每个设备都使用 MicroShift 和本地 GitOps 代理,您可以在所有 1,000 设备上轻松添加或更新应用程序,且只在中央 Git 存储库中进行一次更改。
- Git 存储库包含指定环境中所需的基础架构声明描述,并包含一个自动化流程,使您的环境与上述状态匹配。
- 您还可以使用 Git 存储库作为更改的审计跟踪,以便您可以根据 Git 流创建进程,如检查和批准实施配置更改的合并拉取请求。
6.2. 在 MicroShift 上创建 GitOps 应用程序
您可以创建自定义 YAML 配置来在 MicroShift 服务中部署和管理应用程序。要安装运行 GitOps 应用程序所需的软件包,请按照"从 RPM 软件包安装 GitOps Argo CD 清单"中的文档进行操作。
先决条件
-
已安装
microshift-gitops
软件包,并且 Argo CD pod 在openshift-gitops
命名空间中运行。
流程
创建 YAML 文件并为应用程序添加自定义配置:
cert-manager
应用程序的 YAML 示例kind: AppProject apiVersion: argoproj.io/v1alpha1 metadata: name: default namespace: openshift-gitops spec: clusterResourceWhitelist: - group: '*' kind: '*' destinations: - namespace: '*' server: '*' sourceRepos: - '*' --- apiVersion: argoproj.io/v1alpha1 kind: Application metadata: name: cert-manager namespace: openshift-gitops spec: destination: namespace: cert-manager server: https://kubernetes.default.svc project: default source: path: cert-manager repoURL: https://github.com/anandf/microshift-install syncPolicy: automated: {} syncOptions: - CreateNamespace=true - ServerSideApply=true
kind: AppProject apiVersion: argoproj.io/v1alpha1 metadata: name: default namespace: openshift-gitops spec: clusterResourceWhitelist: - group: '*' kind: '*' destinations: - namespace: '*' server: '*' sourceRepos: - '*' --- apiVersion: argoproj.io/v1alpha1 kind: Application metadata: name: cert-manager namespace: openshift-gitops spec: destination: namespace: cert-manager server: https://kubernetes.default.svc project: default source: path: cert-manager repoURL: https://github.com/anandf/microshift-install syncPolicy: automated: {} syncOptions: - CreateNamespace=true - ServerSideApply=true
Copy to Clipboard Copied! spring-petclinic
应用程序的 YAML 示例kind: AppProject apiVersion: argoproj.io/v1alpha1 metadata: name: default namespace: openshift-gitops spec: clusterResourceWhitelist: - group: '*' kind: '*' destinations: - namespace: '*' server: '*' sourceRepos: - '*' --- kind: Application apiVersion: argoproj.io/v1alpha1 metadata: name: spring-petclinic namespace: openshift-gitops spec: destination: namespace: spring-petclinic server: https://kubernetes.default.svc project: default source: directory: recurse: true path: app repoURL: https://github.com/siamaksade/openshift-gitops-getting-started syncPolicy: automated: {} syncOptions: - CreateNamespace=true - ServerSideApply=true
kind: AppProject apiVersion: argoproj.io/v1alpha1 metadata: name: default namespace: openshift-gitops spec: clusterResourceWhitelist: - group: '*' kind: '*' destinations: - namespace: '*' server: '*' sourceRepos: - '*' --- kind: Application apiVersion: argoproj.io/v1alpha1 metadata: name: spring-petclinic namespace: openshift-gitops spec: destination: namespace: spring-petclinic server: https://kubernetes.default.svc project: default source: directory: recurse: true path: app repoURL: https://github.com/siamaksade/openshift-gitops-getting-started syncPolicy: automated: {} syncOptions: - CreateNamespace=true - ServerSideApply=true
Copy to Clipboard Copied! 要部署 YAML 文件中定义的应用程序,请运行以下命令:
oc apply -f <filename>.yaml
$ oc apply -f <filename>.yaml
Copy to Clipboard Copied!
验证
要验证应用程序是否已部署并同步,请运行以下命令:
oc get applications -A
$ oc get applications -A
Copy to Clipboard Copied! 应用程序可能需要几分钟时间来显示
Healthy
状态。输出示例
NAMESPACE NAME SYNC STATUS HEALTH STATUS openshift-gitops cert-manager Synced Healthy openshift-gitops spring-petclinic Synced Healthy
NAMESPACE NAME SYNC STATUS HEALTH STATUS openshift-gitops cert-manager Synced Healthy openshift-gitops spring-petclinic Synced Healthy
Copy to Clipboard Copied!
6.3. 在 MicroShift 中使用 GitOps 代理的限制
带有 Argo CD for MicroShift 的 GitOps 与 Red Hat OpenShift GitOps Operator 有以下区别:
-
gitops-operator
组件不与 MicroShift 一起使用。 - 要维护 MicroShift 的小资源使用,Argo CD web 控制台不可用。您可以使用 Argo CD CLI 或基于 pull 的方法。
- 因为 MicroShift 是单节点,所以不支持多集群。MicroShift 的每个实例都与本地 GitOps 代理配对。
-
oc adm must-gather
命令在 MicroShift 中不可用。
6.4. GitOps 故障排除
如果 GitOps 控制器出现问题,您可以使用 OpenShift CLI (oc
)工具或运行 sos 报告。
6.4.1. 使用 oc adm inspect 调试 GitOps
您可以使用 OpenShift CLI (oc
)调试 GitOps。
先决条件
-
已安装
oc
命令行工具。
流程
在 GitOps 命名空间中运行时运行
oc adm inspect
命令:oc adm inspect ns/openshift-gitops
$ oc adm inspect ns/openshift-gitops
Copy to Clipboard Copied! 输出示例
Gathering data for ns/openshift-gitops... W0501 20:34:35.978508 57625 util.go:118] the server doesn't have a resource type egressfirewalls, skipping the inspection W0501 20:34:35.980881 57625 util.go:118] the server doesn't have a resource type egressqoses, skipping the inspection W0501 20:34:36.040664 57625 util.go:118] the server doesn't have a resource type servicemonitors, skipping the inspection Wrote inspect data to inspect.local.2673575938140296280.
Gathering data for ns/openshift-gitops... W0501 20:34:35.978508 57625 util.go:118] the server doesn't have a resource type egressfirewalls, skipping the inspection W0501 20:34:35.980881 57625 util.go:118] the server doesn't have a resource type egressqoses, skipping the inspection W0501 20:34:36.040664 57625 util.go:118] the server doesn't have a resource type servicemonitors, skipping the inspection Wrote inspect data to inspect.local.2673575938140296280.
Copy to Clipboard Copied!
后续步骤
-
如果
oc adm inspect
没有提供您需要的信息,您可以运行 sos 报告。
6.4.2. 从 sos 报告收集数据
先决条件
-
已安装
sos
软件包。
流程
- 以 root 用户身份登录到失败的主机。
运行以下命令执行 debug 报告创建过程:
microshift-sos-report
$ microshift-sos-report
Copy to Clipboard Copied! 输出示例
sosreport (version 4.5.1) This command will collect diagnostic and configuration information from this Red Hat Enterprise Linux system and installed applications. An archive containing the collected information will be generated in /var/tmp/sos.o0sznf_8 and may be provided to a Red Hat support representative. Any information provided to Red Hat will be treated in accordance with the published support policies at: Distribution Website : https://www.redhat.com/ Commercial Support : https://www.access.redhat.com/ The generated archive may contain data considered sensitive and its content should be reviewed by the originating organization before being passed to any third party. No changes will be made to system configuration. Setting up archive ... Setting up plugins ... Running plugins. Please wait ... Starting 1/2 microshift [Running: microshift] Starting 2/2 microshift_ovn [Running: microshift microshift_ovn] Finishing plugins [Running: microshift] Finished running plugins Found 1 total reports to obfuscate, processing up to 4 concurrently sosreport-microshift-rhel9-2023-03-31-axjbyxw : Beginning obfuscation... sosreport-microshift-rhel9-2023-03-31-axjbyxw : Obfuscation completed Successfully obfuscated 1 report(s) Creating compressed archive... A mapping of obfuscated elements is available at /var/tmp/sosreport-microshift-rhel9-2023-03-31-axjbyxw-private_map Your sosreport has been generated and saved in: /var/tmp/sosreport-microshift-rhel9-2023-03-31-axjbyxw-obfuscated.tar.xz Size 444.14KiB Owner root sha256 922e5ff2db25014585b7c6c749d2c44c8492756d619df5e9838ce863f83d4269 Please send this file to your support representative.
sosreport (version 4.5.1) This command will collect diagnostic and configuration information from this Red Hat Enterprise Linux system and installed applications. An archive containing the collected information will be generated in /var/tmp/sos.o0sznf_8 and may be provided to a Red Hat support representative. Any information provided to Red Hat will be treated in accordance with the published support policies at: Distribution Website : https://www.redhat.com/ Commercial Support : https://www.access.redhat.com/ The generated archive may contain data considered sensitive and its content should be reviewed by the originating organization before being passed to any third party. No changes will be made to system configuration. Setting up archive ... Setting up plugins ... Running plugins. Please wait ... Starting 1/2 microshift [Running: microshift] Starting 2/2 microshift_ovn [Running: microshift microshift_ovn] Finishing plugins [Running: microshift] Finished running plugins Found 1 total reports to obfuscate, processing up to 4 concurrently sosreport-microshift-rhel9-2023-03-31-axjbyxw : Beginning obfuscation... sosreport-microshift-rhel9-2023-03-31-axjbyxw : Obfuscation completed Successfully obfuscated 1 report(s) Creating compressed archive... A mapping of obfuscated elements is available at /var/tmp/sosreport-microshift-rhel9-2023-03-31-axjbyxw-private_map Your sosreport has been generated and saved in: /var/tmp/sosreport-microshift-rhel9-2023-03-31-axjbyxw-obfuscated.tar.xz Size 444.14KiB Owner root sha256 922e5ff2db25014585b7c6c749d2c44c8492756d619df5e9838ce863f83d4269 Please send this file to your support representative.
Copy to Clipboard Copied!
第 7 章 Pod 安全身份验证和授权
7.1. 了解并管理 pod 安全准入
Pod 安全准入是 Kubernetes pod 安全标准的实现。使用 pod 安全准入来限制 pod 的行为。
7.2. 安全性上下文约束与 pod 安全标准同步
MicroShift 包括 Kubernetes pod 安全准入。
除了全局 pod 安全准入控制配置外,还存在一个控制器,它根据给定命名空间中的服务帐户的安全上下文约束(SCC)权限将 pod 安全准入控制 warn
和 audit
标签应用到命名空间。
定义为集群有效负载一部分的命名空间会永久禁用 pod 安全准入同步。您可以根据需要,在其他命名空间中启用 pod 安全准入同步。如果 Operator 安装在用户创建的 openshift-*
命名空间中,则在命名空间中创建集群服务版本(CSV)后,默认会开启同步。
控制器检查 ServiceAccount
对象权限,以便在每个命名空间中使用安全性上下文约束。安全性上下文约束 (SCC) 根据其字段值映射到 Pod 安全配置集,控制器使用这些翻译配置集。Pod 安全准入 warn
和 audit
标签被设置为命名空间中找到的最特权 pod 安全配置集,以防止在创建 pod 时出现警告和审计日志记录。
命名空间标签基于对命名空间本地服务帐户权限的考虑。
直接应用 pod 可能会使用运行 Pod 的用户的 SCC 特权。但是,在自动标记过程中不会考虑用户权限。
7.2.1. 查看命名空间中的安全性上下文约束
您可以查看给定命名空间中的安全性上下文约束(SCC)权限。
先决条件
-
已安装 OpenShift CLI(
oc
)。
流程
要查看命名空间中的安全性上下文约束,请运行以下命令:
oc get --show-labels namespace <namespace>
oc get --show-labels namespace <namespace>
Copy to Clipboard Copied!
7.3. 控制 pod 安全准入同步
您可以为大多数命名空间启用自动 pod 安全准入同步。
当 security.openshift.io/scc.podSecurityLabelSync
字段为空或设置为 false
时,不会强制系统默认值。您必须将标签设置为 true
,才能进行同步。
定义为集群有效负载一部分的命名空间会永久禁用 pod 安全准入同步。这些命名空间包括:
-
default
-
kube-node-lease
-
kube-system
-
kube-public
-
openshift
-
所有带有
openshift-
前缀的系统创建命名空间(默认为openshift-operators
除外),所有具有openshift-
前缀的命名空间不会被同步。您可以为任何用户创建的openshift-*
命名空间启用同步。除了openshift-operators
之外,您无法为任何系统创建的openshift-*
命名空间启用同步。
如果 Operator 安装在用户创建的 openshift-*
命名空间中,则在命名空间中创建集群服务版本(CSV)后,默认会开启同步。同步标签继承命名空间中服务帐户的权限。
流程
要在命名空间中启用 pod 安全准入标签同步,请将
security.openshift.io/scc.podSecurityLabelSync
标签的值设置为true
。运行以下命令:
oc label namespace <namespace> security.openshift.io/scc.podSecurityLabelSync=true
$ oc label namespace <namespace> security.openshift.io/scc.podSecurityLabelSync=true
Copy to Clipboard Copied!
您可以使用 --overwrite 标志来反转命名空间中 pod 安全标签同步的影响。
第 8 章 Operator
8.1. 将 Operator 与 MicroShift 搭配使用
您可以将 Operator 与 MicroShift 搭配使用,以创建用于监控集群中运行的服务的应用程序。Operator 可以管理应用程序及其资源,如部署数据库或消息总线。作为在集群中运行的自定义软件,可以使用 Operator 来实现和自动化常见操作。
Operator 提供了更本地化的配置体验,并与 Kubernetes API 和 CLI 工具(如 kubectl
和 oc
)集成。Operator 是专为您的应用程序而设计的。Operator 允许您配置组件而不是修改全局配置文件。
MicroShift 应用程序通常预期部署在静态环境中。但是,如果在您的用例中很有用,Operator 就会可用。要确定 Operator 与 MicroShift 的兼容性,请查看 Operator 文档。
8.1.1. 如何将 Operator 与 MicroShift 集群搭配使用
将 Operator 用于 MicroShift 集群的方法有两种:
8.1.1.1. Operator 的清单
可以使用清单直接安装和管理 Operator。您可以在 MicroShift 中使用 kustomize
配置管理工具来部署应用程序。使用相同的步骤使用清单安装 Operator。
- 详情请参阅 使用 Kustomize 清单 来部署应用程序和使用 清单示例。
8.1.1.2. Operator 的 Operator Lifecycle Manager
您还可以使用 Operator Lifecycle Manager (OLM)将附加组件 Operator 安装到 MicroShift 集群。OLM 可用于管理广泛可用的自定义 Operator 和 Operator。构建目录需要在 MicroShift 中使用 OLM。
8.2. 在 MicroShift 中使用 Operator Lifecycle Manager
Operator Lifecycle Manager (OLM)软件包管理器在 MicroShift 中使用,用于 安装和运行可选附加组件 Operator。
8.2.1. 在 MicroShift 中使用 OLM 的注意事项
- 在 OpenShift Container Platform 中应用的集群 Operator 不会在 MicroShift 中使用。
您必须为您要用于应用程序的附加组件 Operator 创建自己的目录。默认不提供目录。
-
每个目录都必须添加到集群中的一个可访问的
CatalogSource
,以便 OLM 目录 Operator 可以使用目录进行内容。
-
每个目录都必须添加到集群中的一个可访问的
您必须使用 CLI 与 MicroShift 进行 OLM 活动。控制台和 OperatorHub GUI 不可用。
-
使用带有网络连接集群的 Operator Package Manager
opm
CLI,或为使用内部 registry 的自定义 Operator 构建目录。 - 要镜像目录和用于断开连接的集群的 Operator,请安装 oc-mirror OpenShift CLI 插件。
-
使用带有网络连接集群的 Operator Package Manager
在使用 Operator 之前,请验证红帽构建的 MicroShift 上是否支持 Operator 的供应商。
8.2.2. 确定您的 OLM 安装类型
您可以安装 OLM 软件包管理器以用于 MicroShift 4.15 或更新版本。根据您的用例,可以通过不同的方法为 MicroShift 集群安装 OLM。
-
您可以在 Red Hat Enterprise Linux (RHEL)上安装 MicroShift RPM 同时运行
microshift-olm
RPM。 -
您可以在现有的 MicroShift 4.15 上安装
microshift-olm
。安装 OLM 后重启 MicroShift 服务以进行更改。请参阅从 RPM 软件包安装 Operator Lifecycle Manager (OLM)。 - 您可以将 OLM 嵌入到 Red Hat Enterprise Linux for Edge (RHEL for Edge)镜像中。请参阅 将 Operator Lifecycle Manager (OLM)服务添加到蓝图中。
8.2.3. MicroShift 中的命名空间使用
microshift-olm
RPM 创建三个默认命名空间:一个用于运行 OLM,两个用于目录和 Operator 安装。您可以根据您的用例需要创建额外的命名空间。
8.2.3.1. 默认命名空间
下表列出了默认命名空间以及每个命名空间的工作方式的简短描述。
默认命名空间 | 详情 |
| OLM 软件包管理器在此命名空间中运行。 |
|
全局命名空间。默认为空。要使目录源对所有命名空间中的用户全局可用,请在 catalog-source YAML 中设置 |
|
Operator 在 MicroShift 中运行的默认命名空间。引用 |
8.2.3.2. 自定义命名空间
如果要在一个命名空间中同时使用目录和 Operator,您必须创建一个自定义命名空间。创建命名空间后,您必须在该命名空间中创建目录。在自定义命名空间中运行的所有 Operator 都必须具有相同的单命名空间监视范围。
8.2.4. 关于构建 Operator 目录
要将 Operator Lifecycle Manager (OLM)与 MicroShift 搭配使用,您必须构建自定义 Operator 目录,然后使用 OLM 管理。OpenShift Container Platform 中包含的标准目录没有包括在 MicroShift 中。
8.2.4.1. 基于文件的目录
您可以为自定义 Operator 创建目录,或过滤广泛可用 Operator 的目录。您可以组合这两种方法来创建特定用例所需的目录。要使用您自己的 Operator 和 OLM 运行 MicroShift,请使用基于文件的目录结构制作目录。
- 详情请参阅 管理自定义目录和示例 目录。
-
另请参阅
opm
CLI 参考。
-
将目录源添加到集群时, 在
catalogSource.yaml
文件中将securityContextConfig
值设置为restricted
。确保您的目录可以使用restricted
权限运行。
8.2.5. 如何使用 OLM 部署 Operator
创建和部署自定义目录后,您必须创建一个 Subscription 自定义资源(CR),该资源可以访问该目录并安装您选择的 Operator。运行 Operator 的位置取决于您在其中创建 Subscription CR 的命名空间。
OLM 中的 Operator 具有监视范围。例如,一些 Operator 只支持监视自己的命名空间,其他 Operator 支持监视集群中的每个命名空间。在给定命名空间中安装的所有 Operator 必须具有相同的监视范围。
8.2.5.1. 连接和 OLM Operator 部署
Operator 可以在目录运行的任何地方部署。
- 对于连接到互联网的集群,不需要镜像镜像。镜像可以通过网络拉取镜像。
- 对于 MicroShift 仅可访问内部网络的受限网络,镜像必须镜像到内部 registry。
-
对于 MicroShift 集群完全离线的用例,所有镜像都必须嵌入到
osbuild
蓝图中。
8.2.5.2. 使用全局命名空间将基于 OLM 的 Operator 添加到网络集群中
要将不同的操作器部署到不同的命名空间,请使用此流程。对于具有网络连接的 MicroShift 集群,Operator Lifecycle Manager (OLM)可以访问托管在远程 registry 上的源。以下流程列出了使用配置文件安装使用全局命名空间的 Operator 的基本步骤。
要使用安装在其他命名空间中或多个命名空间中的 Operator,请确保目录源和引用 Operator 的 Subscription CR 在 openshift-marketplace
命名空间中运行。
先决条件
-
已安装 OpenShift CLI (
oc
)。 - 已安装 Operator Lifecycle Manager (OLM)。
- 您已在全局命名空间中创建了自定义目录。
流程
使用以下命令确认 OLM 正在运行:
oc -n openshift-operator-lifecycle-manager get pod -l app=olm-operator
$ oc -n openshift-operator-lifecycle-manager get pod -l app=olm-operator
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE olm-operator-85b5c6786-n6kbc 1/1 Running 0 2m24s
NAME READY STATUS RESTARTS AGE olm-operator-85b5c6786-n6kbc 1/1 Running 0 2m24s
Copy to Clipboard Copied! 使用以下命令确认 OLM 目录 Operator 正在运行:
oc -n openshift-operator-lifecycle-manager get pod -l app=catalog-operator
$ oc -n openshift-operator-lifecycle-manager get pod -l app=catalog-operator
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE catalog-operator-5fc7f857b6-tj8cf 1/1 Running 0 2m33s
NAME READY STATUS RESTARTS AGE catalog-operator-5fc7f857b6-tj8cf 1/1 Running 0 2m33s
Copy to Clipboard Copied!
以下步骤假设您使用全局命名空间 openshift-marketplace
。目录必须与 Operator 在相同的命名空间中运行。Operator 必须支持 AllNamespaces 模式。
使用以下示例 YAML 创建
CatalogSource
对象:目录源 YAML 示例
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: operatorhubio-catalog namespace: openshift-marketplace spec: sourceType: grpc image: quay.io/operatorhubio/catalog:latest displayName: Community Operators publisher: OperatorHub.io grpcPodConfig: securityContextConfig: restricted updateStrategy: registryPoll: interval: 60m
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: operatorhubio-catalog namespace: openshift-marketplace
1 spec: sourceType: grpc image: quay.io/operatorhubio/catalog:latest displayName: Community Operators
2 publisher: OperatorHub.io grpcPodConfig: securityContextConfig: restricted
3 updateStrategy: registryPoll: interval: 60m
Copy to Clipboard Copied! 运行以下命令来应用
CatalogSource
配置:oc apply -f <my-catalog-source.yaml>
$ oc apply -f <my-catalog-source.yaml>
1 Copy to Clipboard Copied! - 1
- 将
<my-catalog-source.yaml
> 替换为您的目录源配置文件名称。在本例中,使用catalogsource.yaml
。
输出示例
catalogsource.operators.coreos.com/operatorhubio-catalog created
catalogsource.operators.coreos.com/operatorhubio-catalog created
Copy to Clipboard Copied! 要验证是否应用了目录源,请使用以下命令检查
READY
状态:oc describe catalogsources.operators.coreos.com -n openshift-marketplace operatorhubio-catalog
$ oc describe catalogsources.operators.coreos.com -n openshift-marketplace operatorhubio-catalog
Copy to Clipboard Copied! 输出示例
Name: operatorhubio-catalog Namespace: openshift-marketplace Labels: <none> Annotations: <none> API Version: operators.coreos.com/v1alpha1 Kind: CatalogSource Metadata: Creation Timestamp: 2024-01-31T09:55:31Z Generation: 1 Resource Version: 1212 UID: 4edc1a96-83cd-4de9-ac8c-c269ca895f3e Spec: Display Name: Community Operators Grpc Pod Config: Security Context Config: restricted Image: quay.io/operatorhubio/catalog:latest Publisher: OperatorHub.io Source Type: grpc Update Strategy: Registry Poll: Interval: 60m Status: Connection State: Address: operatorhubio-catalog.openshift-marketplace.svc:50051 Last Connect: 2024-01-31T09:55:57Z Last Observed State: READY Registry Service: Created At: 2024-01-31T09:55:31Z Port: 50051 Protocol: grpc Service Name: operatorhubio-catalog Service Namespace: openshift-marketplace Events: <none>
Name: operatorhubio-catalog Namespace: openshift-marketplace Labels: <none> Annotations: <none> API Version: operators.coreos.com/v1alpha1 Kind: CatalogSource Metadata: Creation Timestamp: 2024-01-31T09:55:31Z Generation: 1 Resource Version: 1212 UID: 4edc1a96-83cd-4de9-ac8c-c269ca895f3e Spec: Display Name: Community Operators Grpc Pod Config: Security Context Config: restricted Image: quay.io/operatorhubio/catalog:latest Publisher: OperatorHub.io Source Type: grpc Update Strategy: Registry Poll: Interval: 60m Status: Connection State: Address: operatorhubio-catalog.openshift-marketplace.svc:50051 Last Connect: 2024-01-31T09:55:57Z Last Observed State: READY
1 Registry Service: Created At: 2024-01-31T09:55:31Z Port: 50051 Protocol: grpc Service Name: operatorhubio-catalog Service Namespace: openshift-marketplace Events: <none>
Copy to Clipboard Copied! - 1
- 状态报告为
READY
。
使用以下命令确认目录源正在运行:
oc get pods -n openshift-marketplace -l olm.catalogSource=operatorhubio-catalog
$ oc get pods -n openshift-marketplace -l olm.catalogSource=operatorhubio-catalog
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE operatorhubio-catalog-x24nh 1/1 Running 0 59s
NAME READY STATUS RESTARTS AGE operatorhubio-catalog-x24nh 1/1 Running 0 59s
Copy to Clipboard Copied! 使用以下示例 YAML 创建 Subscription CR 配置文件:
Subscription 自定义资源 YAML 示例
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: my-cert-manager namespace: openshift-operators spec: channel: stable name: cert-manager source: operatorhubio-catalog sourceNamespace: openshift-marketplace
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: my-cert-manager namespace: openshift-operators spec: channel: stable name: cert-manager source: operatorhubio-catalog sourceNamespace: openshift-marketplace
1 Copy to Clipboard Copied! - 1
- 全局命名空间。如果目录也在
openshift-marketplace
命名空间中运行,将sourceNamespace
值设置为openshift-marketplace
可让 Operator 在多个命名空间中运行。
运行以下命令来应用 Subscription CR 配置:
oc apply -f <my-subscription-cr.yaml>
$ oc apply -f <my-subscription-cr.yaml>
1 Copy to Clipboard Copied! - 1
- 将
<my-subscription-cr.yaml&
gt; 替换为您的订阅 CR 文件名。在本例中,使用sub.yaml
。
输出示例
subscription.operators.coreos.com/my-cert-manager created
subscription.operators.coreos.com/my-cert-manager created
Copy to Clipboard Copied! - 您可以为您要使用的特定 Operand 创建配置文件,并现在应用它。
验证
使用以下命令验证您的 Operator 是否正在运行:
oc get pods -n openshift-operators
$ oc get pods -n openshift-operators
1 Copy to Clipboard Copied! - 1
- 使用 Subscription CR 中的命名空间。
注意在 Operator 启动时,允许一两分钟。
输出示例
NAME READY STATUS RESTARTS AGE cert-manager-7df8994ddb-4vrkr 1/1 Running 0 19s cert-manager-cainjector-5746db8fd7-69442 1/1 Running 0 18s cert-manager-webhook-f858bf58b-748nt 1/1 Running 0 18s
NAME READY STATUS RESTARTS AGE cert-manager-7df8994ddb-4vrkr 1/1 Running 0 19s cert-manager-cainjector-5746db8fd7-69442 1/1 Running 0 18s cert-manager-webhook-f858bf58b-748nt 1/1 Running 0 18s
Copy to Clipboard Copied!
8.2.5.3. 将基于 OLM 的 Operator 添加到特定命名空间中的网络集群中
如果要为 Operator 指定命名空间,如 olm-microshift
,请使用此流程。在本例中,目录有范围,可在全局 openshift-marketplace
命名空间中使用。Operator 使用来自全局命名空间的内容,但仅在 olm-microshift
命名空间中运行。对于具有网络连接的 MicroShift 集群,Operator Lifecycle Manager (OLM)可以访问托管在远程 registry 上的源。
在特定命名空间中安装的所有 Operator 必须具有相同的监视范围。在这种情况下,监视范围为 OwnNamespace。
先决条件
-
已安装 OpenShift CLI (
oc
)。 - 已安装 Operator Lifecycle Manager (OLM)。
- 您已创建了在全局命名空间中运行的自定义目录。
流程
使用以下命令确认 OLM 正在运行:
oc -n openshift-operator-lifecycle-manager get pod -l app=olm-operator
$ oc -n openshift-operator-lifecycle-manager get pod -l app=olm-operator
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE olm-operator-85b5c6786-n6kbc 1/1 Running 0 16m
NAME READY STATUS RESTARTS AGE olm-operator-85b5c6786-n6kbc 1/1 Running 0 16m
Copy to Clipboard Copied! 使用以下命令确认 OLM catalog Operator 正在运行:
oc -n openshift-operator-lifecycle-manager get pod -l app=catalog-operator
$ oc -n openshift-operator-lifecycle-manager get pod -l app=catalog-operator
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE catalog-operator-5fc7f857b6-tj8cf 1/1 Running 0 16m
NAME READY STATUS RESTARTS AGE catalog-operator-5fc7f857b6-tj8cf 1/1 Running 0 16m
Copy to Clipboard Copied! 使用以下 YAML 示例创建命名空间:
命名空间 YAML 示例
apiVersion: v1 kind: Namespace metadata: name: olm-microshift
apiVersion: v1 kind: Namespace metadata: name: olm-microshift
Copy to Clipboard Copied! 使用以下命令应用命名空间配置:
oc apply -f _<ns.yaml>_
$ oc apply -f _<ns.yaml>_
1 Copy to Clipboard Copied! - 1
- 将 <ns.yaml > 替换为命名空间配置文件的名称。在本例中,使用了
olm-microshift
。
输出示例
namespace/olm-microshift created
namespace/olm-microshift created
Copy to Clipboard Copied! 使用以下示例 YAML 创建 Operator 组 YAML:
Operator 组 YAML 示例
kind: OperatorGroup apiVersion: operators.coreos.com/v1 metadata: name: og namespace: olm-microshift spec: targetNamespaces: - olm-microshift
kind: OperatorGroup apiVersion: operators.coreos.com/v1 metadata: name: og namespace: olm-microshift spec:
1 targetNamespaces: - olm-microshift
Copy to Clipboard Copied! - 1
- 对于使用全局命名空间的 Operator,请省略
spec.targetNamespaces
字段和值。
运行以下命令来应用 Operator 组配置:
oc apply -f _<og.yaml>_
$ oc apply -f _<og.yaml>_
1 Copy to Clipboard Copied! - 1
- 将 <og.yaml > 替换为 operator 组配置文件的名称。
输出示例
operatorgroup.operators.coreos.com/og created
operatorgroup.operators.coreos.com/og created
Copy to Clipboard Copied! 使用以下示例 YAML 创建
CatalogSource
对象:目录源 YAML 示例
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: operatorhubio-catalog namespace: openshift-marketplace spec: sourceType: grpc image: quay.io/operatorhubio/catalog:latest displayName: Community Operators publisher: OperatorHub.io grpcPodConfig: securityContextConfig: restricted updateStrategy: registryPoll: interval: 60m
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: operatorhubio-catalog namespace: openshift-marketplace
1 spec: sourceType: grpc image: quay.io/operatorhubio/catalog:latest displayName: Community Operators
2 publisher: OperatorHub.io grpcPodConfig: securityContextConfig: restricted
3 updateStrategy: registryPoll: interval: 60m
Copy to Clipboard Copied! 运行以下命令来应用
CatalogSource
配置:oc apply -f _<my-catalog-source.yaml>_
$ oc apply -f _<my-catalog-source.yaml>_
1 Copy to Clipboard Copied! - 1
- 将 <my-catalog-source.yaml > 替换为您的目录源配置文件名称。
要验证是否已应用目录源,请使用以下命令检查
READY
状态:oc describe catalogsources.operators.coreos.com -n openshift-marketplace operatorhubio-catalog
$ oc describe catalogsources.operators.coreos.com -n openshift-marketplace operatorhubio-catalog
Copy to Clipboard Copied! 输出示例
Name: operatorhubio-catalog Namespace: openshift-marketplace Labels: <none> Annotations: <none> API Version: operators.coreos.com/v1alpha1 Kind: CatalogSource Metadata: Creation Timestamp: 2024-01-31T10:09:46Z Generation: 1 Resource Version: 2811 UID: 60ce4a36-86d3-4921-b9fc-84d67c28df48 Spec: Display Name: Community Operators Grpc Pod Config: Security Context Config: restricted Image: quay.io/operatorhubio/catalog:latest Publisher: OperatorHub.io Source Type: grpc Update Strategy: Registry Poll: Interval: 60m Status: Connection State: Address: operatorhubio-catalog.openshift-marketplace.svc:50051 Last Connect: 2024-01-31T10:10:04Z Last Observed State: READY Registry Service: Created At: 2024-01-31T10:09:46Z Port: 50051 Protocol: grpc Service Name: operatorhubio-catalog Service Namespace: openshift-marketplace Events: <none>
Name: operatorhubio-catalog Namespace: openshift-marketplace Labels: <none> Annotations: <none> API Version: operators.coreos.com/v1alpha1 Kind: CatalogSource Metadata: Creation Timestamp: 2024-01-31T10:09:46Z Generation: 1 Resource Version: 2811 UID: 60ce4a36-86d3-4921-b9fc-84d67c28df48 Spec: Display Name: Community Operators Grpc Pod Config: Security Context Config: restricted Image: quay.io/operatorhubio/catalog:latest Publisher: OperatorHub.io Source Type: grpc Update Strategy: Registry Poll: Interval: 60m Status: Connection State: Address: operatorhubio-catalog.openshift-marketplace.svc:50051 Last Connect: 2024-01-31T10:10:04Z Last Observed State: READY
1 Registry Service: Created At: 2024-01-31T10:09:46Z Port: 50051 Protocol: grpc Service Name: operatorhubio-catalog Service Namespace: openshift-marketplace Events: <none>
Copy to Clipboard Copied! - 1
- 状态报告为
READY
。
使用以下命令确认目录源正在运行:
oc get pods -n openshift-marketplace -l olm.catalogSource=operatorhubio-catalog
$ oc get pods -n openshift-marketplace -l olm.catalogSource=operatorhubio-catalog
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE operatorhubio-catalog-j7sc8 1/1 Running 0 43s
NAME READY STATUS RESTARTS AGE operatorhubio-catalog-j7sc8 1/1 Running 0 43s
Copy to Clipboard Copied! 使用以下示例 YAML 创建 Subscription CR 配置文件:
Subscription 自定义资源 YAML 示例
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: my-gitlab-operator-kubernetes namespace: olm-microshift spec: channel: stable name: gitlab-operator-kubernetes source: operatorhubio-catalog sourceNamespace: openshift-marketplace
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: my-gitlab-operator-kubernetes namespace: olm-microshift
1 spec: channel: stable name: gitlab-operator-kubernetes source: operatorhubio-catalog sourceNamespace: openshift-marketplace
2 Copy to Clipboard Copied! 运行以下命令来应用 Subscription CR 配置:
oc apply -f _<my-subscription-cr.yaml>_
$ oc apply -f _<my-subscription-cr.yaml>_
Copy to Clipboard Copied! 输出示例
subscription.operators.coreos.com/my-gitlab-operator-kubernetes
subscription.operators.coreos.com/my-gitlab-operator-kubernetes
Copy to Clipboard Copied! - 您可以为您要使用的特定 Operand 创建配置文件,并现在应用它。
验证
使用以下命令验证您的 Operator 是否正在运行:
oc get pods -n olm-microshift
$ oc get pods -n olm-microshift
1 Copy to Clipboard Copied! - 1
- 使用 Subscription CR 中的命名空间。
注意在 Operator 启动时,允许一两分钟。
输出示例
NAME READY STATUS RESTARTS AGE gitlab-controller-manager-69bb6df7d6-g7ntx 2/2 Running 0 3m24s
NAME READY STATUS RESTARTS AGE gitlab-controller-manager-69bb6df7d6-g7ntx 2/2 Running 0 3m24s
Copy to Clipboard Copied!
8.3. 使用 oc-mirror 插件创建自定义目录
您可以使用 oc-mirror OpenShift CLI (oc)插件创建带有广泛可用 Operator 的自定义目录,并对其进行镜像。
8.3.1. 使用红帽提供的 Operator 目录和镜像 registry
您可以使用 oc-mirror OpenShift CLI (oc)插件过滤和修剪目录以获取特定的 Operator 并进行镜像。您还可以在断开连接的设置中使用 Operator,或嵌入 Red Hat Enterprise Linux for Edge (RHEL for Edge)镜像中。要了解有关如何为镜像配置您的系统的更多详细信息,请使用以下"Additional resources"部分中的链接。如果您已准备好从红帽提供的 Operator 目录、镜像或将其嵌入到 RHEL for Edge 镜像中,请从以下部分开始,"使用 oc-mirror 插件创建目录内容"。
8.3.2. 关于用于创建镜像 registry 的 oc-mirror 插件
您可以使用 MicroShift 的 oc-mirror OpenShift CLI (oc)插件来过滤和修剪 Operator 目录。然后,您可以将过滤的目录内容镜像到镜像 registry,或使用 RHEL for Edge 的断开连接的或离线部署中的容器镜像。
MicroShift 使用 oc-mirror 插件的通用版本(1)。不要在 oc-mirror 插件的技术预览版本(2)中使用以下步骤。
您可以在本地将所需 Operator 所需的容器镜像镜像,或镜像到支持 Docker v2-2 (如 Red Hat Quay)的容器镜像。从连接到互联网到断开连接的镜像 registry 的 Red Hat 托管 registry 镜像内容的过程与您选择的 registry 无关。镜像目录内容后,将每个集群配置为从您的镜像 registry 中检索此内容。
8.3.2.1. 填充镜像 registry 时的连接注意事项
在填充 registry 时,您可以使用以下连接场景之一:
- 连接的镜像
- 如果您的主机可以同时访问互联网和您的镜像 registry,但不能访问您的集群节点,您可以直接从该机器中镜像内容。
- 断开连接的镜像
如果您没有可同时访问互联网和您的镜像 registry 的主机,您必须将镜像镜像(mirror)到文件系统中,然后将该主机或可移动介质置于断开连接的环境中。
重要容器 registry 必须可以被您置备的集群中的每个机器访问。如果 registry 无法访问,则安装、更新和其他操作(如重新定位工作负载)可能会失败。
为了避免由无法访问的 registry 造成的问题,请使用以下标准实践:
- 以高可用性方式运行镜像 registry。
- 确保镜像 registry 至少与集群的生产环境可用性匹配。
8.3.2.2. 使用 oc-mirror 插件检查目录内容
使用以下示例流程选择目录并列出可用 OpenShift Container Platform 内容的 Operator,以添加到 oc-mirror 插件镜像设置配置文件中。
如果使用自己的目录和 Operator,您可以将镜像直接推送到内部 registry。
先决条件
-
已安装 OpenShift CLI (
oc
)。 - 已安装 Operator Lifecycle Manager (OLM)。
- 已安装 oc-mirror OpenShift CLI (oc)插件。
流程
运行以下命令,获取可用红帽提供的 Operator 目录列表来过滤:
oc mirror list operators --version 4.15 --catalogs
$ oc mirror list operators --version 4.15 --catalogs
Copy to Clipboard Copied! 运行以下命令,获取 Red Hat Operator 目录中的 Operator 列表:
oc mirror list operators <--catalog=<catalog_source>>
$ oc mirror list operators <--catalog=<catalog_source>>
1 Copy to Clipboard Copied! - 1
- 指定目录源,如
registry.redhat.io/redhat/redhat-operator-index:v4.15
或quay.io/operatorhubio/catalog:latest
。
-
选择一个 Operator。在本例中,选择
amq-broker-rhel8
。 可选: 要检查您要过滤的 Operator 的频道和版本,请输入以下命令:
运行以下命令获取频道列表:
oc mirror list operators --catalog=registry.redhat.io/redhat/redhat-operator-index:v4.15 --package=amq-broker-rhel8
$ oc mirror list operators --catalog=registry.redhat.io/redhat/redhat-operator-index:v4.15 --package=amq-broker-rhel8
Copy to Clipboard Copied! 运行以下命令,获取频道中的版本列表:
oc mirror list operators --catalog=registry.redhat.io/redhat/redhat-operator-index:v4.15 --package=amq-broker-rhel8 --channel=7.11.x
$ oc mirror list operators --catalog=registry.redhat.io/redhat/redhat-operator-index:v4.15 --package=amq-broker-rhel8 --channel=7.11.x
Copy to Clipboard Copied!
后续步骤
- 使用此流程中收集的信息创建和编辑镜像设置配置文件。
- 将镜像从转换的镜像设置配置文件镜像到镜像 registry 或磁盘。
8.3.2.3. 创建镜像设置配置文件
您必须创建一个镜像设置配置文件,以使用 oc-mirror 插件镜像目录内容。镜像设置配置文件定义要镜像哪些 Operator 以及 oc-mirror 插件的其他配置设置。生成默认镜像集文件后,您必须编辑内容,以便剩余的条目与 MicroShift 和您计划使用的 Operator 兼容。
您必须在镜像设置配置文件中指定存储后端。此存储后端可以是本地目录或支持 Docker v2-2 的 registry。oc-mirror 插件在创建镜像的过程中将元数据存储在这个存储后端中。
不要删除或修改 oc-mirror 插件生成的元数据。每次针对同一镜像 registry 运行 oc-mirror 插件时,都必须使用相同的存储后端。
先决条件
- 您已创建了容器镜像 registry 凭证文件。请参阅配置允许镜像镜像的凭证。
流程
使用
oc mirror init
命令为镜像设置配置创建模板,并将其保存到名为imageset-config.yaml
的文件中:oc mirror init <--registry <storage_backend> > imageset-config.yaml
$ oc mirror init <--registry <storage_backend> > imageset-config.yaml
1 Copy to Clipboard Copied! - 1
- 指定存储后端的位置,如
example.com/mirror/oc-mirror-metadata
。
默认镜像设置配置文件示例
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 storageConfig: registry: imageURL: registry.example.com/oc-mirror skipTLS: false mirror: platform: channels: - name: stable-4.15 type: ocp operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15 packages: - name: serverless-operator channels: - name: stable additionalImages: - name: registry.redhat.io/ubi8/ubi:latest helm: {}
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 storageConfig: registry: imageURL: registry.example.com/oc-mirror skipTLS: false mirror: platform:
1 channels: - name: stable-4.15 type: ocp operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15 packages: - name: serverless-operator channels: - name: stable additionalImages:
2 - name: registry.redhat.io/ubi8/ubi:latest helm: {}
3 Copy to Clipboard Copied! 编辑镜像设置配置文件的值,以满足 MicroShift 和您要镜像的 Operator 的要求,如下例所示:
编辑的 MicroShift 镜像设置配置文件示例
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 storageConfig: registry: imageURL: <storage_backend> skipTLS: false mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15 packages: - name: amq-broker-rhel8 channels: - name: 7.11.x
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 storageConfig:
1 registry: imageURL: <storage_backend>
2 skipTLS: false mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15
3 packages: - name: amq-broker-rhel8
4 channels: - name: 7.11.x
5 Copy to Clipboard Copied! - 1
- 设置保存镜像设置元数据的后端位置。此位置可以是 registry 或本地目录。必须指定
storageConfig
值。 - 2
- 设置存储后端的 registry URL,如
<example.com/mirror/oc-mirror-metadata
。 - 3
- 将 Operator 目录设置为从中检索镜像。
- 4
- 指定要包含在镜像集中的 Operator 软件包。删除此字段以检索目录中的所有软件包。
- 5
- 仅指定要包含在镜像集中的 Operator 软件包的某些频道。即使您没有使用该频道中的捆绑包,还必须始终包含 Operator 软件包的默认频道。您可以运行以下命令来找到默认频道:
oc mirror list operators --catalog=<catalog_name> --package=<package_name>
。
- 保存更新的文件。
后续步骤
- 使用 oc-mirror 插件将镜像直接设置为目标镜像 registry。
- 配置 CRI-O。
- 将目录源应用到集群。
8.3.2.3.1. 镜像设置配置参数
oc-mirror 插件需要一个镜像设置配置文件,该文件定义哪些镜像要镜像(mirror)。下表列出了 ImageSetConfiguration
资源的可用参数。
参数 | 描述 | 值 |
---|---|---|
|
|
字符串.例如: |
| 镜像集的配置。 | 对象 |
| 镜像集的额外镜像配置。 | 对象数组。例如: additionalImages: - name: registry.redhat.io/ubi8/ubi:latest
|
| 要 mirror 的镜像的标签或摘要。 |
字符串.例如: |
| 用于阻止镜像(tag)或摘要(SHA)的镜像列表。 |
字符串数组。例如: |
| 镜像集的 Operator 配置。 | 对象数组。例如: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15 packages: - name: elasticsearch-operator minVersion: '2.4.0'
|
| 包括在镜像集中的 Operator 目录。 |
字符串.例如: |
|
为 |
布尔值.默认值为 |
| Operator 软件包配置。 | 对象数组。例如: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15 packages: - name: elasticsearch-operator minVersion: '5.2.3-31'
|
| 镜像集中要包含的 Operator 软件包名称 |
字符串.例如: |
| Operator 软件包频道配置。 | 对象 |
| Operator 频道名称(软件包中唯一)要包括在镜像集中。 |
字符串.例如: |
| Operator 镜像的最高版本,在其中存在所有频道。详情请查看以下备注。 |
字符串.例如: |
| 要包含的最小捆绑包的名称,以及频道头更新图中的所有捆绑包。仅在命名捆绑包没有语义版本元数据时设置此字段。 |
字符串.例如: |
| Operator 的最低版本,用于镜像存在的所有频道。详情请查看以下备注。 |
字符串.例如: |
| Operator 最高版本,可跨所有存在的频道进行镜像。详情请查看以下备注。 |
字符串.例如: |
| Operator 的最低版本,用于镜像存在的所有频道。详情请查看以下备注。 |
字符串.例如: |
|
如果为 |
布尔值.默认值为 |
| 要镜像引用的目录的替代名称和可选命名空间层次结构。 |
字符串.例如: |
| 将引用的目录镜像为。
|
字符串.例如: |
|
附加到 |
字符串.例如: |
| 镜像集的后端配置。 | 对象 |
| 镜像集的本地后端配置。 | 对象 |
| 包含镜像设置元数据的目录路径。 |
字符串.例如: |
| 镜像集的 registry 后端配置。 | 对象 |
| 后端 registry URI。可以选择在 URI 中包含命名空间引用。 |
字符串.例如: |
| (可选)跳过引用的后端 registry 的 TLS 验证。 |
布尔值.默认值为 |
使用 minVersion
和 maxVersion
属性过滤特定 Operator 版本范围可能会导致多个频道头错误。错误信息将显示有多个频道头
。这是因为在应用过滤器时,Operator 的更新图会被截断。
Operator Lifecycle Manager 要求每个 operator 频道都包含一个端点组成更新图表的版本,即 Operator 的最新版本。在应用图形的过滤器范围时,可以进入两个或多个独立图形或具有多个端点的图形。
要避免这个错误,请不要过滤 Operator 的最新版本。如果您仍然遇到错误,具体取决于 Operator,则必须增加 maxVersion
属性,或者 minVersion
属性必须减少。因为每个 Operator 图都可以不同,所以您可能需要调整这些值,直到错误解决为止。
8.3.2.4. 镜像(mirror)到镜像(mirror)的镜像
您可以使用 oc-mirror 插件将镜像直接设置为在镜像设置过程中可访问的目标镜像 registry。
您必须在镜像设置配置文件中指定存储后端。这个存储后端可以是本地目录或 Docker v2 registry。oc-mirror 插件在创建镜像的过程中将元数据存储在这个存储后端中。
不要删除或修改 oc-mirror 插件生成的元数据。每次针对同一镜像 registry 运行 oc-mirror 插件时,都必须使用相同的存储后端。
先决条件
- 您可以访问互联网来获取所需的容器镜像。
-
已安装 OpenShift CLI(
oc
)。 -
已安装
oc-mirror
CLI 插件。 - 您已创建了镜像设置配置文件。
流程
运行
oc mirror
命令将指定镜像集配置中的镜像镜像到指定的 registry:oc mirror --config=./<imageset-config.yaml> \ docker://registry.example:5000
$ oc mirror --config=./<imageset-config.yaml> \
1 docker://registry.example:5000
2 Copy to Clipboard Copied!
输出示例
Rendering catalog image "registry.example.com/redhat/redhat-operator-index:v{ocp-version}" with file-based catalog
Rendering catalog image "registry.example.com/redhat/redhat-operator-index:v{ocp-version}" with file-based catalog
验证
-
进入生成的
oc-mirror-workspace/
目录。 -
导航到结果目录,例如,
results-1639608409/
。 -
验证
ImageContentSourcePolicy
和CatalogSource
资源是否存在 YAML 文件。
ImageContentSourcePolicy
YAML 文件用作 MicroShift 中手动配置 CRI-O 的参考内容。您不能将资源直接应用到 MicroShift 集群中。
后续步骤
-
转换
ImageContentSourcePolicy
YAML 内容,以用于手动配置 CRI-O。 - 如果需要,将镜像从 mirror 镜像到磁盘,以进行断开连接或离线使用。
- 配置集群以使用 oc-mirror 生成的资源。
故障排除
8.3.2.5. 配置 CRI-O,为 Operator 使用 registry 镜像
您必须使用 oc-mirror 插件创建的 imageContentSourcePolicy.yaml
文件转换为与 MicroShift 使用的 CRI-O 容器运行时配置兼容的格式。
先决条件
-
已安装 OpenShift CLI (
oc
)。 - 已安装 Operator Lifecycle Manager (OLM)。
- 已安装 oc-mirror OpenShift CLI (oc)插件。
-
已安装
yq
二进制文件。 -
ImageContentSourcePolicy
和CatalogSource
YAML 文件位于oc-mirror-workspace/results github
目录中。
流程
运行以下命令确认
imageContentSourcePolicy.yaml
文件的内容:cat oc-mirror-workspace/<results-directory>/imageContentSourcePolicy.yaml
$ cat oc-mirror-workspace/<results-directory>/imageContentSourcePolicy.yaml
1 Copy to Clipboard Copied! - 1
- 指定
结果
目录名称,如 <results-1707148826>
。
输出示例
apiVersion: operator.openshift.io/v1alpha1 kind: ImageContentSourcePolicy metadata: labels: operators.openshift.org/catalog: "true" name: operator-0 spec: repositoryDigestMirrors: - mirrors: - registry.<example.com>/amq7 source: registry.redhat.io/amq7
apiVersion: operator.openshift.io/v1alpha1 kind: ImageContentSourcePolicy metadata: labels: operators.openshift.org/catalog: "true" name: operator-0 spec: repositoryDigestMirrors: - mirrors: - registry.<example.com>/amq7 source: registry.redhat.io/amq7
Copy to Clipboard Copied! 运行以下命令,将
imageContentSourcePolicy.yaml
转换为可用于 CRI-O 配置的格式:yq '.spec.repositoryDigestMirrors[] as $item ireduce([]; . + [{"mirror": $item.mirrors[], "source": ($item | .source)}]) | .[] | "[[registry]] prefix = \"" + .source + "\" location = \"" + .mirror + "\" mirror-by-digest-only = true insecure = true "' ./icsp.yaml
yq '.spec.repositoryDigestMirrors[] as $item ireduce([]; . + [{"mirror": $item.mirrors[], "source": ($item | .source)}]) | .[] | "[[registry]] prefix = \"" + .source + "\" location = \"" + .mirror + "\" mirror-by-digest-only = true insecure = true "' ./icsp.yaml
Copy to Clipboard Copied! 输出示例
[[registry]] prefix = "registry.redhat.io/amq7" location = "registry.example.com/amq7" mirror-by-digest-only = true insecure = true
[[registry]] prefix = "registry.redhat.io/amq7" location = "registry.example.com/amq7" mirror-by-digest-only = true insecure = true
Copy to Clipboard Copied! 将输出添加到
/etc/containers/registries.conf.d/
目录中的 CRI-O 配置文件中:crio-config.yaml
镜像配置文件示例[[registry]] prefix = "registry.redhat.io/amq7" location = "registry.example.com/amq7" mirror-by-digest-only = true insecure = true [[registry]] prefix = "" location = "quay.io" mirror-by-digest-only = true [[registry.mirror]] location = "<registry_host>:<port>" insecure = false
[[registry]] prefix = "registry.redhat.io/amq7" location = "registry.example.com/amq7" mirror-by-digest-only = true insecure = true [[registry]] prefix = "" location = "quay.io" mirror-by-digest-only = true [[registry.mirror]] location = "<registry_host>:<port>"
1 insecure = false
Copy to Clipboard Copied! - 1
- 指定镜像 registry 服务器的主机名和端口,如
microshift-quay:8443
。
使用以下命令重启 MicroShift 来应用 CRI-O 配置更改:
sudo systemctl restart crio
$ sudo systemctl restart crio
Copy to Clipboard Copied!
8.3.2.6. 安装使用 oc-mirror 插件创建的自定义目录
将镜像设置为镜像 registry 后,您必须将生成的 CatalogSource
自定义资源(CR)应用到集群。Operator Lifecycle Manager (OLM)使用 CatalogSource
CR 来检索有关镜像 registry 中可用 Operator 的信息。然后,您必须创建并应用订阅 CR 来订阅您的自定义目录。
先决条件
- 您已将镜像设置为 registry 镜像。
- 您可以将镜像引用信息添加到 CRI-O 容器运行时配置中。
流程
运行以下命令,应用来自结果目录中的目录源配置文件来创建目录源对象:
oc apply -f ./oc-mirror-workspace/results-1708508014/catalogSource-cs-redhat-operator-index.yaml
$ oc apply -f ./oc-mirror-workspace/results-1708508014/catalogSource-cs-redhat-operator-index.yaml
Copy to Clipboard Copied! 目录源配置文件示例
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: redhat-catalog namespace: openshift-marketplace spec: sourceType: grpc image: registry.example.com/redhat/redhat-operator-index:v4.15 updateStrategy: registryPoll: interval: 60m
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: redhat-catalog namespace: openshift-marketplace
1 spec: sourceType: grpc image: registry.example.com/redhat/redhat-operator-index:v4.15 updateStrategy: registryPoll: interval: 60m
Copy to Clipboard Copied! - 1
- 指定全局命名空间。将
metadata.namespace
设置为openshift-marketplace
可让目录引用所有命名空间中的目录。任何命名空间中的订阅可以引用在openshift-marketplace
命名空间中创建的目录。
输出示例
catalogsource.operators.coreos.com/cs-redhat-operator-index created
catalogsource.operators.coreos.com/cs-redhat-operator-index created
Copy to Clipboard Copied! 运行以下命令验证
CatalogSource
资源是否已成功安装:oc get catalogsource --all-namespaces
$ oc get catalogsource --all-namespaces
Copy to Clipboard Copied! 使用以下命令验证目录源是否正在运行:
oc get pods -n openshift-marketplace
$ oc get pods -n openshift-marketplace
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE cs-redhat-operator-index-4227b 2/2 Running 0 2m5s
NAME READY STATUS RESTARTS AGE cs-redhat-operator-index-4227b 2/2 Running 0 2m5s
Copy to Clipboard Copied! 创建一个
Subscription
CR,类似以下示例:Subscription
CR 示例apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: amq-broker namespace: openshift-operators spec: channel: 7.11.x name: amq-broker-rhel8 source: cs-redhat-operator-index sourceNamespace: openshift-marketplace
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: amq-broker namespace: openshift-operators spec: channel: 7.11.x name: amq-broker-rhel8 source: cs-redhat-operator-index sourceNamespace: openshift-marketplace
Copy to Clipboard Copied! 运行以下命令来应用 Subscription CR 配置:
oc apply -f ./<my-subscription-cr.yaml>
$ oc apply -f ./<my-subscription-cr.yaml>
1 Copy to Clipboard Copied! - 1
- 指定订阅的名称,如
my-subscription-cr.yaml
。
输出示例
subscription.operators.coreos.com/amq-broker created
subscription.operators.coreos.com/amq-broker created
Copy to Clipboard Copied!
8.4. 将基于 OLM 的 Operator 添加到断开连接的集群中
您可以通过将基于 OLM 的 Operator 嵌入到 Red Hat Enterprise Linux for Edge (RHEL for Edge)镜像中,在断开连接的环境中使用基于 OLM 的 Operator。
8.4.1. 关于将基于 OLM 的 Operator 添加到断开连接的集群中
对于在断开连接的集群中安装的 Operator,Operator Lifecycle Manager (OLM)默认无法访问远程 registry 上托管的源,因为这些远程源需要足够的互联网连接。因此,您必须将远程 registry 镜像到高度可用的容器 registry。
在断开连接的环境中,需要执行以下步骤来使用基于 OLM 的 Operator:
- 将 OLM 包含在您的镜像 registry 的容器镜像列表中。
-
通过直接更新 CRI-O 配置将系统配置为使用您的镜像 registry。MicroShift 不支持
ImageContentSourcePolicy
。 -
在集群中添加
CatalogSource
对象,以便 OLM 目录 Operator 可以使用镜像 registry 上的本地目录。 - 确保 MicroShift 已安装在断开连接的容量中运行。
- 确保网络设置配置为在断开连接的模式下运行。
在断开连接的集群中启用 OLM 后,您可以继续使用互联网连接的工作站在发布较新版本的 Operator 时保持本地目录源更新。
8.4.1.1. 执行空运行
您可以使用 oc-mirror 来执行空运行,而无需实际镜像(mirror)。这可让您查看要镜像的镜像列表,以及从镜像 registry 修剪的所有镜像。使用空运行(dry run)还允许您在早期版本中捕获与镜像集配置相关的任何错误,或使用生成的镜像列表以及其他工具来执行镜像操作。
先决条件
- 您可以访问互联网来获取所需的容器镜像。
-
已安装 OpenShift CLI(
oc
)。 -
已安装
oc-mirror
CLI 插件。 - 您已创建了镜像设置配置文件。
流程
使用
--dry-run
标志运行oc mirror
命令来执行空运行:oc mirror --config=./imageset-config.yaml \ docker://registry.example:5000 \ --dry-run
$ oc mirror --config=./imageset-config.yaml \
1 docker://registry.example:5000 \
2 --dry-run
3 Copy to Clipboard Copied! 输出示例
Checking push permissions for registry.example:5000 Creating directory: oc-mirror-workspace/src/publish Creating directory: oc-mirror-workspace/src/v2 Creating directory: oc-mirror-workspace/src/charts Creating directory: oc-mirror-workspace/src/release-signatures No metadata detected, creating new workspace wrote mirroring manifests to oc-mirror-workspace/operators.1658342351/manifests-redhat-operator-index ... info: Planning completed in 31.48s info: Dry run complete Writing image mapping to oc-mirror-workspace/mapping.txt
Checking push permissions for registry.example:5000 Creating directory: oc-mirror-workspace/src/publish Creating directory: oc-mirror-workspace/src/v2 Creating directory: oc-mirror-workspace/src/charts Creating directory: oc-mirror-workspace/src/release-signatures No metadata detected, creating new workspace wrote mirroring manifests to oc-mirror-workspace/operators.1658342351/manifests-redhat-operator-index ... info: Planning completed in 31.48s info: Dry run complete Writing image mapping to oc-mirror-workspace/mapping.txt
Copy to Clipboard Copied! 进入生成的工作区目录:
cd oc-mirror-workspace/
$ cd oc-mirror-workspace/
Copy to Clipboard Copied! 查看生成的
mapping.txt
文件。此文件包含将要镜像的所有镜像的列表。
查看生成的
prune-plan.json
文件。此文件包含在发布镜像集时从镜像 registry 中修剪的所有镜像的列表。
注意只有在 oc-mirror 命令指向您的镜像 registry 且需要修剪的镜像时,才会生成
prune-plan.json
文件。
8.4.1.2. 获取在断开连接的环境中用于 RHEL for Edge 的目录和 Operator 容器镜像引用
在使用 oc-mirror 插件执行空运行后,以查看您要镜像的镜像列表,您必须获取所有容器镜像引用,然后格式化要添加到镜像构建器蓝图的输出。
对于为专有 Operator 创建的目录,您可以在不按照以下流程的情况下格式化镜像构建器蓝图的镜像引用。
先决条件
- 您有一个要使用的 Operator 的目录索引。
-
已安装
jq
CLI 工具。 - 熟悉镜像构建器蓝图文件。
- 您有一个 Image Builder 蓝图 TOML 文件。
流程
解析目录
index.json
文件,以获取 Image Builder 蓝图中包含的镜像引用。您可以使用未过滤的目录,也可以过滤掉无法镜像的镜像:运行以下命令,解析未过滤的目录
index.json
文件以获取镜像引用:jq -r --slurp '.[] | select(.relatedImages != null) | "[[containers]]\nsource = \"" + .relatedImages[].image + "\"\n"' ./oc-mirror-workspace/src/catalogs/registry.redhat.io/redhat/redhat-operator-index/v4.15/index/index.json
jq -r --slurp '.[] | select(.relatedImages != null) | "[[containers]]\nsource = \"" + .relatedImages[].image + "\"\n"' ./oc-mirror-workspace/src/catalogs/registry.redhat.io/redhat/redhat-operator-index/v4.15/index/index.json
Copy to Clipboard Copied! 如果要过滤无法镜像的镜像,请运行以下命令来过滤并解析目录
index.json
文件:jq -r --slurp '.[] | select(.relatedImages != null) | .relatedImages[] | select(.name | contains("ppc") or contains("s390x") | not) | "[[containers]]\\nsource = \\"" + .image + "\\"\\n"' ./oc-mirror-workspace/src/catalogs/registry.redhat.io/redhat/redhat-operator-index/v4.15/index/index.json
$ jq -r --slurp '.[] | select(.relatedImages != null) | .relatedImages[] | select(.name | contains("ppc") or contains("s390x") | not) | "[[containers]]\\nsource = \\"" + .image + "\\"\\n"' ./oc-mirror-workspace/src/catalogs/registry.redhat.io/redhat/redhat-operator-index/v4.15/index/index.json
Copy to Clipboard Copied! 注意此步骤使用 AMQ Broker Operator 作为示例。您可以在
jq
命令中添加其他条件,以便根据您的用例的要求进行进一步过滤。image-reference 输出示例
[[containers]] source = "registry.redhat.io/amq7/amq-broker-init-rhel8@sha256:0b2126cfb6054fdf428c1f43b69e36e93a09a49ce15350e9273c98cc08c6598b" [[containers]] source = "registry.redhat.io/amq7/amq-broker-init-rhel8@sha256:0dde839c2dce7cb684094bf26523c8e16677de03149a0fff468b8c3f106e1f4f" ... ... [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:e8fa2a00e576ecb95561ffbdbf87b1c82d479c8791ab2c6ce741dd0d0b496d15" [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:ff6fefad518a6c997d4c5a6e475ba89640260167f0bc27715daf3cc30116fad1" … EOF
[[containers]] source = "registry.redhat.io/amq7/amq-broker-init-rhel8@sha256:0b2126cfb6054fdf428c1f43b69e36e93a09a49ce15350e9273c98cc08c6598b" [[containers]] source = "registry.redhat.io/amq7/amq-broker-init-rhel8@sha256:0dde839c2dce7cb684094bf26523c8e16677de03149a0fff468b8c3f106e1f4f" ... ... [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:e8fa2a00e576ecb95561ffbdbf87b1c82d479c8791ab2c6ce741dd0d0b496d15" [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:ff6fefad518a6c997d4c5a6e475ba89640260167f0bc27715daf3cc30116fad1" … EOF
Copy to Clipboard Copied! 重要对于镜像和断开连接的用例,请确保从目录
index.json
文件过滤的所有源都是摘要。如果有任何源使用标签而不是摘要,Operator 安装会失败。标签需要互联网连接。
运行以下命令,查看
imageset-config.yaml
以获取CatalogSource
自定义资源(CR)的目录镜像引用:cat imageset-config.yaml
$ cat imageset-config.yaml
Copy to Clipboard Copied! 输出示例
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 storageConfig: registry: imageURL: registry.example.com/microshift-mirror mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15 packages: - name: amq-broker-rhel8 channels: - name: 7.11.x
kind: ImageSetConfiguration apiVersion: mirror.openshift.io/v1alpha2 storageConfig: registry: imageURL: registry.example.com/microshift-mirror mirror: operators: - catalog: registry.redhat.io/redhat/redhat-operator-index:v4.15
1 packages: - name: amq-broker-rhel8 channels: - name: 7.11.x
Copy to Clipboard Copied! - 1
- 使用
mirror.catalog
目录镜像引用中的值对 follwingjq
命令获取镜像摘要。在本例中,< registry.redhat.io/redhat/redhat-operator-index:v4.15 >。
运行以下命令,获取目录索引镜像的 SHA:
skopeo inspect docker://<registry.redhat.io/redhat/redhat-operator-index:v4.15> | jq `.Digest`
$ skopeo inspect docker://<registry.redhat.io/redhat/redhat-operator-index:v4.15> | jq `.Digest`
1 Copy to Clipboard Copied! - 1
- 使用
jq
命令的mirror.catalog
目录镜像引用中的值来获取镜像摘要。在本例中,< registry.redhat.io/redhat/redhat-operator-index:v4.15 >。
输出示例
"sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6"
"sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6"
Copy to Clipboard Copied! 要准备好将镜像引用添加到 Image Builder 蓝图文件中,请使用以下示例格式化目录镜像引用:
[[containers]] source = "registry.redhat.io/redhat/redhat-operator-index@sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6"
[[containers]] source = "registry.redhat.io/redhat/redhat-operator-index@sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6"
Copy to Clipboard Copied! 将之前所有步骤中的镜像引用添加到镜像构建器蓝图中。
生成的镜像构建器蓝图示例片断
name = "microshift_blueprint" description = "MicroShift 4.15.1 on x86_64 platform" version = "0.0.1" modules = [] groups = [] [[packages]] name = "microshift" version = "4.15.1" ... ... [customizations.services] enabled = ["microshift"] [customizations.firewall] ports = ["22:tcp", "80:tcp", "443:tcp", "5353:udp", "6443:tcp", "30000-32767:tcp", "30000-32767:udp"] ... ... [[containers]] source = "quay.io/openshift-release-dev/ocp-v4.0-art-dev@sha256:f41e79c17e8b41f1b0a5a32c3e2dd7cd15b8274554d3f1ba12b2598a347475f4" [[containers]] source = "quay.io/openshift-release-dev/ocp-v4.0-art-dev@sha256:dbc65f1fba7d92b36cf7514cd130fe83a9bd211005ddb23a8dc479e0eea645fd" ... ... [[containers]] source = "registry.redhat.io/redhat/redhat-operator-index@sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6" ... ... [[containers]] source = "registry.redhat.io/amq7/amq-broker-init-rhel8@sha256:0dde839c2dce7cb684094bf26523c8e16677de03149a0fff468b8c3f106e1f4f" ... ... [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:e8fa2a00e576ecb95561ffbdbf87b1c82d479c8791ab2c6ce741dd0d0b496d15" [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:ff6fefad518a6c997d4c5a6e475ba89640260167f0bc27715daf3cc30116fad1" … EOF
name = "microshift_blueprint" description = "MicroShift 4.15.1 on x86_64 platform" version = "0.0.1" modules = [] groups = [] [[packages]]
1 name = "microshift" version = "4.15.1" ... ... [customizations.services]
2 enabled = ["microshift"] [customizations.firewall] ports = ["22:tcp", "80:tcp", "443:tcp", "5353:udp", "6443:tcp", "30000-32767:tcp", "30000-32767:udp"] ... ... [[containers]]
3 source = "quay.io/openshift-release-dev/ocp-v4.0-art-dev@sha256:f41e79c17e8b41f1b0a5a32c3e2dd7cd15b8274554d3f1ba12b2598a347475f4" [[containers]] source = "quay.io/openshift-release-dev/ocp-v4.0-art-dev@sha256:dbc65f1fba7d92b36cf7514cd130fe83a9bd211005ddb23a8dc479e0eea645fd" ... ... [[containers]]
4 source = "registry.redhat.io/redhat/redhat-operator-index@sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6" ... ... [[containers]] source = "registry.redhat.io/amq7/amq-broker-init-rhel8@sha256:0dde839c2dce7cb684094bf26523c8e16677de03149a0fff468b8c3f106e1f4f" ... ... [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:e8fa2a00e576ecb95561ffbdbf87b1c82d479c8791ab2c6ce741dd0d0b496d15" [[containers]] source = "registry.redhat.io/amq7/amq-broker-rhel8@sha256:ff6fefad518a6c997d4c5a6e475ba89640260167f0bc27715daf3cc30116fad1" … EOF
Copy to Clipboard Copied!
8.4.1.3. 在断开连接的部署 RHEL for Edge 镜像中应用目录和 Operator
为断开连接的环境创建 RHEL for Edge 镜像并配置了 MicroShift 网络设置以进行断开连接的使用后,您可以配置命名空间并创建目录和 Operator 自定义资源(CR)以运行 Operator。
先决条件
- 您有一个 RHEL for Edge 镜像。
- 联网配置为断开连接使用。
- 您已完成了 oc-mirror 插件空运行过程。
流程
创建
CatalogSource
自定义资源(CR),类似以下示例:my-catalog-source-cr.yaml
文件示例apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: cs-redhat-operator-index namespace: openshift-marketplace spec: image: registry.example.com/redhat/redhat-operator-index:v4.15 sourceType: grpc displayName: publisher: updateStrategy: registryPoll: interval: 60m
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: cs-redhat-operator-index namespace: openshift-marketplace
1 spec: image: registry.example.com/redhat/redhat-operator-index:v4.15 sourceType: grpc displayName: publisher: updateStrategy: registryPoll: interval: 60m
Copy to Clipboard Copied! - 1
- 全局命名空间。将
metadata.namespace
设置为openshift-marketplace
可让目录在所有命名空间中运行。任何命名空间中的订阅可以引用在openshift-marketplace
命名空间中创建的目录。
注意openshift-marketplace
的默认 pod 安全准入定义是baseline
,因此在该命名空间中创建的目录源自定义资源(CR)不需要设置spec.grpcPodConfig.securityContextConfig
值。如果需要使用命名空间和 Operator,您可以设置legacy
或restricted
值。将目录索引提交的 SHA 添加到 Catalog Source (CR)中,如下例所示:
命名空间
spec.image
配置示例apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: cs-redhat-operator-index namespace: openshift-marketplace spec: image: registry.example.com/redhat/redhat-operator-index@sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6 sourceType: grpc displayName: publisher: updateStrategy: registryPoll: interval: 60m
apiVersion: operators.coreos.com/v1alpha1 kind: CatalogSource metadata: name: cs-redhat-operator-index namespace: openshift-marketplace spec: image: registry.example.com/redhat/redhat-operator-index@sha256:7a76c0880a839035eb6e896d54ebd63668bb37b82040692141ba39ab4c539bc6
1 sourceType: grpc displayName: publisher: updateStrategy: registryPoll: interval: 60m
Copy to Clipboard Copied! - 1
- 镜像提交的 SHA。使用添加到镜像构建器蓝图中的同一 SHA。
重要您必须在目录 CR 中使用 SHA 而不是标签,否则 pod 无法启动。
运行以下命令,将 oc-mirror 插件试运行结果目录中的 YAML 文件应用到集群:
oc apply -f ./oc-mirror-workspace/results-1708508014/catalogSource-cs-redhat-operator-index.yaml
$ oc apply -f ./oc-mirror-workspace/results-1708508014/catalogSource-cs-redhat-operator-index.yaml
Copy to Clipboard Copied! 输出示例
catalogsource.operators.coreos.com/cs-redhat-operator-index created
catalogsource.operators.coreos.com/cs-redhat-operator-index created
Copy to Clipboard Copied! 运行以下命令验证
CatalogSource
资源是否已成功安装:oc get catalogsource --all-namespaces
$ oc get catalogsource --all-namespaces
Copy to Clipboard Copied! 使用以下命令验证目录源是否正在运行:
oc get pods -n openshift-marketplace
$ oc get pods -n openshift-marketplace
Copy to Clipboard Copied! 输出示例
NAME READY STATUS RESTARTS AGE cs-redhat-operator-index-4227b 2/2 Running 0 2m5s
NAME READY STATUS RESTARTS AGE cs-redhat-operator-index-4227b 2/2 Running 0 2m5s
Copy to Clipboard Copied! 创建一个
Subscription
CR,类似以下示例:my-subscription-cr.yaml
文件示例apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: amq-broker namespace: openshift-operators spec: channel: 7.11.x name: amq-broker-rhel8 source: cs-redhat-operator-index sourceNamespace: openshift-marketplace
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: amq-broker namespace: openshift-operators spec: channel: 7.11.x name: amq-broker-rhel8 source: cs-redhat-operator-index sourceNamespace: openshift-marketplace
Copy to Clipboard Copied! 运行以下命令来应用
Subscription
CR:oc apply -f ./<my-subscription-cr.yaml>
$ oc apply -f ./<my-subscription-cr.yaml>
1 Copy to Clipboard Copied! - 1
- 指定
Subscription
CR 的名称,如my-subscription-cr.yaml
。
输出示例
subscription.operators.coreos.com/amq-broker created
subscription.operators.coreos.com/amq-broker created
Copy to Clipboard Copied!