Red Hat Quay Operator 的功能
第 1 章 Federal Information Processing Standard (FIPS)就绪与合规性
美国国家标准与技术研究院(NIST)开发的联邦信息处理标准(FIPS)被认为是保护和加密敏感数据的高度认可,特别是在银行、医疗保健和公共区等高度监管领域。Red Hat Enterprise Linux (RHEL)和 OpenShift Container Platform 通过提供 FIPS 模式 来支持 FIPS,该系统只允许使用特定的 FIPS 验证的加密模块,如 openssl
。这样可确保 FIPS 合规性。
1.1. 启用 FIPS 合规性
使用以下步骤在 Red Hat Quay 部署中启用 FIPS 合规性。
前提条件
- 如果您运行 Red Hat Quay 的独立部署,则您的 Red Hat Enterprise Linux (RHEL)部署是版本 8 或更高版本,并启用 FIPS。
- 如果要在 OpenShift Container Platform 上部署 Red Hat Quay,OpenShift Container Platform 是版本 4.10 或更高版本。
- 您的 Red Hat Quay 版本为 3.5.0 或更高版本。
如果您在 IBM Power 或 IBM Z 集群中使用 OpenShift Container Platform 上的 Red Hat Quay:
- OpenShift Container Platform 版本 4.14 或更高版本是必需的
- 需要 Red Hat Quay 版本 3.10 或更高版本
- 您有 Red Hat Quay 部署的管理特权。
流程
在 Red Hat Quay
config.yaml
文件中,将FEATURE_FIPS
配置字段设置为true
。例如:--- FEATURE_FIPS = true ---
将
FEATURE_FIPS
设置为true
时,Red Hat Quay 会使用 FIPS 兼容哈希功能运行。
第 2 章 控制台监控和警报
Red Hat Quay 支持从 OpenShift Container Platform 控制台内部使用 Red Hat Quay Operator 部署监控实例。新的监控功能包括 Grafana 仪表板、访问单个指标和警报,以通知频繁重启 Quay
pod。
要启用监控功能,您必须在安装 Red Hat Quay Operator 时选择 All namespaces on the cluster 作为安装模式。
2.1. Dashboard
在 OpenShift Container Platform 控制台中,点 Monitoring → Dashboards 并搜索所需 Red Hat Quay registry 实例的仪表板:
仪表板显示各种统计信息,包括:
- 机构、存储库、用户和 Robot 帐户的数量
- CPU 用量
- 最大内存用量
- 拉取和推送率,以及身份验证请求
- API 请求率
- 延迟
2.2. 指标
您可以通过在 UI 中访问 Monitoring → Metrics 来查看 Red Hat Quay 仪表板后面的底层指标。在 Expression 字段中,输入文本 quay_
来查看可用指标列表:
选择一个示例指标,如 quay_org_rows
:
此指标显示 registry 中的机构数量。它还直接位于仪表板中。
2.3. 警报
如果 Quay
pod 重启太频繁,则会引发警报。可以通过从控制台 UI 中的 Monitoring → Alerting 访问 Alerting rules 选项卡并搜索特定于 Quay 的警报来配置警报:
选择 QuayPodFrequentlyRestarting
规则详情来配置警报:
第 3 章 Clair 安全扫描程序
3.1. Clair 漏洞数据库
Clair 使用以下漏洞数据库报告镜像中的问题:
- Ubuntu Oval 数据库
- Debian 安全跟踪器
- Red Hat Enterprise Linux (RHEL) Oval 数据库
- SUSE Oval 数据库
- Oracle Oval 数据库
- alpine SecDB 数据库
- VMware Photon OS 数据库
- Amazon Web Services (AWS) UpdateInfo
- 开源漏洞(OSV)数据库
有关 Clair 如何使用不同数据库进行安全映射的详情,请参考 Clair 内核严重性映射。
3.1.1. Clair 的开源漏洞(OSV)数据库的信息
开源漏洞(OSV)是一种漏洞数据库和监控服务,专注于跟踪和管理开源软件中的安全漏洞。
OSV 提供开源项目中已知安全漏洞的综合且最新的数据库。其中涵盖了各种开源软件,包括库、框架和在软件开发中使用的其他组件。有关包含的生态系统的完整列表,请参见 定义的生态系统。
Clair 还通过开源漏洞(OSV)数据库报告 golang
、java
和 ruby
生态系统的漏洞和安全信息。
通过利用 OSV,开发人员和机构可以主动监控并解决他们使用的开源组件中的安全漏洞,这有助于降低项目中的安全漏洞和风险。
有关 OSV 的更多信息,请参阅 OSV 网站。
3.2. OpenShift Container Platform 中的 Clair
要在 OpenShift Container Platform 上的 Red Hat Quay 部署中设置 Clair v4 (Clair),建议使用 Red Hat Quay Operator。默认情况下,Red Hat Quay Operator 安装或升级 Clair 部署以及 Red Hat Quay 部署自动配置 Clair。
3.3. 测试 Clair
使用以下步骤测试独立 Red Hat Quay 部署或基于 OpenShift Container Platform Operator 的部署中的 Clair。
先决条件
- 您已部署了 Clair 容器镜像。
流程
输入以下命令拉取示例镜像:
$ podman pull ubuntu:20.04
输入以下命令将镜像标记到 registry 中:
$ sudo podman tag docker.io/library/ubuntu:20.04 <quay-server.example.com>/<user-name>/ubuntu:20.04
输入以下命令将镜像推送到 Red Hat Quay registry:
$ sudo podman push --tls-verify=false quay-server.example.com/quayadmin/ubuntu:20.04
- 通过 UI 登录您的 Red Hat Quay 部署。
- 单击存储库名称,如 quayadmin/ubuntu。
在导航窗格中,单击 Tags。
报告概述
点镜像报告(如 45 个介质 )显示更详细的报告:
报告详情
注意在某些情况下,Clair 显示有关镜像的重复报告,如
ubi8/nodejs-12
或ubi8/nodejs-16
。这是因为同名的漏洞适用于不同的软件包。这个行为预期是 Clair 漏洞报告,且不会作为程序错误解决。
3.4. 高级 Clair 配置
使用以下部分中的步骤配置高级 Clair 设置。
3.4.1. 非受管 Clair 配置
Red Hat Quay 用户可以使用 Red Hat Quay OpenShift Container Platform Operator 运行非受管 Clair 配置。此功能允许用户创建非受管 Clair 数据库,或者在没有非受管数据库的情况下运行其自定义 Clair 配置。
非受管 Clair 数据库允许 Red Hat Quay Operator 在地理复制环境中工作,Operator 的多个实例必须与同一数据库通信。当用户需要在集群外存在的高可用性(HA) Clair 数据库时,也可以使用非受管 Clair 数据库。
3.4.1.1. 使用非受管 Clair 数据库运行自定义 Clair 配置
使用以下步骤将 Clair 数据库设置为 unmanaged。
您不能为 Red Hat Quay 和 Clair 部署使用相同的外部管理的 PostgreSQL 数据库。您的 PostgreSQL 数据库还必须与其他工作负载共享,因为在连接密集型工作负载(如 Red Hat Quay 或 Clair)时,它可能会耗尽 PostgreSQL 端的自然连接限制。另外,Red Hat Quay 或 Clair 不支持 pgBouncer,因此这不是解决这个问题的选项。
流程
在 Quay Operator 中,将
QuayRegistry
自定义资源的clairpostgres
组件设置为managed: false
:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: quay370 spec: configBundleSecret: config-bundle-secret components: - kind: objectstorage managed: false - kind: route managed: true - kind: tls managed: false - kind: clairpostgres managed: false
3.4.1.2. 使用非受管 Clair 数据库配置自定义 Clair 数据库
Red Hat Quay on OpenShift Container Platform 允许用户提供自己的 Clair 数据库。
使用以下步骤创建自定义 Clair 数据库。
以下流程使用 SSL/TLS 认证设置 Clair。要查看不使用 SSL/TLS 认证设置 Clair 的类似流程,请参阅"使用受管 Clair 配置自定义 Clair 数据库"。
流程
输入以下命令来创建包含
clair-config.yaml
的 Quay 配置捆绑包 secret:$ oc create secret generic --from-file config.yaml=./config.yaml --from-file extra_ca_cert_rds-ca-2019-root.pem=./rds-ca-2019-root.pem --from-file clair-config.yaml=./clair-config.yaml --from-file ssl.cert=./ssl.cert --from-file ssl.key=./ssl.key config-bundle-secret
Clair
config.yaml
文件示例indexer: connstring: host=quay-server.example.com port=5432 dbname=quay user=quayrdsdb password=quayrdsdb sslrootcert=/run/certs/rds-ca-2019-root.pem sslmode=verify-ca layer_scan_concurrency: 6 migrations: true scanlock_retry: 11 log_level: debug matcher: connstring: host=quay-server.example.com port=5432 dbname=quay user=quayrdsdb password=quayrdsdb sslrootcert=/run/certs/rds-ca-2019-root.pem sslmode=verify-ca migrations: true metrics: name: prometheus notifier: connstring: host=quay-server.example.com port=5432 dbname=quay user=quayrdsdb password=quayrdsdb sslrootcert=/run/certs/rds-ca-2019-root.pem sslmode=verify-ca migrations: true
注意-
数据库证书挂载到
clair-config.yaml
中的 Clair 应用程序 pod 上的/run/certs/rds-ca-2019-root.pem
下。在配置clair-config.yaml
时,必须指定它。 -
Clair on OpenShift config 中包括了一个
clair-config.yaml
示例。
-
数据库证书挂载到
将
clair-config.yaml
文件添加到捆绑包 secret 中,例如:apiVersion: v1 kind: Secret metadata: name: config-bundle-secret namespace: quay-enterprise data: config.yaml: <base64 encoded Quay config> clair-config.yaml: <base64 encoded Clair config> extra_ca_cert_<name>: <base64 encoded ca cert> ssl.crt: <base64 encoded SSL certificate> ssl.key: <base64 encoded SSL private key>
注意更新后,提供的
clair-config.yaml
文件会被挂载到 Clair pod 中。任何未提供的字段都使用 Clair 配置模块自动填充默认值。您可以点击 Build History 页面中的提交或运行
oc get pods -n <namespace
> 来检查 Clair pod 的状态。例如:$ oc get pods -n <namespace>
输出示例
NAME READY STATUS RESTARTS AGE f192fe4a-c802-4275-bcce-d2031e635126-9l2b5-25lg2 1/1 Running 0 7s
3.4.2. 使用受管 Clair 数据库运行自定义 Clair 配置
在某些情况下,用户可能希望使用受管 Clair 数据库运行自定义 Clair 配置。这在以下情况中很有用:
- 当用户想要禁用特定的更新器资源时。
当用户在断开连接的环境中运行 Red Hat Quay 时。有关在断开连接的环境中运行 Clair 的更多信息,请参阅 在断开连接的环境中的 Clair。
注意-
如果您在断开连接的环境中运行 Red Hat Quay,则
clair-config.yaml
的airgap
参数必须设置为true
。 - 如果您在断开连接的环境中运行 Red Hat Quay,则应禁用所有更新器组件。
-
如果您在断开连接的环境中运行 Red Hat Quay,则
3.4.2.1. 将 Clair 数据库设置为 managed
使用以下步骤将 Clair 数据库设置为 managed。
流程
在 Quay Operator 中,将
QuayRegistry
自定义资源的clairpostgres
组件设置为managed: true
:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: quay370 spec: configBundleSecret: config-bundle-secret components: - kind: objectstorage managed: false - kind: route managed: true - kind: tls managed: false - kind: clairpostgres managed: true
3.4.2.2. 使用受管 Clair 配置自定义 Clair 数据库
Red Hat Quay on OpenShift Container Platform 允许用户提供自己的 Clair 数据库。
使用以下步骤创建自定义 Clair 数据库。
流程
输入以下命令来创建包含
clair-config.yaml
的 Quay 配置捆绑包 secret:$ oc create secret generic --from-file config.yaml=./config.yaml --from-file extra_ca_cert_rds-ca-2019-root.pem=./rds-ca-2019-root.pem --from-file clair-config.yaml=./clair-config.yaml config-bundle-secret
Clair
config.yaml
文件示例indexer: connstring: host=quay-server.example.com port=5432 dbname=quay user=quayrdsdb password=quayrdsdb sslmode=disable layer_scan_concurrency: 6 migrations: true scanlock_retry: 11 log_level: debug matcher: connstring: host=quay-server.example.com port=5432 dbname=quay user=quayrdsdb password=quayrdsdb sslmode=disable migrations: true metrics: name: prometheus notifier: connstring: host=quay-server.example.com port=5432 dbname=quay user=quayrdsdb password=quayrdsdb sslmode=disable migrations: true
注意-
数据库证书挂载到
clair-config.yaml
中的 Clair 应用程序 pod 上的/run/certs/rds-ca-2019-root.pem
下。在配置clair-config.yaml
时,必须指定它。 -
Clair on OpenShift config 中包括了一个
clair-config.yaml
示例。
-
数据库证书挂载到
将
clair-config.yaml
文件添加到捆绑包 secret 中,例如:apiVersion: v1 kind: Secret metadata: name: config-bundle-secret namespace: quay-enterprise data: config.yaml: <base64 encoded Quay config> clair-config.yaml: <base64 encoded Clair config>
注意-
更新后,提供的
clair-config.yaml
文件会被挂载到 Clair pod 中。任何未提供的字段都使用 Clair 配置模块自动填充默认值。
-
更新后,提供的
您可以点击 Build History 页面中的提交或运行
oc get pods -n <namespace
> 来检查 Clair pod 的状态。例如:$ oc get pods -n <namespace>
输出示例
NAME READY STATUS RESTARTS AGE f192fe4a-c802-4275-bcce-d2031e635126-9l2b5-25lg2 1/1 Running 0 7s
3.4.3. 在断开连接的环境中的 Clair
目前,IBM Power 和 IBM Z 不支持在断开连接的环境中部署 Clair。
Clair 使用一组称为 updaters 的组件来处理从各种漏洞数据库获取和解析数据。默认情况下,更新程序会被设置,以直接从互联网拉取漏洞数据,并立即使用。但是,有些用户可能要求 Red Hat Quay 在断开连接的环境中运行,或者不需要直接访问互联网的环境。Clair 支持断开连接的环境,方法是使用不同类型的更新工作流来考虑网络隔离。这通过使用 clairctl
命令行界面工具来工作,该工具通过使用开放主机从互联网获取更新器数据,从而安全地将数据传送到隔离的主机,然后将隔离主机上的 updater 数据非常重要到 Clair。
使用本指南在断开连接的环境中部署 Clair。
目前,Clairrichment 数据是 CVSS 数据。目前在断开连接的环境中不支持增强数据。
有关 Clair 更新器的更多信息,请参阅 "Clair updaters"。
3.4.3.1. 在断开连接的 OpenShift Container Platform 集群中设置 Clair
使用以下步骤在断开连接的 OpenShift Container Platform 集群中设置 OpenShift Container Platform 置备的 Clair pod。
3.4.3.1.1. 为 OpenShift Container Platform 部署安装 clairctl 命令行工具工具
使用以下步骤为 OpenShift Container Platform 部署安装 clairctl
CLI 工具。
流程
输入以下命令为 OpenShift Container Platform 集群中的 Clair 部署安装
clairctl
程序:$ oc -n quay-enterprise exec example-registry-clair-app-64dd48f866-6ptgw -- cat /usr/bin/clairctl > clairctl
注意不正式,可以下载
clairctl
工具设置
clairctl
文件的权限,以便可由用户执行并运行,例如:$ chmod u+x ./clairctl
3.4.3.1.2. 为 OpenShift Container Platform 上的 Clair 部署检索并解码 Clair 配置 secret
使用以下步骤为 OpenShift Container Platform 上置备的 Clair 实例检索和解码配置 secret。
先决条件
-
您已安装了
clairctl
命令行工具工具。
流程
输入以下命令来检索和解码配置 secret,然后将其保存到 Clair 配置 YAML 中:
$ oc get secret -n quay-enterprise example-registry-clair-config-secret -o "jsonpath={$.data['config\.yaml']}" | base64 -d > clair-config.yaml
更新
clair-config.yaml
文件,使disable_updaters
和airgap
参数设置为true
,例如:--- indexer: airgap: true --- matcher: disable_updaters: true ---
3.4.3.1.3. 从连接的 Clair 实例导出更新程序捆绑包
使用以下步骤从可访问互联网的 Clair 实例导出更新程序捆绑包。
先决条件
-
您已安装了
clairctl
命令行工具工具。 -
您已检索并解码 Clair 配置 secret,并将其保存到 Clair
config.yaml
文件中。 -
在 Clair
config.yaml
文件中,disable_updaters
和airgap
参数设置为true
。
流程
从可访问互联网的 Clair 实例中,将
clairctl
CLI 工具与您的配置文件一起使用,以导出更新程序捆绑包。例如:$ ./clairctl --config ./config.yaml export-updaters updates.gz
3.4.3.1.4. 配置对断开连接的 OpenShift Container Platform 集群中的 Clair 数据库的访问
使用以下步骤配置对断开连接的 OpenShift Container Platform 集群中的 Clair 数据库的访问。
先决条件
-
您已安装了
clairctl
命令行工具工具。 -
您已检索并解码 Clair 配置 secret,并将其保存到 Clair
config.yaml
文件中。 -
在 Clair
config.yaml
文件中,disable_updaters
和airgap
参数设置为true
。 - 您已从可访问互联网的 Clair 实例导出了更新程序捆绑包。
流程
使用
oc
CLI 工具确定您的 Clair 数据库服务,例如:$ oc get svc -n quay-enterprise
输出示例
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE example-registry-clair-app ClusterIP 172.30.224.93 <none> 80/TCP,8089/TCP 4d21h example-registry-clair-postgres ClusterIP 172.30.246.88 <none> 5432/TCP 4d21h ...
转发 Clair 数据库端口,使其可以从本地机器访问。例如:
$ oc port-forward -n quay-enterprise service/example-registry-clair-postgres 5432:5432
更新 Clair
config.yaml
文件,例如:indexer: connstring: host=localhost port=5432 dbname=postgres user=postgres password=postgres sslmode=disable 1 scanlock_retry: 10 layer_scan_concurrency: 5 migrations: true scanner: repo: rhel-repository-scanner: 2 repo2cpe_mapping_file: /data/cpe-map.json package: rhel_containerscanner: 3 name2repos_mapping_file: /data/repo-map.json
3.4.3.1.5. 将更新程序捆绑包导入到断开连接的 OpenShift Container Platform 集群中
使用以下步骤将更新程序捆绑包导入到断开连接的 OpenShift Container Platform 集群中。
先决条件
-
您已安装了
clairctl
命令行工具工具。 -
您已检索并解码 Clair 配置 secret,并将其保存到 Clair
config.yaml
文件中。 -
在 Clair
config.yaml
文件中,disable_updaters
和airgap
参数设置为true
。 - 您已从可访问互联网的 Clair 实例导出了更新程序捆绑包。
- 您已将更新程序捆绑包传送到断开连接的环境中。
流程
使用
clairctl
CLI 工具将更新程序捆绑包导入到 OpenShift Container Platform 部署的 Clair 数据库中。例如:$ ./clairctl --config ./clair-config.yaml import-updaters updates.gz
3.4.3.2. 为断开连接的 OpenShift Container Platform 集群设置自助管理的 Clair 部署
使用以下步骤为断开连接的 OpenShift Container Platform 集群设置 Clair 的自我管理部署。
3.4.3.2.1. 为 OpenShift Container Platform 上的自助管理的 Clair 部署安装 clairctl 命令行工具工具
使用以下步骤在 OpenShift Container Platform 上安装用于自我管理的 Clair 部署的 clairctl
CLI 工具。
流程
使用
podman cp
命令为自我管理的 Clair 部署安装clairctl
程序,例如:$ sudo podman cp clairv4:/usr/bin/clairctl ./clairctl
设置
clairctl
文件的权限,以便可由用户执行并运行,例如:$ chmod u+x ./clairctl
3.4.3.2.2. 为断开连接的 OpenShift Container Platform 集群部署自我管理的 Clair 容器
使用以下步骤为断开连接的 OpenShift Container Platform 集群部署自我管理的 Clair 容器。
先决条件
-
您已安装了
clairctl
命令行工具工具。
流程
为您的 Clair 配置文件创建一个文件夹,例如:
$ mkdir /etc/clairv4/config/
创建一个 Clair 配置文件,并将
disable_updaters
参数设置为true
,例如:--- indexer: airgap: true --- matcher: disable_updaters: true ---
使用容器镜像启动 Clair,挂载在来自您创建的文件中的配置中:
$ sudo podman run -it --rm --name clairv4 \ -p 8081:8081 -p 8088:8088 \ -e CLAIR_CONF=/clair/config.yaml \ -e CLAIR_MODE=combo \ -v /etc/clairv4/config:/clair:Z \ registry.redhat.io/quay/clair-rhel8:v3.12.8
3.4.3.2.3. 从连接的 Clair 实例导出更新程序捆绑包
使用以下步骤从可访问互联网的 Clair 实例导出更新程序捆绑包。
先决条件
-
您已安装了
clairctl
命令行工具工具。 - 您已部署了 Clair。
-
在 Clair
config.yaml
文件中,disable_updaters
和airgap
参数设置为true
。
流程
从可访问互联网的 Clair 实例中,将
clairctl
CLI 工具与您的配置文件一起使用,以导出更新程序捆绑包。例如:$ ./clairctl --config ./config.yaml export-updaters updates.gz
3.4.3.2.4. 配置对断开连接的 OpenShift Container Platform 集群中的 Clair 数据库的访问
使用以下步骤配置对断开连接的 OpenShift Container Platform 集群中的 Clair 数据库的访问。
先决条件
-
您已安装了
clairctl
命令行工具工具。 - 您已部署了 Clair。
-
在 Clair
config.yaml
文件中,disable_updaters
和airgap
参数设置为true
。 - 您已从可访问互联网的 Clair 实例导出了更新程序捆绑包。
流程
使用
oc
CLI 工具确定您的 Clair 数据库服务,例如:$ oc get svc -n quay-enterprise
输出示例
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE example-registry-clair-app ClusterIP 172.30.224.93 <none> 80/TCP,8089/TCP 4d21h example-registry-clair-postgres ClusterIP 172.30.246.88 <none> 5432/TCP 4d21h ...
转发 Clair 数据库端口,使其可以从本地机器访问。例如:
$ oc port-forward -n quay-enterprise service/example-registry-clair-postgres 5432:5432
更新 Clair
config.yaml
文件,例如:indexer: connstring: host=localhost port=5432 dbname=postgres user=postgres password=postgres sslmode=disable 1 scanlock_retry: 10 layer_scan_concurrency: 5 migrations: true scanner: repo: rhel-repository-scanner: 2 repo2cpe_mapping_file: /data/cpe-map.json package: rhel_containerscanner: 3 name2repos_mapping_file: /data/repo-map.json
3.4.3.2.5. 将更新程序捆绑包导入到断开连接的 OpenShift Container Platform 集群中
使用以下步骤将更新程序捆绑包导入到断开连接的 OpenShift Container Platform 集群中。
先决条件
-
您已安装了
clairctl
命令行工具工具。 - 您已部署了 Clair。
-
在 Clair
config.yaml
文件中,disable_updaters
和airgap
参数设置为true
。 - 您已从可访问互联网的 Clair 实例导出了更新程序捆绑包。
- 您已将更新程序捆绑包传送到断开连接的环境中。
流程
使用
clairctl
CLI 工具将更新程序捆绑包导入到 OpenShift Container Platform 部署的 Clair 数据库中:$ ./clairctl --config ./clair-config.yaml import-updaters updates.gz
3.4.4. 将存储库映射到通用产品枚举信息
目前,IBM Power 和 IBM Z 不支持将软件仓库映射到通用产品枚举信息。
Clair 的 Red Hat Enterprise Linux (RHEL)扫描程序依赖于通用产品枚举(CPE)文件将 RPM 软件包映射到对应的安全数据,以生成匹配的结果。这些文件由产品安全及每天更新所有。
必须存在 cp 文件,或必须允许访问该文件,以便扫描程序可以正确地处理 RPM 软件包。如果文件不存在,则容器镜像中安装的 RPM 软件包不会被扫描。
CPE | 到 JSON 映射文件的链接 |
---|---|
| |
|
除了将 CVE 信息上传到数据库以进行断开连接的 Clair 安装外,还必须使映射文件在本地可用:
- 对于独立的 Red Hat Quay 和 Clair 部署,映射文件必须加载到 Clair pod 中。
-
对于 OpenShift Container Platform 部署的 Red Hat Quay,您必须将 Clair 组件设置为
非受管
。然后,必须手动部署 Clair,将配置设置为加载映射文件的本地副本。
3.4.4.1. 将存储库映射到通用产品枚举示例配置
使用 Clair 配置中的 repo2cpe_mapping_file
和 name2repos_mapping_file
字段,使其包含 cp JSON 映射文件。例如:
indexer: scanner: repo: rhel-repository-scanner: repo2cpe_mapping_file: /data/cpe-map.json package: rhel_containerscanner: name2repos_mapping_file: /data/repo-map.json
如需更多信息,请参阅 如何将 OVAL 安全数据与已安装的 RPM 完全匹配。
第 4 章 在基础架构节点上部署 Red Hat Quay
默认情况下,当使用 Red Hat Quay
Operator 部署 registry 时,与 Quay 相关的 pod 会被放在任意 worker 节点上。有关如何使用机器集将节点配置为仅托管基础架构组件的更多信息,请参阅 创建基础架构机器集。
如果不使用 OpenShift Container Platform 机器集资源来部署 infra 节点,本文档中的部分演示了如何为基础架构目的手动标记和污点节点。在手动配置基础架构节点或使用机器集后,您可以使用节点选择器和容限来控制这些节点上的 Quay
pod 放置。
4.1. 为基础架构使用标记和污点节点
使用以下步骤为基础架构使用标签和包含的节点。
输入以下命令以显示 master 和 worker 节点。在本例中,有三个 master 节点和 6 个 worker 节点。
$ oc get nodes
输出示例
NAME STATUS ROLES AGE VERSION user1-jcnp6-master-0.c.quay-devel.internal Ready master 3h30m v1.20.0+ba45583 user1-jcnp6-master-1.c.quay-devel.internal Ready master 3h30m v1.20.0+ba45583 user1-jcnp6-master-2.c.quay-devel.internal Ready master 3h30m v1.20.0+ba45583 user1-jcnp6-worker-b-65plj.c.quay-devel.internal Ready worker 3h21m v1.20.0+ba45583 user1-jcnp6-worker-b-jr7hc.c.quay-devel.internal Ready worker 3h21m v1.20.0+ba45583 user1-jcnp6-worker-c-jrq4v.c.quay-devel.internal Ready worker 3h21m v1.20.0+ba45583 user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal Ready worker 3h21m v1.20.0+ba45583 user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal Ready worker 3h22m v1.20.0+ba45583 user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal Ready worker 3h21m v1.20.0+ba45583
输入以下命令为基础架构使用标记三个 worker 节点:
$ oc label node --overwrite user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal node-role.kubernetes.io/infra=
$ oc label node --overwrite user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal node-role.kubernetes.io/infra=
$ oc label node --overwrite user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal node-role.kubernetes.io/infra=
现在,当列出集群中的节点时,最后三个 worker 节点具有
infra
角色。例如:$ oc get nodes
Example
NAME STATUS ROLES AGE VERSION user1-jcnp6-master-0.c.quay-devel.internal Ready master 4h14m v1.20.0+ba45583 user1-jcnp6-master-1.c.quay-devel.internal Ready master 4h15m v1.20.0+ba45583 user1-jcnp6-master-2.c.quay-devel.internal Ready master 4h14m v1.20.0+ba45583 user1-jcnp6-worker-b-65plj.c.quay-devel.internal Ready worker 4h6m v1.20.0+ba45583 user1-jcnp6-worker-b-jr7hc.c.quay-devel.internal Ready worker 4h5m v1.20.0+ba45583 user1-jcnp6-worker-c-jrq4v.c.quay-devel.internal Ready worker 4h5m v1.20.0+ba45583 user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal Ready infra,worker 4h6m v1.20.0+ba45583 user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal Ready infra,worker 4h6m v1.20.0+ba45583 user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal Ready infra,worker 4h6m v1.20.0+ba4558
当 worker 节点被分配了
infra
角色时,用户工作负载可能会意外地分配给 infra 节点。要避免这种情况,您可以将污点应用到 infra 节点,然后为要控制的 pod 添加容限。例如:$ oc adm taint nodes user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal node-role.kubernetes.io/infra:NoSchedule
$ oc adm taint nodes user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal node-role.kubernetes.io/infra:NoSchedule
$ oc adm taint nodes user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal node-role.kubernetes.io/infra:NoSchedule
4.2. 使用节点选择器和容限创建项目
使用以下步骤创建带有节点选择器和容限的项目。
您还可以删除安装 Red Hat Quay Operator 和命名空间,或命名空间(在部署时使用)来完成以下步骤。然后,用户可以使用以下注解创建新资源:
流程
输入以下命令来编辑部署 Red Hat Quay 的命名空间,以及以下注解:
$ oc annotate namespace <namespace> openshift.io/node-selector='node-role.kubernetes.io/infra='
输出示例
namespace/<namespace> annotated
输入以下命令来获取可用 pod 列表:
$ oc get pods -o wide
输出示例
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES example-registry-clair-app-5744dd64c9-9d5jt 1/1 Running 0 173m 10.130.4.13 stevsmit-quay-ocp-tes-5gwws-worker-c-6xkn7 <none> <none> example-registry-clair-app-5744dd64c9-fg86n 1/1 Running 6 (3h21m ago) 3h24m 10.131.0.91 stevsmit-quay-ocp-tes-5gwws-worker-c-dnhdp <none> <none> example-registry-clair-postgres-845b47cd88-vdchz 1/1 Running 0 3h21m 10.130.4.10 stevsmit-quay-ocp-tes-5gwws-worker-c-6xkn7 <none> <none> example-registry-quay-app-64cbc5bcf-8zvgc 1/1 Running 1 (3h24m ago) 3h24m 10.130.2.12 stevsmit-quay-ocp-tes-5gwws-worker-a-tk8dx <none> <none> example-registry-quay-app-64cbc5bcf-pvlz6 1/1 Running 0 3h24m 10.129.4.10 stevsmit-quay-ocp-tes-5gwws-worker-b-fjhz4 <none> <none> example-registry-quay-app-upgrade-8gspn 0/1 Completed 0 3h24m 10.130.2.10 stevsmit-quay-ocp-tes-5gwws-worker-a-tk8dx <none> <none> example-registry-quay-database-784d78b6f8-2vkml 1/1 Running 0 3h24m 10.131.4.10 stevsmit-quay-ocp-tes-5gwws-worker-c-2frtg <none> <none> example-registry-quay-mirror-d5874d8dc-fmknp 1/1 Running 0 3h24m 10.129.4.9 stevsmit-quay-ocp-tes-5gwws-worker-b-fjhz4 <none> <none> example-registry-quay-mirror-d5874d8dc-t4mff 1/1 Running 0 3h24m 10.129.2.19 stevsmit-quay-ocp-tes-5gwws-worker-a-k7w86 <none> <none> example-registry-quay-redis-79848898cb-6qf5x 1/1 Running 0 3h24m 10.130.2.11 stevsmit-quay-ocp-tes-5gwws-worker-a-tk8dx <none> <none>
输入以下命令删除可用的 pod:
$ oc delete pods --selector quay-operator/quayregistry=example-registry -n quay-enterprise
输出示例
pod "example-registry-clair-app-5744dd64c9-9d5jt" deleted pod "example-registry-clair-app-5744dd64c9-fg86n" deleted pod "example-registry-clair-postgres-845b47cd88-vdchz" deleted pod "example-registry-quay-app-64cbc5bcf-8zvgc" deleted pod "example-registry-quay-app-64cbc5bcf-pvlz6" deleted pod "example-registry-quay-app-upgrade-8gspn" deleted pod "example-registry-quay-database-784d78b6f8-2vkml" deleted pod "example-registry-quay-mirror-d5874d8dc-fmknp" deleted pod "example-registry-quay-mirror-d5874d8dc-t4mff" deleted pod "example-registry-quay-redis-79848898cb-6qf5x" deleted
删除 pod 后,它们会自动重新启动,并应调度到专用的基础架构节点。
4.3. 在特定命名空间中安装 Red Hat Quay
使用以下步骤在特定命名空间的 OpenShift Container Platform 上安装 Red Hat Quay。
要在特定命名空间中安装 Red Hat Quay Operator,您必须明确指定适当的项目命名空间,如下所示。
在以下示例中,使用了
quay-registry
命名空间。这会导致quay-operator
pod 在三个基础架构节点中的一个中登录。例如:$ oc get pods -n quay-registry -o wide
输出示例
NAME READY STATUS RESTARTS AGE IP NODE quay-operator.v3.4.1-6f6597d8d8-bd4dp 1/1 Running 0 30s 10.131.0.16 user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal
4.4. 创建 Red Hat Quay registry
使用以下步骤创建 Red Hat Quay registry。
输入以下命令来创建 Red Hat Quay registry。然后,等待部署标记为
ready
。在以下示例中,您应该会看到它们仅调度到为基础架构用途标记的三个节点上。$ oc get pods -n quay-registry -o wide
输出示例
NAME READY STATUS RESTARTS AGE IP NODE example-registry-clair-app-789d6d984d-gpbwd 1/1 Running 1 5m57s 10.130.2.80 user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal example-registry-clair-postgres-7c8697f5-zkzht 1/1 Running 0 4m53s 10.129.2.19 user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal example-registry-quay-app-56dd755b6d-glbf7 1/1 Running 1 5m57s 10.129.2.17 user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal example-registry-quay-database-8dc7cfd69-dr2cc 1/1 Running 0 5m43s 10.129.2.18 user1-jcnp6-worker-c-pwxfp.c.quay-devel.internal example-registry-quay-mirror-78df886bcc-v75p9 1/1 Running 0 5m16s 10.131.0.24 user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal example-registry-quay-postgres-init-8s8g9 0/1 Completed 0 5m54s 10.130.2.79 user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal example-registry-quay-redis-5688ddcdb6-ndp4t 1/1 Running 0 5m56s 10.130.2.78 user1-jcnp6-worker-d-m9gg4.c.quay-devel.internal quay-operator.v3.4.1-6f6597d8d8-bd4dp 1/1 Running 0 22m 10.131.0.16 user1-jcnp6-worker-d-h5tv2.c.quay-devel.internal
4.5. 调整受管存储的大小
在 OpenShift Container Platform 上部署 Red Hat Quay 时,会部署三个不同的持久性卷声明(PVC):
- 一个用于 PostgreSQL 13 registry。
- 一个用于 Clair PostgreSQL 13 registry。
- 使用 NooBaa 作为后端存储的一个。
Red Hat Quay 和 NooBaa 之间的连接通过 OpenShift Container Platform 中的 S3 API 和 ObjectBucketClaim API 进行。Red Hat Quay 利用该 API 组在 NooBaa 中创建存储桶,获取访问密钥并自动设置所有内容。在后端或 NooBaa 上,该存储桶是在后备存储中创建的。因此,NooBaa PVC 不会挂载或连接到 Red Hat Quay pod。
PostgreSQL 13 和 Clair PostgreSQL 13 PVC 的默认大小被设置为 50 GiB。您可以按照以下流程在 OpenShift Container Platform 控制台中扩展这些 PVC 的存储。
以下流程与 Red Hat OpenShift Data Foundation 上的 扩展持久性卷声明 共享通用性。
4.5.1. 在 Red Hat Quay 上重新定义 PostgreSQL 13 PVC 大小
使用以下步骤调整 PostgreSQL 13 和 Clair PostgreSQL 13 PVC 的大小。
先决条件
- 在 OpenShift Container Platform 上具有集群 admin 权限。
流程
- 登录 OpenShift Container Platform 控制台并选择 Storage → Persistent Volume Claims。
-
为 PostgreSQL 13 或 Clair PostgreSQL 13 选择所需的
PersistentVolumeClaim
,如example-registry-quay-postgres-13
。 - 在 Action 菜单中,选择 Expand PVC。
输入持久性卷声明的新大小,然后选择 Expand。
几分钟后,扩展的大小应在 PVC 的 Capacity 字段中反映。
4.6. 自定义默认 Operator 镜像
目前,IBM Power 和 IBM Z 不支持自定义默认 Operator 镜像。
在某些情况下,覆盖 Red Hat Quay Operator 使用的默认镜像可能很有用。这可以通过在 Red Hat Quay Operator ClusterServiceVersion
中设置一个或多个环境变量来完成。
生产环境 Red Hat Quay 环境不支持使用这个机制,并强烈建议只用于开发或测试目的。当将非默认镜像与 Red Hat Quay Operator 搭配使用时,不能保证您的部署可以正常工作。
4.6.1. 环境变量
Red Hat Quay Operator 中使用以下环境变量来覆盖组件镜像:
环境变量 | 组件 |
|
|
|
|
|
|
|
|
覆盖的镜像 必须由 清单(@sha256:)引用,而不是通过标签(:latest)引用。
4.6.2. 将覆盖应用到正在运行的 Operator
通过 Operator Lifecycle Manager (OLM) 在集群中安装 Red Hat Quay Operator 时,可通过修改 ClusterServiceVersion
对象来轻松覆盖受管组件容器镜像。
使用以下步骤将覆盖应用到正在运行的 Red Hat Quay Operator。
流程
ClusterServiceVersion
对象是集群中正在运行的 Operator 的 Operator Lifecycle Manager 表示。使用 Kubernetes UI 或kubectl
/oc
CLI 工具查找 Red Hat Quay Operator 的ClusterServiceVersion
。例如:$ oc get clusterserviceversions -n <your-namespace>
使用 UI、
oc edit
或其它方法修改 Red Hat QuayClusterServiceVersion
,使其包含上面概述的环境变量以指向覆盖镜像:JSONPath:
spec.install.spec.deployments[0].spec.template.spec.containers[0].env
- name: RELATED_IMAGE_COMPONENT_QUAY value: quay.io/projectquay/quay@sha256:c35f5af964431673f4ff5c9e90bdf45f19e38b8742b5903d41c10cc7f6339a6d - name: RELATED_IMAGE_COMPONENT_CLAIR value: quay.io/projectquay/clair@sha256:70c99feceb4c0973540d22e740659cd8d616775d3ad1c1698ddf71d0221f3ce6 - name: RELATED_IMAGE_COMPONENT_POSTGRES value: centos/postgresql-10-centos7@sha256:de1560cb35e5ec643e7b3a772ebaac8e3a7a2a8e8271d9e91ff023539b4dfb33 - name: RELATED_IMAGE_COMPONENT_REDIS value: centos/redis-32-centos7@sha256:06dbb609484330ec6be6090109f1fa16e936afcf975d1cbc5fff3e6c7cae7542
这是在 Operator 级别完成的,因此每个 QuayRegistry
都将使用相同的覆盖进行部署。
4.7. AWS S3 CloudFront
目前,IBM Power 和 IBM Z 不支持使用 AWS S3 CloudFront。
如果您在后端 registry 存储中使用 AWS S3 Cloudfront,请使用以下步骤。
流程
输入以下命令来指定 registry 密钥:
$ oc create secret generic --from-file config.yaml=./config_awss3cloudfront.yaml --from-file default-cloudfront-signing-key.pem=./default-cloudfront-signing-key.pem test-config-bundle
第 5 章 Red Hat Quay 构建增强
Red Hat Quay 构建可以在虚拟化平台上运行。也可以向后向兼容性来运行以前的构建配置。
5.1. Red Hat Quay 构建限制
在非特权上下文中在 Red Hat Quay 中运行构建可能会导致一些在上一个构建策略下工作的命令失败。尝试更改构建策略可能会导致构建出现性能问题和可靠性。
在容器中运行构建与使用虚拟机没有相同的隔离。更改构建环境也可能会导致之前正常工作的构建失败。
5.2. 使用 OpenShift Container Platform 创建 Red Hat Quay 构建器环境
本节中的步骤解释了如何使用 OpenShift Container Platform 创建 Red Hat Quay 虚拟构建器环境。
5.2.1. OpenShift Container Platform TLS 组件
tls
组件允许您控制 TLS 配置。
当由 Operator 管理 TLS 组件时,Red Hat Quay 3.12 不支持构建器。
如果将 tls
设置为 unmanaged
,则提供自己的 ssl.cert
和 ssl.key
文件。在本实例中,如果您希望集群支持构建器,您必须将 Quay 路由和构建器路由名称添加到证书中的 SAN 列表中,或使用通配符。
要添加 builder 路由,请使用以下格式:
[quayregistry-cr-name]-quay-builder-[ocp-namespace].[ocp-domain-name]:443
5.2.2. 使用 OpenShift Container Platform for Red Hat Quay 构建器
构建器需要 SSL/TLS 证书。有关 SSL/TLS 证书的更多信息,请参阅使用 SSL/TLS 证书的概念验证部署。
如果使用 Amazon Web Service (AWS) S3 存储,则必须在运行构建器前在 AWS 控制台中修改存储桶。有关所需参数,请参阅以下部分"修改 AWS S3 存储桶"。
5.2.2.1. 为虚拟构建器准备 OpenShift Container Platform
使用以下步骤为 Red Hat Quay 虚拟构建器准备 OpenShift Container Platform。
- 此流程假设您已置备集群并运行 Quay Operator。
- 此流程用于在 OpenShift Container Platform 上设置虚拟命名空间。
流程
- 使用集群管理员帐户登录到 Red Hat Quay 集群。
运行以下命令,创建一个运行虚拟构建器的新项目,如
virtual-builders
:$ oc new-project virtual-builders
输入以下命令在项目中创建一个
ServiceAccount
,用于运行构建:$ oc create sa -n virtual-builders quay-builder
为创建的服务帐户提供编辑权限,以便它可以运行构建:
$ oc adm policy -n virtual-builders add-role-to-user edit system:serviceaccount:virtual-builders:quay-builder
输入以下命令授予 Quay builder
anyuid scc
权限:$ oc adm policy -n virtual-builders add-scc-to-user anyuid -z quay-builder
注意此操作需要集群管理员特权。这是必要的,因为构建器必须以 Podman 用户身份运行,才能让非特权或无根构建正常工作。
获取 Quay builder 服务帐户的令牌。
如果使用 OpenShift Container Platform 4.10 或更早的版本,请输入以下命令:
oc sa get-token -n virtual-builders quay-builder
如果使用 OpenShift Container Platform 4.11 或更高版本,请输入以下命令:
$ oc create token quay-builder -n virtual-builders
注意当令牌过期时,您需要请求新令牌。另外,您还可以添加自定义过期。例如,使用
specify-duration 20160m
来保留令牌两周。输出示例
<example_token>
输入以下命令确定构建器路由:
$ oc get route -n quay-enterprise
输出示例
NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD ... example-registry-quay-builder example-registry-quay-builder-quay-enterprise.apps.docs.quayteam.org example-registry-quay-app grpc edge/Redirect None ...
输入以下命令,使用 .crt 扩展生成自签名 SSL/TlS 证书:
$ oc extract cm/kube-root-ca.crt -n openshift-apiserver
输出示例
ca.crt
输入以下命令将
ca.crt
文件重命名为extra_ca_cert_build_cluster.crt
:$ mv ca.crt extra_ca_cert_build_cluster.crt
在控制台中找到配置捆绑包的 secret,然后选择 Actions → Edit Secret 并添加适当的构建程序配置:
FEATURE_USER_INITIALIZE: true BROWSER_API_CALLS_XHR_ONLY: false SUPER_USERS: - <superusername> FEATURE_USER_CREATION: false FEATURE_QUOTA_MANAGEMENT: true FEATURE_BUILD_SUPPORT: True BUILDMAN_HOSTNAME: <sample_build_route> 1 BUILD_MANAGER: - ephemeral - ALLOWED_WORKER_COUNT: 1 ORCHESTRATOR_PREFIX: buildman/production/ JOB_REGISTRATION_TIMEOUT: 3600 2 ORCHESTRATOR: REDIS_HOST: <sample_redis_hostname> 3 REDIS_PASSWORD: "" REDIS_SSL: false REDIS_SKIP_KEYSPACE_EVENT_SETUP: false EXECUTORS: - EXECUTOR: kubernetesPodman NAME: openshift BUILDER_NAMESPACE: <sample_builder_namespace> 4 SETUP_TIME: 180 MINIMUM_RETRY_THRESHOLD: 0 BUILDER_CONTAINER_IMAGE: <sample_builder_container_image> 5 # Kubernetes resource options K8S_API_SERVER: <sample_k8s_api_server> 6 K8S_API_TLS_CA: <sample_crt_file> 7 VOLUME_SIZE: 8G KUBERNETES_DISTRIBUTION: openshift CONTAINER_MEMORY_LIMITS: 1G 8 CONTAINER_CPU_LIMITS: 300m 9 CONTAINER_MEMORY_REQUEST: 1G 10 CONTAINER_CPU_REQUEST: 300m 11 NODE_SELECTOR_LABEL_KEY: "" NODE_SELECTOR_LABEL_VALUE: "" SERVICE_ACCOUNT_NAME: <sample_service_account_name> SERVICE_ACCOUNT_TOKEN: <sample_account_token> 12 HTTP_PROXY: <http://10.0.0.1:80> HTTPS_PROXY: <http://10.0.0.1:80> NO_PROXY: <hostname.example.com>
- 1
- 通过运行
oc get route -n
带有 OpenShift Operator 命名空间的名称来获取构建路由。路由末尾必须提供端口,并且应使用以下格式:[quayregistry-cr-name]-quay-builder-[ocp-namespace].[ocp-domain-name]:443
。 - 2
- 如果
JOB_REGISTRATION_TIMEOUT
参数设置过低,您可能会收到以下错误:failed to register job to build manager: rpc error: code = Unauthenticated desc = Invalid build token: Signature has expired
。建议将此参数设置为至少 240。 - 3
- 如果您的 Redis 主机有密码或 SSL/TLS 证书,您必须相应地更新。
- 4
- 设置为与虚拟构建器命名空间的名称匹配,如
virtual-builders
。 - 5
- 对于早期访问,
BUILDER_CONTAINER_IMAGE
目前为quay.io/projectquay/quay-builder:3.7.0-rc.2
。请注意,这可能会在早期访问窗口期间有所变化。如果发生这种情况,系统会提醒客户。 - 6
K8S_API_SERVER
通过运行oc cluster-info
获取。- 7
- 您必须手动创建并添加自定义 CA 证书,如
K8S_API_TLS_CA: /conf/stack/extra_ca_certs/build_cluster.crt
。 - 8
- 如果未指定,则默认为
5120Mi
。 - 9
- 对于虚拟构建,您必须确保集群中有足够的资源。如果未指定,则默认为
1000m
。 - 10
- 如果未指定,则默认为
3968Mi
。 - 11
- 如果未指定,则默认为
500m
。 - 12
- 在运行
oc create sa
时获取。
配置示例
FEATURE_USER_INITIALIZE: true BROWSER_API_CALLS_XHR_ONLY: false SUPER_USERS: - quayadmin FEATURE_USER_CREATION: false FEATURE_QUOTA_MANAGEMENT: true FEATURE_BUILD_SUPPORT: True BUILDMAN_HOSTNAME: example-registry-quay-builder-quay-enterprise.apps.docs.quayteam.org:443 BUILD_MANAGER: - ephemeral - ALLOWED_WORKER_COUNT: 1 ORCHESTRATOR_PREFIX: buildman/production/ JOB_REGISTRATION_TIMEOUT: 3600 ORCHESTRATOR: REDIS_HOST: example-registry-quay-redis REDIS_PASSWORD: "" REDIS_SSL: false REDIS_SKIP_KEYSPACE_EVENT_SETUP: false EXECUTORS: - EXECUTOR: kubernetesPodman NAME: openshift BUILDER_NAMESPACE: virtual-builders SETUP_TIME: 180 MINIMUM_RETRY_THRESHOLD: 0 BUILDER_CONTAINER_IMAGE: quay.io/projectquay/quay-builder:3.7.0-rc.2 # Kubernetes resource options K8S_API_SERVER: api.docs.quayteam.org:6443 K8S_API_TLS_CA: /conf/stack/extra_ca_certs/build_cluster.crt VOLUME_SIZE: 8G KUBERNETES_DISTRIBUTION: openshift CONTAINER_MEMORY_LIMITS: 1G CONTAINER_CPU_LIMITS: 300m CONTAINER_MEMORY_REQUEST: 1G CONTAINER_CPU_REQUEST: 300m NODE_SELECTOR_LABEL_KEY: "" NODE_SELECTOR_LABEL_VALUE: "" SERVICE_ACCOUNT_NAME: quay-builder SERVICE_ACCOUNT_TOKEN: "<example_token>" HTTP_PROXY: <http://10.0.0.1:80> HTTPS_PROXY: <http://10.0.0.1:80> NO_PROXY: <hostname.example.com>
5.2.2.2. 手动添加 SSL/TLS 证书
由于配置工具的已知问题,您必须手动添加自定义 SSL/TLS 证书才能正确运行构建器。使用以下步骤手动添加自定义 SSL/TLS 证书。
有关创建 SSL/TLS 证书的更多信息,请参阅使用 SSL/TLS 证书的概念验证部署。
5.2.2.2.1. 创建并签名证书
使用以下步骤创建并签署 SSL/TLS 证书。
流程
创建证书颁发机构并签署证书。如需更多信息,请参阅创建证书颁发机构。
openssl.cnf
[req] req_extensions = v3_req distinguished_name = req_distinguished_name [req_distinguished_name] [ v3_req ] basicConstraints = CA:FALSE keyUsage = nonRepudiation, digitalSignature, keyEncipherment subjectAltName = @alt_names [alt_names] DNS.1 = example-registry-quay-quay-enterprise.apps.docs.quayteam.org 1 DNS.2 = example-registry-quay-builder-quay-enterprise.apps.docs.quayteam.org 2
示例命令
$ openssl genrsa -out rootCA.key 2048 $ openssl req -x509 -new -nodes -key rootCA.key -sha256 -days 1024 -out rootCA.pem $ openssl genrsa -out ssl.key 2048 $ openssl req -new -key ssl.key -out ssl.csr $ openssl x509 -req -in ssl.csr -CA rootCA.pem -CAkey rootCA.key -CAcreateserial -out ssl.cert -days 356 -extensions v3_req -extfile openssl.cnf
5.2.2.2.2. 将 TLS 设置为非受管状态
使用以下步骤将 king:tls
设置为 unmanaged。
流程
在 Red Hat Quay Registry YAML 中,将
kind: tls
设置为managed: false
:- kind: tls managed: false
在 Events 页面中,更改会被阻断,直到设置适当的
config.yaml
文件。例如:- lastTransitionTime: '2022-03-28T12:56:49Z' lastUpdateTime: '2022-03-28T12:56:49Z' message: >- required component `tls` marked as unmanaged, but `configBundleSecret` is missing necessary fields reason: ConfigInvalid status: 'True'
5.2.2.2.3. 创建临时 secret
使用以下步骤为 CA 证书创建临时 secret。
流程
在 default 命名空间中为 CA 证书创建 secret:
$ oc create secret generic -n quay-enterprise temp-crt --from-file extra_ca_cert_build_cluster.crt
在 default 命名空间中为
ssl.key
和ssl.cert
文件创建一个 secret:$ oc create secret generic -n quay-enterprise quay-config-ssl --from-file ssl.cert --from-file ssl.key
5.2.2.2.4. 将 secret 数据复制到配置 YAML 中
使用以下步骤将 secret 数据复制到 config.yaml
文件中。
流程
- 在位于 Workloads → Secrets 的控制台 UI 中查找新 secret。
对于每个 secret,找到 YAML 视图:
kind: Secret apiVersion: v1 metadata: name: temp-crt namespace: quay-enterprise uid: a4818adb-8e21-443a-a8db-f334ace9f6d0 resourceVersion: '9087855' creationTimestamp: '2022-03-28T13:05:30Z' ... data: extra_ca_cert_build_cluster.crt: >- LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSURNakNDQWhxZ0F3SUJBZ0l.... type: Opaque
kind: Secret apiVersion: v1 metadata: name: quay-config-ssl namespace: quay-enterprise uid: 4f5ae352-17d8-4e2d-89a2-143a3280783c resourceVersion: '9090567' creationTimestamp: '2022-03-28T13:10:34Z' ... data: ssl.cert: >- LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUVaakNDQTA2Z0F3SUJBZ0lVT... ssl.key: >- LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQpNSUlFcFFJQkFBS0NBUUVBc... type: Opaque
在 UI 中找到 Red Hat Quay registry 配置捆绑包的 secret,或通过运行以下命令运行以下命令:
$ oc get quayregistries.quay.redhat.com -o jsonpath="{.items[0].spec.configBundleSecret}{'\n'}" -n quay-enterprise
在 OpenShift Container Platform 控制台中,选择配置捆绑包 secret 的 YAML 选项卡,并从您创建的两个 secret 中添加数据:
kind: Secret apiVersion: v1 metadata: name: init-config-bundle-secret namespace: quay-enterprise uid: 4724aca5-bff0-406a-9162-ccb1972a27c1 resourceVersion: '4383160' creationTimestamp: '2022-03-22T12:35:59Z' ... data: config.yaml: >- RkVBVFVSRV9VU0VSX0lOSVRJQUxJWkU6IHRydWUKQlJ... extra_ca_cert_build_cluster.crt: >- LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSURNakNDQWhxZ0F3SUJBZ0ldw.... ssl.cert: >- LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUVaakNDQTA2Z0F3SUJBZ0lVT... ssl.key: >- LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQpNSUlFcFFJQkFBS0NBUUVBc... type: Opaque
- 点击 Save。
输入以下命令查看您的 pod 是否已重启:
$ oc get pods -n quay-enterprise
输出示例
NAME READY STATUS RESTARTS AGE ... example-registry-quay-app-6786987b99-vgg2v 0/1 ContainerCreating 0 2s example-registry-quay-app-7975d4889f-q7tvl 1/1 Running 0 5d21h example-registry-quay-app-7975d4889f-zn8bb 1/1 Running 0 5d21h example-registry-quay-app-upgrade-lswsn 0/1 Completed 0 6d1h example-registry-quay-config-editor-77847fc4f5-nsbbv 0/1 ContainerCreating 0 2s example-registry-quay-config-editor-c6c4d9ccd-2mwg2 1/1 Running 0 5d21h example-registry-quay-database-66969cd859-n2ssm 1/1 Running 0 6d1h example-registry-quay-mirror-764d7b68d9-jmlkk 1/1 Terminating 0 5d21h example-registry-quay-mirror-764d7b68d9-jqzwg 1/1 Terminating 0 5d21h example-registry-quay-redis-7cc5f6c977-956g8 1/1 Running 0 5d21h
重新配置 Red Hat Quay registry 后,输入以下命令来检查 Red Hat Quay 应用程序 pod 是否在运行:
$ oc get pods -n quay-enterprise
输出示例
example-registry-quay-app-6786987b99-sz6kb 1/1 Running 0 7m45s example-registry-quay-app-6786987b99-vgg2v 1/1 Running 0 9m1s example-registry-quay-app-upgrade-lswsn 0/1 Completed 0 6d1h example-registry-quay-config-editor-77847fc4f5-nsbbv 1/1 Running 0 9m1s example-registry-quay-database-66969cd859-n2ssm 1/1 Running 0 6d1h example-registry-quay-mirror-758fc68ff7-5wxlp 1/1 Running 0 8m29s example-registry-quay-mirror-758fc68ff7-lbl82 1/1 Running 0 8m29s example-registry-quay-redis-7cc5f6c977-956g8 1/1 Running 0 5d21h
在您的浏览器中,访问 registry 端点并验证证书是否已适当更新。例如:
Common Name (CN) example-registry-quay-quay-enterprise.apps.docs.quayteam.org Organisation (O) DOCS Organisational Unit (OU) QUAY
5.2.2.3. 使用 UI 创建构建触发器
使用以下步骤使用 UI 创建构建触发器。
流程
- 登录到您的 Red Hat Quay 存储库。
-
单击 Create New Repository 并创建一个新 registry,如
testrepo
。 在 Repositories 页面上,单击导航窗格上的 Builds 选项卡。或者,直接使用对应的 URL:
https://example-registry-quay-quay-enterprise.apps.docs.quayteam.org/repository/quayadmin/testrepo?tab=builds
重要在某些情况下,构建器可能会遇到解析主机名的问题。这个问题可能与作业对象上的
dnsPolicy
设置为default
。目前,这个问题还没有临时解决方案。它将在以后的 Red Hat Quay 版本中解决。- 点 Create Build Trigger → Custom Git Repository Push。
输入用于克隆 Git 存储库的 HTTPS 或 SSH 风格 URL,然后单击 Continue。例如:
https://github.com/gabriel-rh/actions_test.git
- 使用分支或标签名称选中 Tag 清单,然后单击 Continue。
-
在调用触发器时,输入要构建的 Dockerfile 的位置,如
/Dockerfile
,然后单击 Continue。 -
输入 Docker 构建的上下文位置,如
/
,然后单击 Continue。 - 如果保证,请创建一个 Robot 帐户。否则,点 Continue。
- 点 Continue 来验证参数。
- 在 Builds 页面中,点 Trigger Name 的 Options 图标,然后点 Run Trigger Now。
- 从 Git 存储库输入提交 SHA,然后单击 Start Build。
您可以点击 Build History 页面中的提交或运行
oc get pods -n virtual-builders
来检查构建的状态。例如:$ oc get pods -n virtual-builders
输出示例
NAME READY STATUS RESTARTS AGE f192fe4a-c802-4275-bcce-d2031e635126-9l2b5-25lg2 1/1 Running 0 7s
$ oc get pods -n virtual-builders
输出示例
NAME READY STATUS RESTARTS AGE f192fe4a-c802-4275-bcce-d2031e635126-9l2b5-25lg2 1/1 Terminating 0 9s
$ oc get pods -n virtual-builders
输出示例
No resources found in virtual-builders namespace.
构建完成后,您可以检查导航窗格上的 Tags 下标签的状态。
注意使用早期访问权限时,构建的完整构建日志和时间戳当前不可用。
5.2.2.4. 修改 AWS S3 存储桶
如果使用 AWS S3 存储,则必须在运行构建器前在 AWS 控制台中更改存储桶。
流程
- 登录到位于 s3.console.aws.com 的 AWS 控制台。
-
在搜索栏中,搜索
S3
,然后单击 S3。 -
单击存储桶的名称,如
myawsbucket
。 - 单击权限选项卡。
在 Cross-origin 资源共享(CORS) 下,包括以下参数:
[ { "AllowedHeaders": [ "Authorization" ], "AllowedMethods": [ "GET" ], "AllowedOrigins": [ "*" ], "ExposeHeaders": [], "MaxAgeSeconds": 3000 }, { "AllowedHeaders": [ "Content-Type", "x-amz-acl", "origin" ], "AllowedMethods": [ "PUT" ], "AllowedOrigins": [ "*" ], "ExposeHeaders": [], "MaxAgeSeconds": 3000 } ]
5.2.2.5. 修改 Google Cloud Platform 对象存储桶
目前,IBM Power 和 IBM Z 不支持修改 Google Cloud Platform 对象存储桶。
使用以下步骤为虚拟构建器配置跨原始资源共享(CORS)。
如果没有 CORS 配置,上传构建 Dockerfile 会失败。
流程
使用以下参考来为您的特定 CORS 需要创建一个 JSON 文件。例如:
$ cat gcp_cors.json
输出示例
[ { "origin": ["*"], "method": ["GET"], "responseHeader": ["Authorization"], "maxAgeSeconds": 3600 }, { "origin": ["*"], "method": ["PUT"], "responseHeader": [ "Content-Type", "x-goog-acl", "origin"], "maxAgeSeconds": 3600 } ]
输入以下命令更新 GCP 存储桶:
$ gcloud storage buckets update gs://<bucket_name> --cors-file=./gcp_cors.json
输出示例
Updating Completed 1
您可以运行以下命令来显示 GCP 存储桶的更新 CORS 配置:
$ gcloud storage buckets describe gs://<bucket_name> --format="default(cors)"
输出示例
cors: - maxAgeSeconds: 3600 method: - GET origin: - '*' responseHeader: - Authorization - maxAgeSeconds: 3600 method: - PUT origin: - '*' responseHeader: - Content-Type - x-goog-acl - origin
第 6 章 geo-replication
目前,IBM Power 不支持 geo-replication 功能。
地理复制允许多个地理分散的 Red Hat Quay 部署,从客户端或用户的角度来看,作为单个 registry 工作。它显著提高了全局分布式 Red Hat Quay 设置中的推送和拉取性能。镜像数据会在后台异步复制,为客户端进行透明故障转移和重定向。
在独立和 Operator 部署中支持部署带有异地复制的 Red Hat Quay。
其他资源
- 有关异地复制功能架构的更多信息,请参阅 架构指南 , 其中包括技术图和高级别概述。
6.1. 异地复制功能
- 配置异地复制后,容器镜像推送将写入该 Red Hat Quay 实例的首选存储引擎。这通常是区域内最接近的存储后端。
- 在初始推送后,镜像数据将在后台复制到其他存储引擎。
- 复制位置列表可以配置,它们可以是不同的存储后端。
- 镜像拉取将始终使用最接近的可用存储引擎,以最大化拉取性能。
- 如果复制尚未完成,拉取将使用源存储后端。
6.2. 地理复制要求和约束
- 在地理复制设置中,Red Hat Quay 要求所有区域都可以读取和写入所有其他区域的对象存储。对象存储必须可以被所有其他区域访问。
- 如果一个地理复制站点的对象存储系统失败,该站点的 Red Hat Quay 部署必须被关闭,以便客户端由全局负载均衡器重定向到具有完整存储系统的剩余站点。否则,客户端将遇到拉取和推送失败。
- Red Hat Quay 没有内部感知连接的对象存储系统的健康状态或可用性。用户必须配置全局负载均衡器(LB)来监控分布式系统的健康状况,并根据存储状态将流量路由到不同的站点。
-
要检查 geo-replication 部署的状态,您必须使用
/health/endtoend
检查点,该检查点用于全局健康监控。您必须使用/health/endtoend
端点手动配置重定向。/health/instance
端点仅检查本地实例健康状况。 - 如果一个站点的对象存储系统不可用,则其余站点或站点没有自动重定向到剩余的存储系统或系统。
- 地理复制(geo-replication)是异步的。如果一个站点永久丢失,则已存储在该站点的对象存储系统中,但在失败时还没有复制到剩余的站点的数据会丢失。
单个数据库,因此所有区域都共享所有元数据和 Red Hat Quay 配置。
地理复制不会复制数据库。如果出现停机,启用了地理复制功能的 Red Hat Quay 不会切换到另一个数据库。
- 单个 Redis 缓存在整个 Red Hat Quay 设置间共享,需要可以被所有 Red Hat Quay pod 访问。
-
所有区域应当使用相同的配置,但存储后端除外,这可以使用
QUAY_DISTRIBUTED_STORAGE_PREFERENCE
环境变量明确进行配置。 - 地理复制需要每个区域中的对象存储。它不适用于本地存储。
- 每个区域必须能够访问每个区域中的每个存储引擎,这需要一个网络路径。
- 或者,可以使用存储代理选项。
- 整个存储后端(如所有 blob)被复制。相反,存储库镜像可以限制在存储库或镜像上。
- 所有 Red Hat Quay 实例都必须共享相同的入口点,通常是通过负载均衡器。
- 所有 Red Hat Quay 实例都必须具有相同的超级用户集合,因为它们在通用配置文件中定义。
-
地理复制需要您的 Clair 配置设置为
unmanaged
。非受管 Clair 数据库允许 Red Hat Quay Operator 在地理复制环境中工作,其中 Red Hat Quay Operator 的多个实例必须与同一数据库通信。如需更多信息,请参阅高级 Clair 配置。 - geo-Replication 需要 SSL/TLS 证书和密钥。如需更多信息,请参阅 * Geo-Replication 需要 SSL/TLS 证书和密钥。如需更多信息,请参阅使用 SSL/TLS 证书部署概念验证。
如果无法满足上述要求,您应该使用两个或多个 Red Hat Quay 部署,并利用存储库镜像功能。
6.2.1. 在 OpenShift Container Platform 中设置 geo-replication
使用以下步骤在 OpenShift Container Platform 上设置 geo-replication。
流程
- 为 Red Hat Quay 部署 postgres 实例。
输入以下命令登录到数据库:
psql -U <username> -h <hostname> -p <port> -d <database_name>
为 Red Hat Quay 创建名为
quay
的数据库。例如:CREATE DATABASE quay;
在数据库中启用 pg_trm 扩展
\c quay; CREATE EXTENSION IF NOT EXISTS pg_trgm;
部署 Redis 实例:
注意- 如果您的云供应商有自己的服务,则部署 Redis 实例可能是必需的。
- 如果您使用 Builders,则需要部署 Redis 实例。
- 为 Redis 部署虚拟机
- 验证是否可以从运行 Red Hat Quay 的集群访问
- 必须打开端口 6379/TCP
在实例内运行 Redis
sudo dnf install -y podman podman run -d --name redis -p 6379:6379 redis
- 创建两个对象存储后端,每个集群一个。理想情况下,一个对象存储桶将接近第一个或主集群,另一个则运行更接近第二个或次要集群。
- 使用同一配置捆绑包部署集群,使用环境变量覆盖来为单个集群选择适当的存储后端。
- 配置负载均衡器,以提供集群的单个入口点。
6.2.1.1. 在 OpenShift Container Platform 上为 Red Hat Quay 配置异地复制
使用以下步骤为 OpenShift Container Platform 上的 Red Hat Quay 配置 geo-replication。
流程
创建在集群之间共享的
config.yaml
文件。此config.yaml
文件包含通用 PostgreSQL、Redis 和存储后端的详情:geo-replication
config.yaml
文件SERVER_HOSTNAME: <georep.quayteam.org or any other name> 1 DB_CONNECTION_ARGS: autorollback: true threadlocals: true DB_URI: postgresql://postgres:password@10.19.0.1:5432/quay 2 BUILDLOGS_REDIS: host: 10.19.0.2 port: 6379 USER_EVENTS_REDIS: host: 10.19.0.2 port: 6379 DATABASE_SECRET_KEY: 0ce4f796-c295-415b-bf9d-b315114704b8 DISTRIBUTED_STORAGE_CONFIG: usstorage: - GoogleCloudStorage - access_key: GOOGQGPGVMASAAMQABCDEFG bucket_name: georep-test-bucket-0 secret_key: AYWfEaxX/u84XRA2vUX5C987654321 storage_path: /quaygcp eustorage: - GoogleCloudStorage - access_key: GOOGQGPGVMASAAMQWERTYUIOP bucket_name: georep-test-bucket-1 secret_key: AYWfEaxX/u84XRA2vUX5Cuj12345678 storage_path: /quaygcp DISTRIBUTED_STORAGE_DEFAULT_LOCATIONS: - usstorage - eustorage DISTRIBUTED_STORAGE_PREFERENCE: - usstorage - eustorage FEATURE_STORAGE_REPLICATION: true
输入以下命令来创建
configBundleSecret
:$ oc create secret generic --from-file config.yaml=./config.yaml georep-config-bundle
在每个集群中,设置
configBundleSecret
,并使用QUAY_DISTRIBUTED_STORAGE_PREFERENCE
环境变量覆盖来为该集群配置适当的存储。例如:注意两个部署之间的
config.yaml
文件都必须匹配。如果对一个集群进行更改,还必须更改它。US cluster
QuayRegistry
示例apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: example-registry namespace: quay-enterprise spec: configBundleSecret: georep-config-bundle components: - kind: objectstorage managed: false - kind: route managed: true - kind: tls managed: false - kind: postgres managed: false - kind: clairpostgres managed: false - kind: redis managed: false - kind: quay managed: true overrides: env: - name: QUAY_DISTRIBUTED_STORAGE_PREFERENCE value: usstorage - kind: mirror managed: true overrides: env: - name: QUAY_DISTRIBUTED_STORAGE_PREFERENCE value: usstorage
注意因为 SSL/TLS 是非受管的,且路由被管理,因此您必须直接在 config 捆绑包中提供证书。如需更多信息,请参阅配置 TLS 和路由。
欧洲集群
apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: example-registry namespace: quay-enterprise spec: configBundleSecret: georep-config-bundle components: - kind: objectstorage managed: false - kind: route managed: true - kind: tls managed: false - kind: postgres managed: false - kind: clairpostgres managed: false - kind: redis managed: false - kind: quay managed: true overrides: env: - name: QUAY_DISTRIBUTED_STORAGE_PREFERENCE value: eustorage - kind: mirror managed: true overrides: env: - name: QUAY_DISTRIBUTED_STORAGE_PREFERENCE value: eustorage
注意因为 SSL/TLS 是非受管的,且路由被管理,因此您必须直接在 config 捆绑包中提供证书。如需更多信息,请参阅配置 TLS 和路由。
6.2.2. 用于异地复制的混合存储
Red Hat Quay geo-replication 支持使用不同的和多个复制目标,例如在公有云上使用 AWS S3 存储,并在内部使用 Ceph 存储。这简化了从所有 Red Hat Quay pod 和集群节点授予对所有存储后端的访问权限的关键要求。因此,建议您使用以下方法:
- VPN 以防止内部存储的可见性,或者
- 只允许访问 Red Hat Quay 使用的特定存储桶的令牌对
这会导致 Red Hat Quay 公共云实例有权访问内部存储,但网络将被加密、保护,并使用 ACL,从而满足安全要求。
如果您无法实现这些安全措施,最好部署两个不同的 Red Hat Quay registry,并使用存储库镜像作为异地复制的替代选择。
6.3. 在 OpenShift Container Platform 上升级 Red Hat Quay 的地理复制部署
使用以下步骤升级 OpenShift Container Platform 部署中的地理复制 Red Hat Quay。
- 当 OpenShift Container Platform 上的 geo-replicated Red Hat Quay 升级到下一个 y-stream 版本(例如,Red Hat Quay 3.7 → Red Hat Quay 3.8)时,您必须在升级前停止操作。
- 间歇性停机时间从一个 y-stream 版本升级到下一个版本。
- 在升级前,强烈建议在 OpenShift Container Platform 部署中备份 Red Hat Quay。
此流程假设您在三个或更多系统上运行 Red Hat Quay registry。在此过程中,我们将假设三个系统名为 System A、
System B
和 System C
。系统 A
将作为部署 Red Hat Quay Operator 的主要系统。
在 System B 和 System C 中,缩减 Red Hat Quay registry。这可以通过禁用自动扩展并覆盖 Red Hat Quay、mirror worker 和 Clair 的副本计数(如果被管理)。使用以下
quayregistry.yaml
文件作为参考:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: registry namespace: ns spec: components: … - kind: horizontalpodautoscaler managed: false 1 - kind: quay managed: true overrides: 2 replicas: 0 - kind: clair managed: true overrides: replicas: 0 - kind: mirror managed: true overrides: replicas: 0 …
注意您必须保持在 System A 上运行 Red Hat Quay registry。不要更新 System A 上的
quayregistry.yaml
文件。等待
registry-quay-app
、registry-quay-mirror
和registry-clair-app
pod 消失。输入以下命令检查其状态:oc get pods -n <quay-namespace>
输出示例
quay-operator.v3.7.1-6f9d859bd-p5ftc 1/1 Running 0 12m quayregistry-clair-postgres-7487f5bd86-xnxpr 1/1 Running 1 (12m ago) 12m quayregistry-quay-app-upgrade-xq2v6 0/1 Completed 0 12m quayregistry-quay-redis-84f888776f-hhgms 1/1 Running 0 12m
- 在 System A 中,启动 Red Hat Quay 升级到最新的 y-stream 版本。这是一个手动过程。有关升级安装的 Operator 的更多信息,请参阅 升级已安装的 Operator。有关 Red Hat Quay 升级路径的更多信息,请参阅升级 Red Hat Quay Operator。
-
安装新的 Red Hat Quay registry 后,集群上的必要升级会自动完成。之后,新的 Red Hat Quay Pod 使用最新的 y-stream 版本启动。另外,新的
Quay
pod 会被调度并启动。 进入 Red Hat Quay UI 确认更新是否正常工作:
在 OpenShift 控制台中,导航到 Operators → Installed Operators,然后点击 Registry Endpoint 链接。
重要在 Red Hat Quay UI 可用前,不要执行以下步骤。在 System A 上,不要升级 System B 上的 Red Hat Quay registry 和 System C。
确认更新已在 System A 上正常工作,在 System B 和 System C 上启动 Red Hat Quay 升级。Operator 升级会导致升级 Red Hat Quay 安装,pod 被重启。
注意因为数据库模式对于新的 y-stream 安装是正确的,所以 System B 和 System C 上的新 pod 应该快速启动。
更新后,通过删除组件的
覆盖
来恢复此流程中第 1 步中所做的更改。例如:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: registry namespace: ns spec: components: … - kind: horizontalpodautoscaler managed: true 1 - kind: quay managed: true - kind: clair managed: true - kind: mirror managed: true …
- 1
- 如果在升级前将
horizontalpodautoscaler
资源设置为true
,或者您希望 Red Hat Quay 在资源短缺时扩展,请将其设为true
。
6.3.1. 从 OpenShift Container Platform 部署的 Red Hat Quay 中删除 geo-replicated 站点
通过使用以下步骤,Red Hat Quay 管理员可以删除地理复制设置中的站点。
先决条件
- 已登陆到 OpenShift Container Platform。
-
您已配置了 Red Hat Quay 异地复制,至少有两个站点,例如
usstorage
和eustorage
。 - 每个站点都有自己的组织、存储库和镜像标签。
流程
运行以下命令,同步所有定义的站点之间的 Blob:
$ python -m util.backfillreplication
警告在从 Red Hat Quay
config.yaml
文件中删除存储引擎 前,您必须确保在 所有定义的站点间同步所有 Blob。在运行此命令时,会创建复制作业,由复制工作程序提取。如果有需要复制的 Blob,该脚本会返回将复制的 Blob 的 UUID。如果您多次运行此命令,并且返回脚本的输出为空,并不意味着完成复制过程;这意味着没有更多 Blob 进行复制。客户应在继续前使用适当的 judgement,因为分配的时间复制取决于检测到的 Blob 数量。
或者,您可以使用第三方云工具(如 Microsoft Azure)来检查同步状态。
在继续之前,必须完成此步骤。
-
在 Red Hat Quay
config.yaml
文件中,删除eu
站点的storage
DISTRIBUTED_STORAGE_CONFIG
条目。 输入以下命令来标识
Quay
应用程序 pod:$ oc get pod -n <quay_namespace>
输出示例
quay390usstorage-quay-app-5779ddc886-2drh2 quay390eustorage-quay-app-66969cd859-n2ssm
输入以下命令在
usstorage
pod 中打开交互式 shell 会话:$ oc rsh quay390usstorage-quay-app-5779ddc886-2drh2
输入以下命令永久删除
eustorage
站点:重要以下操作无法撤消。请谨慎使用。
sh-4.4$ python -m util.removelocation eustorage
输出示例
WARNING: This is a destructive operation. Are you sure you want to remove eustorage from your storage locations? [y/n] y Deleted placement 30 Deleted placement 31 Deleted placement 32 Deleted placement 33 Deleted location eustorage
第 7 章 备份和恢复由 Red Hat Quay Operator 管理的 Red Hat Quay
当由 OpenShift Container Platform 上的 Red Hat Quay Operator 管理时,请使用本节中的内容备份和恢复 Red Hat Quay。
7.1. 可选:在 OpenShift Container Platform 中为 Red Hat Quay 启用只读模式
在 OpenShift Container Platform 部署中为 Red Hat Quay 启用只读模式,您可以管理 registry 的操作。管理员可以启用只读模式来限制对 registry 的写入访问,这有助于确保数据完整性,降低维护窗口期间的风险,并提供对 registry 数据的意外修改的保护。它还有助于确保您的 Red Hat Quay registry 保持在线状态,并可供用户使用。
在备份和恢复时,您需要在 OpenShift Container Platform 部署中缩减 Red Hat Quay。这会导致在备份期间服务不可用,这在某些情况下可能无法接受。启用只读模式可确保在 OpenShift Container Platform 部署中的 Red Hat Quay 的备份和恢复过程中服务可用性。
先决条件
如果您使用 Red Hat Enterprise Linux (RHEL) 7.x:
- 您已启用了 Red Hat Software Collections List (RHSCL)。
- 已安装 Python 3.6。
-
您已下载了
virtualenv
软件包。 -
已安装
git
CLI。
如果您使用 Red Hat Enterprise Linux (RHEL) 8:
- 您已在机器上安装了 Python 3。
-
您已下载了
python3-virtualenv
软件包。 -
已安装
git
CLI。
-
您已克隆了
https://github.com/quay/quay.git
软件仓库。 -
已安装
oc
CLI。 -
您可以使用
cluster-admin
权限访问集群。
7.1.1. 在 OpenShift Container Platform 上为 Red Hat Quay 创建服务密钥
Red Hat Quay 使用服务密钥与各种组件进行通信。这些密钥用于签署已完成的请求,如请求扫描镜像、登录、存储访问等。
流程
输入以下命令获取 Red Hat Quay pod 列表:
$ oc get pods -n <namespace>
输出示例
example-registry-clair-app-7dc7ff5844-4skw5 0/1 Error 0 70d example-registry-clair-app-7dc7ff5844-nvn4f 1/1 Running 0 31d example-registry-clair-app-7dc7ff5844-x4smw 0/1 ContainerStatusUnknown 6 (70d ago) 70d example-registry-clair-app-7dc7ff5844-xjnvt 1/1 Running 0 60d example-registry-clair-postgres-547d75759-75c49 1/1 Running 0 70d example-registry-quay-app-76c8f55467-52wjz 1/1 Running 0 70d example-registry-quay-app-76c8f55467-hwz4c 1/1 Running 0 70d example-registry-quay-app-upgrade-57ghs 0/1 Completed 1 70d example-registry-quay-database-7c55899f89-hmnm6 1/1 Running 0 70d example-registry-quay-mirror-6cccbd76d-btsnb 1/1 Running 0 70d example-registry-quay-mirror-6cccbd76d-x8g42 1/1 Running 0 70d example-registry-quay-redis-85cbdf96bf-4vk5m 1/1 Running 0 70d
输入以下命令打开到
Quay
容器的远程 shell 会话:$ oc rsh example-registry-quay-app-76c8f55467-52wjz
输入以下命令来创建所需的服务密钥:
sh-4.4$ python3 tools/generatekeypair.py quay-readonly
输出示例
Writing public key to quay-readonly.jwk Writing key ID to quay-readonly.kid Writing private key to quay-readonly.pem
7.1.2. 在 PostgreSQL 数据库中添加密钥
使用以下步骤将服务密钥添加到 PostgreSQL 数据库中。
先决条件
- 您已创建了服务密钥。
流程
输入以下命令输入 Red Hat Quay 数据库环境:
$ oc rsh example-registry-quay-app-76c8f55467-52wjz psql -U <database_username> -d <database_name>
输入以下命令显示
servicekeyapproval
的批准类型和相关备注:quay=# select * from servicekeyapproval;
输出示例
id | approver_id | approval_type | approved_date | notes ----+-------------+----------------------------------+----------------------------+------- 1 | | ServiceKeyApprovalType.AUTOMATIC | 2024-05-07 03:47:48.181347 | 2 | | ServiceKeyApprovalType.AUTOMATIC | 2024-05-07 03:47:55.808087 | 3 | | ServiceKeyApprovalType.AUTOMATIC | 2024-05-07 03:49:04.27095 | 4 | | ServiceKeyApprovalType.AUTOMATIC | 2024-05-07 03:49:05.46235 | 5 | 1 | ServiceKeyApprovalType.SUPERUSER | 2024-05-07 04:05:10.296796 | ...
输入以下查询在 Red Hat Quay 数据库中添加服务密钥:
quay=# INSERT INTO servicekey (name, service, metadata, kid, jwk, created_date, expiration_date) VALUES ('quay-readonly', 'quay', '{}', '{<contents_of_.kid_file>}', '{<contents_of_.jwk_file>}', '{<created_date_of_read-only>}', '{<expiration_date_of_read-only>}');
输出示例
INSERT 0 1
接下来,使用以下查询添加密钥批准:
quay=# INSERT INTO servicekeyapproval ('approval_type', 'approved_date', 'notes') VALUES ("ServiceKeyApprovalType.SUPERUSER", "CURRENT_DATE", {include_notes_here_on_why_this_is_being_added});
输出示例
INSERT 0 1
将所创建的服务键行中的
approval_
字段设置为所创建的服务密钥批准中的 id 字段。您可以使用以下id
SELECT
语句来获取必要的 ID:UPDATE servicekey SET approval_id = (SELECT id FROM servicekeyapproval WHERE approval_type = 'ServiceKeyApprovalType.SUPERUSER') WHERE name = 'quay-readonly';
UPDATE 1
7.1.3. 在 OpenShift Container Platform 中配置只读模式 Red Hat Quay
创建服务密钥并添加到 PostgreSQL 数据库后,您必须在 OpenShift Container Platform 部署中重启 Quay
容器。
以只读模式在 OpenShift Container Platform 上部署 Red Hat Quay 需要修改存储在 OpenShift Container Platform 集群中的 secret。强烈建议您在更改 secret 前创建 secret 的备份。
先决条件
- 您已创建了服务密钥,并将它们添加到 PostgreSQL 数据库中。
流程
输入以下命令在 OpenShift Container Platform 部署中读取 Red Hat Quay 的 secret 名称:
$ oc get deployment -o yaml <quay_main_app_deployment_name>
使用
base64
命令对quay-readonly.kid
和quay-readonly.pem
文件进行编码:$ base64 -w0 quay-readonly.kid
输出示例
ZjUyNDFm...
$ base64 -w0 quay-readonly.pem
输出示例
LS0tLS1CRUdJTiBSU0E...
输入以下命令来获取当前的配置捆绑包和 secret:
$ oc get secret quay-config-secret-name -o json | jq '.data."config.yaml"' | cut -d '"' -f2 | base64 -d -w0 > config.yaml
编辑
config.yaml
文件并添加以下信息:# ... REGISTRY_STATE: readonly INSTANCE_SERVICE_KEY_KID_LOCATION: 'conf/stack/quay-readonly.kid' INSTANCE_SERVICE_KEY_LOCATION: 'conf/stack/quay-readonly.pem' # ...
运行以下命令保存文件和
base64
编码:$ base64 -w0 quay-config.yaml
将 Red Hat Quay Operator pod 缩减为
0。
这样可确保 Operator 在编辑后不会协调 secret。$ oc scale --replicas=0 deployment quay-operator -n openshift-operators
编辑 secret 使其包含新内容:
$ oc edit secret quay-config-secret-name -n quay-namespace
# ... data: "quay-readonly.kid": "ZjUyNDFm..." "quay-readonly.pem": "LS0tLS1CRUdJTiBSU0E..." "config.yaml": "QUNUSU9OX0xPR19..." # ...
在 OpenShift Container Platform 以只读模式部署 Red Hat Quay 时,您可以安全地管理 registry 的操作并执行如备份和恢复等操作。
7.1.3.1. 从只读部署扩展 OpenShift Container Platform 上的 Red Hat Quay
当您不再希望 OpenShift Container Platform 上的 Red Hat Quay 处于只读模式时,您可以扩展部署,并从 secret 中删除添加的内容。
流程
编辑
config.yaml
文件并删除以下信息:# ... REGISTRY_STATE: readonly INSTANCE_SERVICE_KEY_KID_LOCATION: 'conf/stack/quay-readonly.kid' INSTANCE_SERVICE_KEY_LOCATION: 'conf/stack/quay-readonly.pem' # ...
输入以下命令扩展 Red Hat Quay Operator:
oc scale --replicas=1 deployment quay-operator -n openshift-operators
7.2. 备份 Red Hat Quay
数据库备份应该定期使用 PostgreSQL 镜像中提供的工具或您自己的备份基础架构来执行。Red Hat Quay Operator 并不保证 PostgreSQL 数据库已被备份。
此流程涵盖了备份 Red Hat Quay PostgreSQL 数据库。它没有涵盖 Clair PostgreSQL 数据库的备份。严格说,不需要备份 Clair PostgreSQL 数据库,因为它可以被重新创建。如果您选择从头开始重新创建它,请等待在 Red Hat Quay 部署中的所有镜像扫描后重新填充信息。在此停机时间中,安全报告不可用。
如果您要考虑备份 Clair PostgreSQL 数据库,则必须考虑其大小取决于 Red Hat Quay 中存储的镜像数量。因此,数据库可能会非常大。
此流程描述了如何使用 Operator 在 OpenShift Container Platform 上创建 Red Hat Quay 备份。
先决条件
-
使用 Red Hat Quay Operator 在 OpenShift Container Platform 上部署健康的 Red Hat Quay。状态条件
Available
设置为true
。 -
组件
quay
,postgres
和objectstorage
设置为managed: true
-
如果组件
clair
设置为managed: true
,则组件clairpostgres
也被设置为managed: true
(从 Red Hat Quay v3.7 或更高版本开始)
如果您的部署包含部分非受管数据库或存储组件,并且您使用外部服务 PostgreSQL 或 S3 兼容对象存储来运行 Red Hat Quay 部署,您必须引用服务提供商或供应商文档来创建数据的备份。您可以参考本指南中描述的工具,作为如何备份外部 PostgreSQL 数据库或对象存储的起点。
7.2.1. Red Hat Quay 配置备份
使用以下步骤备份 Red Hat Quay 配置。
流程
要通过导出
QuayRegistry
自定义资源来支持 QuayRegistry 自定义资源,请输入以下命令:$ oc get quayregistry <quay_registry_name> -n <quay_namespace> -o yaml > quay-registry.yaml
编辑生成的
quayregistry.yaml
并删除 status 部分和以下 metadata 字段:metadata.creationTimestamp metadata.finalizers metadata.generation metadata.resourceVersion metadata.uid
输入以下命令备份受管密钥 secret:
注意如果您正在运行早于 Red Hat Quay 3.7.0 的版本,可以跳过这一步。第一次部署 Red Hat Quay 时会自动生成一些 secret。它们存储在
QuayRegistry
资源的命名空间中名为 <quay_registry_name>-quay_registry_managed_secret_keys
的 secret 中。$ oc get secret -n <quay_namespace> <quay_registry_name>_quay_registry_managed_secret_keys -o yaml > managed_secret_keys.yaml
编辑生成的
managed_secret_keys.yaml
文件,并删除条目metadata.ownerReferences
。您的managed_secret_keys.yaml
文件应类似于如下:apiVersion: v1 kind: Secret type: Opaque metadata: name: <quayname>_quay_registry_managed_secret_keys> namespace: <quay_namespace> data: CONFIG_EDITOR_PW: <redacted> DATABASE_SECRET_KEY: <redacted> DB_ROOT_PW: <redacted> DB_URI: <redacted> SECRET_KEY: <redacted> SECURITY_SCANNER_V4_PSK: <redacted>
data
属性下的所有信息都应保持不变。输入以下命令重定向当前的
Quay
配置文件:$ oc get secret -n <quay-namespace> $(oc get quayregistry <quay_registry_name> -n <quay_namespace> -o jsonpath='{.spec.configBundleSecret}') -o yaml > config-bundle.yaml
备份挂载到
Quay
pod 中的/conf/stack/config.yaml
文件:$ oc exec -it quay_pod_name -- cat /conf/stack/config.yaml > quay_config.yaml
7.2.2. 缩减 Red Hat Quay 部署
使用以下步骤缩减 Red Hat Quay 部署。
需要此步骤来创建 Red Hat Quay 部署状态的一致性备份。不要省略此步骤,包括在 PostgreSQL 数据库和/或 S3 兼容对象存储由外部服务(由 Red Hat Quay Operator 管理)提供的设置中。
流程
根据 Red Hat Quay 部署的版本,使用以下选项之一缩减部署。
对于 Operator 版本 3.7 及更新版本: 通过禁用自动扩展并覆盖 Red Hat Quay、mirror worker 和 Clair (如果受管)的副本数来缩减 Red Hat Quay 部署。您的
QuayRegistry
资源应类似于如下:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: registry namespace: ns spec: components: … - kind: horizontalpodautoscaler managed: false 1 - kind: quay managed: true overrides: 2 replicas: 0 - kind: clair managed: true overrides: replicas: 0 - kind: mirror managed: true overrides: replicas: 0 …
对于 Operator 版本 3.6 及更早版本 :首先缩减 Red Hat Quay registry,然后是管理的 Red Hat Quay 资源,以缩减 Red Hat Quay 部署:
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-operator-namespace>|awk '/^quay-operator/ {print $1}') -n <quay-operator-namespace>
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-namespace>|awk '/quay-app/ {print $1}') -n <quay-namespace>
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-namespace>|awk '/quay-mirror/ {print $1}') -n <quay-namespace>
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-namespace>|awk '/clair-app/ {print $1}') -n <quay-namespace>
等待
registry-quay-app
、registry-quay-mirror
和registry-clair-app
pod (取决于您设置为由 Red Hat Quay Operator 管理的组件)消失。您可以运行以下命令来检查其状态:$ oc get pods -n <quay_namespace>
输出示例:
$ oc get pod
输出示例
quay-operator.v3.7.1-6f9d859bd-p5ftc 1/1 Running 0 12m quayregistry-clair-postgres-7487f5bd86-xnxpr 1/1 Running 1 (12m ago) 12m quayregistry-quay-app-upgrade-xq2v6 0/1 Completed 0 12m quayregistry-quay-database-859d5445ff-cqthr 1/1 Running 0 12m quayregistry-quay-redis-84f888776f-hhgms 1/1 Running 0 12m
7.2.3. 备份 Red Hat Quay 管理的数据库
使用以下步骤备份 Red Hat Quay 管理的数据库。
如果您的 Red Hat Quay 部署配置了外部或未管理,PostgreSQL 数据库,请参阅您的厂商的文档,了解如何创建这些数据库的一致性备份。
流程
识别 Quay PostgreSQL pod 名称:
$ oc get pod -l quay-component=postgres -n <quay_namespace> -o jsonpath='{.items[0].metadata.name}'
输出示例:
quayregistry-quay-database-59f54bb7-58xs7
获取 Quay 数据库名称:
$ oc -n <quay_namespace> rsh $(oc get pod -l app=quay -o NAME -n <quay_namespace> |head -n 1) cat /conf/stack/config.yaml|awk -F"/" '/^DB_URI/ {print $4}' quayregistry-quay-database
下载备份数据库:
$ oc -n <quay_namespace> exec quayregistry-quay-database-59f54bb7-58xs7 -- /usr/bin/pg_dump -C quayregistry-quay-database > backup.sql
7.2.3.1. 备份 Red Hat Quay 管理的对象存储
使用以下步骤备份 Red Hat Quay 管理的对象存储。本节中的说明适用于以下配置:
- 独立、多云对象网关配置
- OpenShift Data Foundation 存储需要 Red Hat Quay Operator 通过 ObjectStorageBucketClaim API 从中置备 S3 对象存储存储桶
如果您的 Red Hat Quay 部署配置了外部(无限)对象存储,请参阅您的厂商的文档,了解如何创建 Quay 存储桶的内容副本。
流程
输入以下命令解码并导出
AWS_ACCESS_KEY_ID
:$ export AWS_ACCESS_KEY_ID=$(oc get secret -l app=noobaa -n <quay-namespace> -o jsonpath='{.items[0].data.AWS_ACCESS_KEY_ID}' |base64 -d)
输入以下命令解码并导出
AWS_SECRET_ACCESS_KEY_ID
:$ export AWS_SECRET_ACCESS_KEY=$(oc get secret -l app=noobaa -n <quay-namespace> -o jsonpath='{.items[0].data.AWS_SECRET_ACCESS_KEY}' |base64 -d)
创建新目录:
$ mkdir blobs
输入以下命令将所有 Blob 复制到目录中:
$ aws s3 sync --no-verify-ssl --endpoint https://$(oc get route s3 -n openshift-storage -o jsonpath='{.spec.host}') s3://$(oc get cm -l app=noobaa -n <quay-namespace> -o jsonpath='{.items[0].data.BUCKET_NAME}') ./blobs
7.2.4. 扩展 Red Hat Quay 部署
根据 Red Hat Quay 部署的版本,使用以下选项之一扩展部署:
对于 Operator 版本 3.7 及更新版本: 如果需要,通过重新启用自动扩展(如果需要),并删除 Quay、镜像 worker 和 Clair 的副本覆盖来扩展 Red Hat Quay 部署。您的
QuayRegistry
资源应类似于如下:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: registry namespace: ns spec: components: … - kind: horizontalpodautoscaler managed: true 1 - kind: quay 2 managed: true - kind: clair managed: true - kind: mirror managed: true …
对于 Operator 版本 3.6 及更早版本: 通过扩展 Red Hat Quay registry 来扩展 Red Hat Quay 部署:
$ oc scale --replicas=1 deployment $(oc get deployment -n <quay_operator_namespace> | awk '/^quay-operator/ {print $1}') -n <quay_operator_namespace>
输入以下命令检查 Red Hat Quay 部署的状态:
$ oc wait quayregistry registry --for=condition=Available=true -n <quay_namespace>
输出示例:
apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: ... name: registry namespace: <quay-namespace> ... spec: ... status: - lastTransitionTime: '2022-06-20T05:31:17Z' lastUpdateTime: '2022-06-20T17:31:13Z' message: All components reporting as healthy reason: HealthChecksPassing status: 'True' type: Available
7.3. 恢复 Red Hat Quay
当 Red Hat Quay Operator 管理数据库时,请使用以下步骤恢复 Red Hat Quay。它应该在执行 Red Hat Quay registry 备份后执行。如需更多信息,请参阅 备份 Red Hat Quay。
先决条件
- Red Hat Quay 使用 Red Hat Quay Operator 部署到 OpenShift Container Platform 上。
- 根据 备份 Red Hat Quay 部分中的说明创建由 Red Hat Quay Operator 管理的 Red Hat Quay 配置的备份。
- 您的 Red Hat Quay 数据库已备份。
- Red Hat Quay 使用的对象存储桶已被备份。
-
组件
quay
,postgres
和objectstorage
设置为managed: true
-
如果组件
clair
设置为managed: true
,则组件clairpostgres
也被设置为managed: true
(从 Red Hat Quay v3.7 或更高版本开始) - 在 OpenShift Container Platform 集群上的目标命名空间中没有运行由 Red Hat Quay Operator 管理的 Red Hat Quay 部署
如果您的部署包含部分非受管数据库或存储组件,并且您使用外部服务 PostgreSQL 或 S3 兼容对象存储来运行 Red Hat Quay 部署,则必须参考服务提供商或供应商文档从备份中恢复其数据,然后再恢复 Red Hat Quay
7.3.1. 从备份中恢复 Red Hat Quay 及其配置
使用以下步骤从备份中恢复 Red Hat Quay 及其配置文件。
这些说明假设您遵循了 备份 Red Hat Quay 指南中的流程,并创建同名的备份文件。
流程
输入以下命令恢复备份的 Red Hat Quay 配置:
$ oc create -f ./config-bundle.yaml
重要如果您接收到错误
Error from server (AlreadyExists): error when creating "./config-bundle.yaml": secrets "config-bundle-secret" already exists
,您需要使用$ oc delete Secret config-bundle-secret -n <quay-namespace>
删除现有的资源,并使用$ oc create -f ./config-bundle.yaml
重新创建它。输入以下命令从备份中恢复生成的密钥:
$ oc create -f ./managed-secret-keys.yaml
恢复
QuayRegistry
自定义资源:$ oc create -f ./quay-registry.yaml
检查 Red Hat Quay 部署的状态并等待它可用:
$ oc wait quayregistry registry --for=condition=Available=true -n <quay-namespace>
7.3.2. 缩减 Red Hat Quay 部署
使用以下步骤缩减 Red Hat Quay 部署。
流程
根据 Red Hat Quay 部署的版本,使用以下选项之一缩减部署。
对于 Operator 版本 3.7 及更新版本: 通过禁用自动扩展并覆盖 Quay、mirror worker 和 Clair (如果托管)的副本数来缩减 Red Hat Quay 部署。您的
QuayRegistry
资源应类似于如下:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: registry namespace: ns spec: components: … - kind: horizontalpodautoscaler managed: false 1 - kind: quay managed: true overrides: 2 replicas: 0 - kind: clair managed: true overrides: replicas: 0 - kind: mirror managed: true overrides: replicas: 0 …
对于 Operator 版本 3.6 及更早版本: 首先缩减 Red Hat Quay registry,然后是管理的 Red Hat Quay 资源,以缩减 Red Hat Quay 部署:
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-operator-namespace>|awk '/^quay-operator/ {print $1}') -n <quay-operator-namespace>
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-namespace>|awk '/quay-app/ {print $1}') -n <quay-namespace>
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-namespace>|awk '/quay-mirror/ {print $1}') -n <quay-namespace>
$ oc scale --replicas=0 deployment $(oc get deployment -n <quay-namespace>|awk '/clair-app/ {print $1}') -n <quay-namespace>
等待
registry-quay-app
、registry-quay-mirror
和registry-clair-app
pod (取决于您设置为由 Red Hat Quay Operator 管理的组件)消失。您可以运行以下命令来检查其状态:$ oc get pods -n <quay-namespace>
输出示例:
registry-quay-config-editor-77847fc4f5-nsbbv 1/1 Running 0 9m1s registry-quay-database-66969cd859-n2ssm 1/1 Running 0 6d1h registry-quay-redis-7cc5f6c977-956g8 1/1 Running 0 5d21h
7.3.3. 恢复 Red Hat Quay 数据库
使用以下步骤恢复 Red Hat Quay 数据库。
流程
输入以下命令识别您的
Quay
数据库 pod:$ oc get pod -l quay-component=postgres -n <quay-namespace> -o jsonpath='{.items[0].metadata.name}'
输出示例:
quayregistry-quay-database-59f54bb7-58xs7
通过从本地环境复制并复制到 pod 来上传备份:
$ oc cp ./backup.sql -n <quay-namespace> registry-quay-database-66969cd859-n2ssm:/tmp/backup.sql
输入以下命令为数据库打开远程终端:
$ oc rsh -n <quay-namespace> registry-quay-database-66969cd859-n2ssm
运行以下命令来输入 psql :
bash-4.4$ psql
您可以运行以下命令来列出数据库:
postgres=# \l
输出示例
List of databases Name | Owner | Encoding | Collate | Ctype | Access privileges ----------------------------+----------------------------+----------+------------+------------+----------------------- postgres | postgres | UTF8 | en_US.utf8 | en_US.utf8 | quayregistry-quay-database | quayregistry-quay-database | UTF8 | en_US.utf8 | en_US.utf8 |
输入以下命令丢弃数据库:
postgres=# DROP DATABASE "quayregistry-quay-database";
输出示例
DROP DATABASE
退出 postgres CLI 以重新输入 bash-4.4:
\q
将您的 PostgreSQL 数据库重定向到备份数据库:
sh-4.4$ psql < /tmp/backup.sql
输入以下命令退出 bash :
sh-4.4$ exit
7.3.4. 恢复 Red Hat Quay 对象存储数据
使用以下步骤恢复 Red Hat Quay 对象存储数据。
流程
输入以下命令导出
AWS_ACCESS_KEY_ID
:$ export AWS_ACCESS_KEY_ID=$(oc get secret -l app=noobaa -n <quay-namespace> -o jsonpath='{.items[0].data.AWS_ACCESS_KEY_ID}' |base64 -d)
输入以下命令导出
AWS_SECRET_ACCESS_KEY
:$ export AWS_SECRET_ACCESS_KEY=$(oc get secret -l app=noobaa -n <quay-namespace> -o jsonpath='{.items[0].data.AWS_SECRET_ACCESS_KEY}' |base64 -d)
运行以下命令,将所有 Blob 上传到存储桶:
$ aws s3 sync --no-verify-ssl --endpoint https://$(oc get route s3 -n openshift-storage -o jsonpath='{.spec.host}') ./blobs s3://$(oc get cm -l app=noobaa -n <quay-namespace> -o jsonpath='{.items[0].data.BUCKET_NAME}')
7.3.5. 扩展 Red Hat Quay 部署
根据 Red Hat Quay 部署的版本,使用以下选项之一扩展部署:
对于 Operator 版本 3.7 及更新版本: 如果需要,通过重新启用自动扩展(如果需要),并删除 Quay、镜像 worker 和 Clair 的副本覆盖来扩展 Red Hat Quay 部署。您的
QuayRegistry
资源应类似于如下:apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: registry namespace: ns spec: components: … - kind: horizontalpodautoscaler managed: true 1 - kind: quay 2 managed: true - kind: clair managed: true - kind: mirror managed: true …
对于 Operator 版本 3.6 及更早版本: 再次扩展 Red Hat Quay registry 来扩展 Red Hat Quay 部署:
$ oc scale --replicas=1 deployment $(oc get deployment -n <quay-operator-namespace> | awk '/^quay-operator/ {print $1}') -n <quay-operator-namespace>
检查 Red Hat Quay 部署的状态:
$ oc wait quayregistry registry --for=condition=Available=true -n <quay-namespace>
输出示例:
apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: ... name: registry namespace: <quay-namespace> ... spec: ... status: - lastTransitionTime: '2022-06-20T05:31:17Z' lastUpdateTime: '2022-06-20T17:31:13Z' message: All components reporting as healthy reason: HealthChecksPassing status: 'True' type: Available
第 8 章 卷大小覆盖
您可以指定为受管组件置备的存储资源的大小。Clair 和 PostgreSQL 数据库的默认大小为 50Gi
。现在,您可以选择足够大的容量前期,要么出于性能原因,或者在存储后端没有调整大小的情况下选择容量。
在以下示例中,Clair 和 Quay PostgreSQL 数据库的卷大小已设置为 70Gi
:
apiVersion: quay.redhat.com/v1 kind: QuayRegistry metadata: name: quay-example namespace: quay-enterprise spec: configBundleSecret: config-bundle-secret components: - kind: objectstorage managed: false - kind: route managed: true - kind: tls managed: false - kind: clair managed: true overrides: volumeSize: 70Gi - kind: postgres managed: true overrides: volumeSize: 70Gi - kind: clairpostgres managed: true
clairpostgres
组件的卷大小不能被覆盖。要覆盖 clairpostgres
组件,您必须覆盖 clair
组件。这是一个已知问题,并将在以后的 Red Hat Quay 版本中解决。(PROJQUAY-4301)
第 9 章 使用 Container Security Operator 扫描 pod 镜像
Container Security Operator (CSO)是 OpenShift Container Platform 和其他 Kubernetes 平台上提供的 Clair 安全扫描程序的一个附加组件。通过 CSO,用户可以扫描与活跃 pod 关联的容器镜像以了解已知漏洞。
没有 Red Hat Quay 和 Clair 时 CSO 无法正常工作。
Container Security Operator (CSO)包括以下功能:
- 监视与指定或所有命名空间上的 pod 关联的容器。
- 查询容器来自漏洞信息的容器 registry,只要镜像的 registry 支持镜像扫描,如带有 Clair 扫描的 Red Hat Quay registry。
-
通过 Kubernetes API 中的
ImageManifestVuln
对象公开漏洞。
要在 Kubernetes 上安装 CSO 的说明,请从 Container Security OperatorHub.io 页面中选择 Install 按钮。
9.1. 在 OpenShift Container Platform 中下载并运行 Container Security Operator
使用以下步骤下载 Container Security Operator (CSO)。
在以下步骤中,CSO 安装在 marketplace-operators
命名空间中。这允许在 OpenShift Container Platform 集群的所有命名空间中使用 CSO。
流程
- 在 OpenShift Container Platform 控制台页面中,选择 Operators → OperatorHub 并搜索 Container Security Operator。
- 选择 Container Security Operator,然后选择 Install 进入 Create Operator Subscription 页面。
- 检查设置(所有命名空间和自动批准策略),然后选择 Subscribe。在 Installed Operators 屏幕中几分钟后会出现 Container Security。
可选:您可以在 CSO 中添加自定义证书。在本例中,在当前目录中创建一个名为
quay.crt
的证书。然后,运行以下命令将证书添加到 CSO 中:$ oc create secret generic container-security-operator-extra-certs --from-file=quay.crt -n openshift-operators
注意您必须重启 Operator pod 才能使新证书生效。
进入到 Home → Overview。至镜像漏洞的链接会出现在 status 部分中,以及目前发现的漏洞数量的列表。选择查看安全分类的链接,如下图所示:
重要Container Security Operator 目前为 Red Hat 安全公告提供了有问题的链接。例如,可能会提供以下链接
:https://access.redhat.com/errata/RHSA-2023:1842%20https://access.redhat.com/security/cve/CVE-2023-23916。
URL 中的%20
代表空格字符,但它目前将两个 URL 组合为一个不完整的 URL,例如https://access.redhat.com/errata/RHSA-2023:1842
和https://access.redhat.com/security/cve/CVE-2023-23916。
作为临时解决方案,您可以将每个 URL 复制到您的浏览器中,以导航到正确的页面。这是一个已知问题,并将在以后的 Red Hat Quay 版本中解决。对于任何检测到的安全漏洞,您可以在此时进行两个操作之一:
选择到这个漏洞的链接。您会进入容器 registry、Red Hat Quay 或其他来自容器的 registry,您可以在其中查看有关漏洞的信息。下图显示了从 Quay.io registry 中检测到的漏洞示例:
选择 namespaces 链接以进入 Image Manifest Vulnerabilities 页面,您可以在其中查看所选镜像的名称以及运行该镜像的所有命名空间。下图显示了特定存在安全漏洞的镜像在两个命名空间中运行:
执行此流程后,您可以了解哪些镜像存在安全漏洞,您必须做什么才能修复这些漏洞,以及镜像运行的每个命名空间。了解这一点,您可以执行以下操作:
- 警报运行需要更正漏洞的镜像的用户。
通过删除启动镜像所在 pod 的部署或对象来停止镜像运行。
注意如果删除 pod,可能需要几分钟时间才能在仪表板上重置漏洞。
9.2. 通过 CLI 查询镜像安全漏洞
使用以下步骤从命令行界面(CLI)查询镜像漏洞。
流程
输入以下命令查询检测到的漏洞:
$ oc get vuln --all-namespaces
输出示例
NAMESPACE NAME AGE default sha256.ca90... 6m56s skynet sha256.ca90... 9m37s
可选。要显示特定漏洞的详情,请识别特定漏洞及其命名空间,并使用
oc describe
命令。以下示例显示了一个活跃的容器,其镜像包含带有漏洞的 RPM 软件包:$ oc describe vuln --namespace <namespace> sha256.ac50e3752...
输出示例
Name: sha256.ac50e3752... Namespace: quay-enterprise ... Spec: Features: Name: nss-util Namespace Name: centos:7 Version: 3.44.0-3.el7 Versionformat: rpm Vulnerabilities: Description: Network Security Services (NSS) is a set of libraries...
9.3. 卸载 Container Security Operator
要从 OpenShift Container Platform 部署中卸载 Container Security Operator,您必须卸载 Operator 并删除 imagemanifestvulns.secscan.quay.redhat.com
自定义资源定义(CRD)。如果没有删除 CRD,OpenShift Container Platform Overview 页面中仍会报告镜像漏洞。
流程
- 在 OpenShift Container Platform web 控制台中,点 Operators → Installed Operators。
- 点 Container Security Operator 的 kebab 菜单。
- 点击 Uninstall Operator。在弹出窗口中点 Uninstall 确认您的决定。
输入以下命令删除
imagemanifestvulns.secscan.quay.redhat.com
自定义资源定义:$ oc delete customresourcedefinition imagemanifestvulns.secscan.quay.redhat.com
输出示例
customresourcedefinition.apiextensions.k8s.io "imagemanifestvulns.secscan.quay.redhat.com" deleted
第 10 章 为 Red Hat Quay 配置 AWS STS
对于独立的 Red Hat Quay 部署和 OpenShift Container Platform 上的 Red Hat Quay 部署,支持 Amazon Web Services (AWS)安全令牌服务(STS)。AWS STS 是一个 web 服务,用于为 AWS Identity and Access Management (IAM)用户以及您验证或 联邦用户请求临时的、有有限权限的凭证。此功能对于使用 Amazon S3 作为对象存储的集群很有用,允许 Red Hat Quay 使用 STS 协议与 Amazon S3 进行身份验证,这可以增强集群的整体安全性,并帮助确保正确验证敏感数据的访问。
配置 AWS STS 是一个多步骤过程,需要创建 AWS IAM 用户、创建 S3 角色并配置 Red Hat Quay config.yaml
文件使其包含正确的资源。
使用以下步骤为 Red Hat Quay 配置 AWS STS。
10.1. 创建 IAM 用户
使用以下步骤创建 IAM 用户。
流程
- 登录到 Amazon Web Services (AWS)控制台,再进入 Identity and Access Management (IAM)控制台。
- 在导航窗格中,在 Access management 下点 Users。
点 Create User 并输入以下信息:
-
输入有效的用户名,如
quay-user
。 - 对于 Permissions 选项,请单击 Add user to group。
-
输入有效的用户名,如
- 在 review and create 页面中,单击 Create user。您将被重定向到 Users 页面。
- 单击用户名,如 quay-user。
-
复制用户的 ARN,例如
arn:aws:iam::123492922789:user/quay-user
。 - 在同一页面上,点 Security credentials 选项卡。
- 导航到 Access keys。
- 点 Create access key。
- 在 Access key 最佳实践和 alternatives 页面中,点 Command Line Interface (CLI),然后选中确认框。然后单击"下一步"。
- 可选。在 Set description tag - optional 页面中,输入描述描述。
- 点 Create access key。
复制并存储 access key 和 secret access key。
重要这是唯一可以查看或下载 secret 访问密钥的时间。您不能在以后恢复它。但是,您可以随时创建新的访问密钥。
- 点 Done。
10.2. 创建 S3 角色
使用以下步骤为 AWS STS 创建 S3 角色。
先决条件
- 您已创建了 IAM 用户并存储了访问密钥和 secret 访问密钥。
流程
- 如果您还没有,点 Dashboard 进入 IAM 仪表板。
- 在导航窗格中,单击 Access management 下的 Roles。
单击 Create role。
点 Custom Trust Policy,它显示可编辑的 JSON 策略。默认情况下,它显示以下信息:
{ "Version": "2012-10-17", "Statement": [ { "Sid": "Statement1", "Effect": "Allow", "Principal": {}, "Action": "sts:AssumeRole" } ] }
在
Principal
配置 字段中,添加 AWS ARN 信息。例如:{ "Version": "2012-10-17", "Statement": [ { "Sid": "Statement1", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::123492922789:user/quay-user" }, "Action": "sts:AssumeRole" } ] }
- 点击 Next。
-
在 Add permissions 页面中,在搜索框中输入
AmazonS3FullAccess
。选中该框,将该策略添加到 S3 角色,然后单击 Next。 在 Name, review, and create 页中输入以下信息:
-
输入角色名称,如
example-role
。 - 可选。添加描述。
-
输入角色名称,如
- 点 Create role 按钮。您可以导航到 Roles 页面。在角色名称下,新创建的 S3 应该可用。
10.3. 在 OpenShift Container Platform 上配置 Red Hat Quay 以使用 AWS STS
使用以下步骤编辑 OpenShift Container Platform config.yaml
文件中的 Red Hat Quay 以使用 AWS STS。
您还可以直接编辑 Red Hat Quay on OpenShift Container Platform config.yaml
文件,而不是使用 OpenShift Container Platform UI。
先决条件
- 您已配置了角色 ARN。
- 您已生成了一个用户访问密钥。
- 您已生成了一个 User Secret Key。
流程
- 在 OpenShift Container Platform 部署的 Home 页面中,点 Operators → Installed Operators。
- 点 Red Hat Quay。
- 点 Quay Registry,然后点 Red Hat Quay registry 的名称。
- 在 Config Bundle Secret 下,单击 registry 配置捆绑包的名称,例如 quay-registry-config-bundle-qet56。
- 在配置捆绑包页面中,单击 Actions 以显示下拉菜单。然后单击 Edit Secret。
使用以下信息更新
config.yaml
文件的DISTRIBUTED_STORAGE_CONFIG
字段:# ... DISTRIBUTED_STORAGE_CONFIG: default: - STSS3Storage - sts_role_arn: <role_arn> 1 s3_bucket: <s3_bucket_name> 2 storage_path: <storage_path> 3 s3_region: <region> 4 sts_user_access_key: <s3_user_access_key> 5 sts_user_secret_key: <s3_user_secret_key> 6 # ...
- 点击 Save。
验证
标记示例镜像,如
busybox
,它将推送到存储库。例如:$ podman tag docker.io/library/busybox <quay-server.example.com>/<organization_name>/busybox:test
运行以下命令来推送示例镜像:
$ podman push <quay-server.example.com>/<organization_name>/busybox:test
- 进入您在 Red Hat Quay registry → Tags 中将镜像推送到的机构,验证推送是否成功。
- 导航到 Amazon Web Services (AWS)控制台并找到您的 s3 存储桶。
- 点 s3 存储桶的名称。
- 在 Objects 页面上,单击 datastorage/。
在 datastorage/ 页面中,应该看到以下资源:
- sha256/
上传/
这些资源表示推送成功,并且 AWS STS 已正确配置。
第 11 章 将 Red Hat Quay 与 OpenShift Container Platform 与 Quay Bridge Operator 集成
Quay Bridge Operator 将集成的 OpenShift Container Platform registry 的功能复制到新的 Red Hat Quay registry 中。使用 Quay Bridge Operator,您可以将 OpenShift Container Platform 中的集成容器 registry 替换为 Red Hat Quay registry。
Quay Bridge Operator 启用的功能包括:
- 将 OpenShift Container Platform 命名空间同步为 Red Hat Quay 组织。
- 为每个 default 命名空间服务帐户创建机器人帐户。
-
为每个创建的机器人帐户创建 secret,并将每个机器人 secret 与一个服务账户关联作为
Mountable
和Image Pull Secret
。 - 将 OpenShift Container Platform 镜像流同步为 Red Hat Quay 存储库。
- 自动重写新构建,利用镜像流输出到 Red Hat Quay。
- 构建完成后自动导入镜像流标签。
通过使用以下步骤,您可以在 Red Hat Quay 和 OpenShift Container Platform 集群间启用双向通信。
11.1. 为 Quay Bridge Operator 设置 Red Hat Quay Bridge
在此过程中,您将创建一个专用的 Red Hat Quay 机构,并从该机构中创建的新应用程序创建一个 OAuth 令牌,以便在 OpenShift Container Platform 中使用 Quay Bridge Operator。
流程
- 通过 Web UI 登录 Red Hat Quay。
- 选择要配置外部应用程序的组织。
- 在导航窗格中,选择 Applications。
-
选择 Create New Application,并为新应用程序输入一个名称,如
openshift
。 -
在 OAuth Applications 页面中,选择您的应用程序,如
openshift
。 - 在导航窗格中,选择 Generate Token。
选择以下字段:
- 管理机构
- 管理软件仓库
- 创建软件仓库
- 查看所有可见的存储库
- 对任何可访问的软件仓库的读/写
- 管理用户
- 读取用户信息
- 检查分配的权限。
- 选择 Authorize Application,然后选择 Authorize Application 确认授权。
保存生成的访问令牌。
重要Red Hat Quay 不提供令牌管理。您无法列出令牌、删除令牌或修改令牌。生成的访问令牌仅显示一次,在关闭页面后无法恢复。
11.2. 在 OpenShift Container Platform 上安装 Quay Bridge Operator
在此过程中,您将在 OpenShift Container Platform 上安装 Quay Bridge Operator。
先决条件
- 您已设置 Red Hat Quay 并获取了一个 访问令牌。
- 具有集群管理员权限的 OpenShift Container Platform 4.6 或更高版本环境。
流程
- 打开 Web 控制台的 Administrator 视角,并进入到导航窗格上的 Operators → OperatorHub。
-
搜索
Quay Bridge Operator
,点 Quay Bridge Operator 标题,然后点 Install。 - 选择要安装的版本,如 stable-3.7,然后单击 Install。
- 安装完成后,点 View Operator 进入 Quay Bridge Operator 的 Details 页面。或者,您可以点 Installed Operators → Red Hat Quay Bridge Operator 进入 Details 页面。
11.3. 为 OAuth 令牌创建 OpenShift Container Platform secret
在此过程中,您将添加之前获取的访问令牌来与 Red Hat Quay 部署通信。访问令牌将作为 secret 存储在 OpenShift Container Platform 中。
先决条件
- 您已设置 Red Hat Quay 并获取了访问令牌。
- 您已在 OpenShift Container Platform 上部署了 Quay Bridge Operator。
- 具有集群管理员权限的 OpenShift Container Platform 4.6 或更高版本环境。
- 已安装 OpenShift CLI(oc)。
流程
在
openshift-operators
命名空间中创建一个包含访问令牌的 secret:$ oc create secret -n openshift-operators generic <secret-name> --from-literal=token=<access_token>
11.4. 创建 QuayIntegration 自定义资源
在此过程中,您将创建一个 QuayIntegration
自定义资源,该资源可以从 Web 控制台或命令行完成。
先决条件
- 您已设置 Red Hat Quay 并获取了访问令牌。
- 您已在 OpenShift Container Platform 上部署了 Quay Bridge Operator。
- 具有集群管理员权限的 OpenShift Container Platform 4.6 或更高版本环境。
- 可选: 已安装 OpenShift CLI (oc)。
11.4.1. 可选:使用 CLI 创建 QuayIntegration 自定义资源
按照以下步骤,使用命令行创建 QuayIntegration
自定义资源。
流程
创建一个
quay-integration.yaml
:$ touch quay-integration.yaml
对
QuayIntegration
自定义资源的最小部署使用以下配置:apiVersion: quay.redhat.com/v1 kind: QuayIntegration metadata: name: example-quayintegration spec: clusterID: openshift 1 credentialsSecret: namespace: openshift-operators name: quay-integration2 quayHostname: https://<QUAY_URL> 3 insecureRegistry: false 4
有关所有配置字段的列表,请参阅"QuayIntegration 配置字段"。
创建
QuayIntegration
自定义资源:$ oc create -f quay-integration.yaml
11.4.2. 可选:使用 Web 控制台创建 QuayIntegration 自定义资源
按照以下步骤,使用 Web 控制台创建 QuayIntegration
自定义资源。
流程
- 打开 Web 控制台的 Administrator 视角,并导航到 Operators → Installed Operators。
- 点 Red Hat Quay Bridge Operator。
- 在 Quay Bridge Operator 的 Details 页面中,点 Quay Integration API 卡上的 Create Instance。
在 Create QuayIntegration 页面中,在 Form view 或 YAML view 中输入以下所需信息:
-
Name :引用
QuayIntegration
自定义资源对象的名称。 -
集群 ID:与此集群关联的 ID。此值应该在整个生态系统中唯一。如果未指定,则默认为
openshift
。 - credentials secret :引用包含之前创建的令牌的 secret 的命名空间和名称。
- Quay 主机名 : Quay registry 的主机名。
-
Name :引用
有关所有配置字段的列表,请参阅"QuayIntegration 配置字段"
创建 QuayIntegration
自定义资源后,您的 OpenShift Container Platform 集群将链接到 Red Hat Quay 实例。应该为 OpenShift Container Platform 环境的相关命名空间创建 Red Hat Quay registry 中的机构。
11.5. 使用 Quay Bridge Operator
使用以下步骤使用 Quay Bridge Operator。
先决条件
- 已安装 Red Hat Quay Operator。
- 以集群管理员身份登录 OpenShift Container Platform。
- 已登陆到 Red Hat Quay registry。
- 已安装 Quay Bridge Operator。
-
您已配置了
QuayIntegration
自定义资源。
流程
输入以下命令创建一个名为
e2e-demo
的新 OpenShift Container Platform 项目:$ oc new-project e2e-demo
创建新项目后,会在 Red Hat Quay 中创建一个新机构。导航到 Red Hat Quay registry,并确认您已创建一个名为
openshift_e2e-demo
的新机构。注意如果
QuayIntegration
资源中的 clusterID 使用不同的值,则机构的openshift
值可能会有所不同。- 在 Red Hat Quay UI 上,单击新组织的名称,如 openshift_e2e-demo。
在导航窗格中,单击 Robot Accounts。作为新项目的一部分,应创建以下 Robot Accounts:
- openshift_e2e-demo+deployer
- openshift_e2e-demo+default
- openshift_e2e-demo+builder
输入以下命令确认创建了包含与适用 Robot Accounts 关联的 Docker 配置的三个 secret:
$ oc get secrets builder-quay-openshift deployer-quay-openshift default-quay-openshift
输出示例
stevsmit@stevsmit ocp-quay $ oc get secrets builder-quay-openshift deployer-quay-openshift default-quay-openshift NAME TYPE DATA AGE builder-quay-openshift kubernetes.io/dockerconfigjson 1 77m deployer-quay-openshift kubernetes.io/dockerconfigjson 1 77m default-quay-openshift kubernetes.io/dockerconfigjson 1 77m
输入以下命令显示有关
构建器
ServiceAccount (SA)的详细信息,包括其 secret、令牌过期和相关角色和角色绑定。这样可确保项目通过 Quay Bridge Operator 集成。$ oc describe sa builder default deployer
输出示例
... Name: builder Namespace: e2e-demo Labels: <none> Annotations: <none> Image pull secrets: builder-dockercfg-12345 builder-quay-openshift Mountable secrets: builder-dockercfg-12345 builder-quay-openshift Tokens: builder-token-12345 Events: <none> ...
输入以下命令来创建和部署名为
httpd-template
的新应用程序:$ oc new-app --template=httpd-example
输出示例
--> Deploying template "e2e-demo/httpd-example" to project e2e-demo ... --> Creating resources ... service "httpd-example" created route.route.openshift.io "httpd-example" created imagestream.image.openshift.io "httpd-example" created buildconfig.build.openshift.io "httpd-example" created deploymentconfig.apps.openshift.io "httpd-example" created --> Success Access your application via route 'httpd-example-e2e-demo.apps.quay-ocp.gcp.quaydev.org' Build scheduled, use 'oc logs -f buildconfig/httpd-example' to track its progress. Run 'oc status' to view your app.
运行此命令后,会创建
BuildConfig
、ImageStream
、Service
、Route
和DeploymentConfig
资源。创建ImageStream
资源时,会在 Red Hat Quay 中创建关联的存储库。例如:当
openshift
命名空间中的 Apache HTTPD 镜像被解析时,BuildConfig
的ImageChangeTrigger
会触发新的构建。创建新 Build 后,MutatingWebhookConfiguration
会自动重写输出以指向 Red Hat Quay。您可以运行以下命令来查询构建的输出字段来确认构建已完成:$ oc get build httpd-example-1 --template='{{ .spec.output.to.name }}'
输出示例
example-registry-quay-quay-enterprise.apps.quay-ocp.gcp.quaydev.org/openshift_e2e-demo/httpd-example:latest
-
在 Red Hat Quay UI 中,导航到
openshift_e2e-demo
机构,再选择 httpd-example 存储库。 -
单击导航窗格中的 Tags,并确认
latest
标签已成功推送。 输入以下命令来确保 latest 标签已被解决:
$ oc describe is httpd-example
输出示例
Name: httpd-example Namespace: e2e-demo Created: 55 minutes ago Labels: app=httpd-example template=httpd-example Description: Keeps track of changes in the application image Annotations: openshift.io/generated-by=OpenShiftNewApp openshift.io/image.dockerRepositoryCheck=2023-10-02T17:56:45Z Image Repository: image-registry.openshift-image-registry.svc:5000/e2e-demo/httpd-example Image Lookup: local=false Unique Images: 0 Tags: 1 latest tagged from example-registry-quay-quay-enterprise.apps.quay-ocp.gcp.quaydev.org/openshift_e2e-demo/httpd-example:latest
在
Re
solwillved 后,应触发新部署。输入以下命令生成 URL 输出:$ oc get route httpd-example --template='{{ .spec.host }}'
输出示例
httpd-example-e2e-demo.apps.quay-ocp.gcp.quaydev.org
- 访问此 URL。如果显示示例网页,则代表部署成功。
输入以下命令删除资源并清理您的 Red Hat Quay 存储库:
$ oc delete project e2e-demo
注意命令会等待项目资源被删除。这可以通过在上述命令中添加-
-wait=false
来绕过-
命令完成后,导航到您的 Red Hat Quay 存储库,并确认
openshift_e2e-demo
机构不再可用。
其他资源
- 最佳实践规定客户端和镜像 registry 之间的所有通信都通过安全方法促进。通信应利用各方之间证书信任的 HTTPS/TLS。虽然 Red Hat Quay 可以配置为提供不安全的配置,但应在服务器上使用正确的证书并在客户端上配置。按照 OpenShift Container Platform 文档 在容器运行时级别添加和删除证书。
第 12 章 在 OpenShift Container Platform 上的 Red Hat Quay 上部署 IPv6
目前,IBM Power 和 IBM Z 不支持在 OpenShift Container Platform 上的 Red Hat Quay 上部署 IPv6。
OpenShift Container Platform 部署上的 Red Hat Quay 现在可在只支持 IPv6 的位置提供,如 Telco 和 Edge 环境。
有关已知限制列表,请参阅 IPv6 限制
12.1. 启用 IPv6 协议系列
使用以下步骤在 Red Hat Quay 部署中启用 IPv6 支持。
先决条件
- 您已将 Red Hat Quay 更新至至少 3.8 版本。
- 您的主机和容器软件平台(Docker,Podman)必须配置为支持 IPv6。
流程
在部署的
config.yaml
文件中,添加FEATURE_LISTEN_IP_VERSION
参数,并将其设置为IPv6
,例如:# ... FEATURE_GOOGLE_LOGIN: false FEATURE_INVITE_ONLY_USER_CREATION: false FEATURE_LISTEN_IP_VERSION: IPv6 FEATURE_MAILING: false FEATURE_NONSUPERUSER_TEAM_SYNCING_SETUP: false # ...
- 启动或重启您的 Red Hat Quay 部署。
输入以下命令检查您的部署是否侦听 IPv6:
$ curl <quay_endpoint>/health/instance {"data":{"services":{"auth":true,"database":true,"disk_space":true,"registry_gunicorn":true,"service_key":true,"web_gunicorn":true}},"status_code":200}
在部署 config.yaml
中启用 IPv6 后,所有 Red Hat Quay 功能都可以正常使用,只要您的环境被配置为使用 IPv6,并且不会被 IPv6 和双栈限制阻止。
如果您的环境被配置为 IPv4,但 FEATURE_LISTEN_IP_VERSION
配置字段被设置为 IPv6
,Red Hat Quay 将无法部署。
12.2. IPv6 限制
目前,尝试使用通用 Microsoft Azure Blob Storage 配置配置 Red Hat Quay 部署在 IPv6 单堆栈环境中无法正常工作。因为 Microsoft Azure Blob Storage 的端点不支持 IPv6,所以这个问题没有临时解决方案。
如需更多信息,请参阅 PROJQUAY-4433。
目前,尝试使用 Amazon S3 CloudFront 配置 Red Hat Quay 部署无法在 IPv6 单堆栈环境中工作。因为 Amazon S3 CloudFront 的端点不支持 IPv6,所以这个问题没有临时解决方案。
如需更多信息,请参阅 PROJQUAY-4470。
第 13 章 当在 Kubernetes 上部署 Red Hat Quay 时,添加自定义 SSL/TLS 证书
在 Kubernetes 上部署时,Red Hat Quay 将 secret 中的挂载为卷来存储配置资产。目前,这会破坏超级用户面板的上传证书功能。
作为临时解决方案,在部署 Red Hat Quay 后,base64
编码证书可以添加到 secret 中。
当在 Kubernetes 上部署 Red Hat Quay 时,请使用以下步骤添加自定义 SSL/TLS 证书。
先决条件
- 已部署 Red Hat Quay。
-
您有一个自定义
ca.crt
文件。
流程
输入以下命令对 SSL/TLS 证书的内容进行 Base64 编码:
$ cat ca.crt | base64 -w 0
输出示例
...c1psWGpqeGlPQmNEWkJPMjJ5d0pDemVnR2QNCnRsbW9JdEF4YnFSdVd3PT0KLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQo=
输入以下
kubectl
命令来编辑quay-enterprise-config-secret
文件:$ kubectl --namespace quay-enterprise edit secret/quay-enterprise-config-secret
为证书添加一个条目,并粘贴条目下的完整
base64
编码字符串er。例如:custom-cert.crt: c1psWGpqeGlPQmNEWkJPMjJ5d0pDemVnR2QNCnRsbW9JdEF4YnFSdVd3PT0KLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQo=
使用
kubectl delete
命令删除所有 Red Hat Quay pod。例如:$ kubectl delete pod quay-operator.v3.7.1-6f9d859bd-p5ftc quayregistry-clair-postgres-7487f5bd86-xnxpr quayregistry-quay-app-upgrade-xq2v6 quayregistry-quay-database-859d5445ff-cqthr quayregistry-quay-redis-84f888776f-hhgms
之后,Red Hat Quay 部署会自动将 pod 替换为新证书数据。
第 14 章 升级 Red Hat Quay Operator 概述
Red Hat Quay Operator 遵循一个同步 版本方案,这意味着每个 Operator 版本都与 Red Hat Quay 的版本及其管理的组件相关联。QuayRegistry
自定义资源上没有设置 要部署
Red Hat Quay 版本的字段。Operator 只能部署所有组件的单个版本。选择这个方案是为了确保所有组件都可以正常工作,并降低 Operator 的复杂性,了解如何管理 Kubernetes 上许多不同版本的 Red Hat Quay 版本。
14.1. Operator Lifecycle Manager
应该使用 Operator Lifecycle Manager (OLM) 安装和升级 Red Hat Quay Operator。当使用默认 approvalStrategy: Automatic
创建订阅时,每当有新版本可用时,OLM 将自动升级 Red Hat Quay Operator。
当 Operator Lifecycle Manager 安装 Red Hat Quay Operator 时,可能会将其配置为支持自动或手动升级。这个选项会在安装过程中显示在 Red Hat Quay Operator 的 OperatorHub 页面中。它还可以通过 approvalStrategy
字段在 Red Hat Quay Operator Subscription
对象中找到。选择 Automatic
意味着,您的 Red Hat Quay Operator 会在发布新的 Operator 版本时自动升级。如果这不是需要的,则应选择 Manual
批准策略。
14.2. 升级 Red Hat Quay Operator
在 OpenShift Container Platform 中升级已安装的 Operator 的标准方法包括在 升级安装的 Operator 中。
通常,Red Hat Quay 仅支持从以前的(N-1)次版本进行升级。例如,不支持直接从 Red Hat Quay 3.0.5 升级到 3.5 的最新版本。相反,用户需要升级如下:
- 3.0.5 → 3.1.3
- 3.1.3 → 3.2.2
- 3.2.2 → 3.3.4
- 3.3.4 → 3.4.z
- 3.4.z → 3.5.z
这需要确保正确完成所有必要的数据库迁移,并在升级过程中按照正确顺序完成。
在某些情况下,Red Hat Quay 支持从以前的(N-2, N-3)次版本直接、单步升级。这简化了旧版本的客户的升级步骤。Red Hat Quay 3.12 支持以下升级路径:
- 3.10.z → 3.12.z
- 3.11.z → 3.12.z
有关 Red Hat Quay 的独立部署中的用户,希望升级到 3.12,请参阅 独立 升级指南。
14.2.1. 将 Red Hat Quay 升级到 3.12 版本
要将 Red Hat Quay 从一个次版本升级到下一个次版本,如 3.11 → 3.12,您必须更改 Red Hat Quay Operator 的更新频道。
流程
- 在 OpenShift Container Platform Web 控制台中导航至 Operators → Installed Operators。
- 点 Red Hat Quay Operator。
- 进入到 Subscription 选项卡。
- 在 Subscription details 下,点 Update channel。
- 选择 stable-3.12 → Save。
- 在 Upgrade status 下检查新安装的进度。在继续操作前,等待升级 状态变为 1。
- 在 OpenShift Container Platform 集群中,进入到 Workloads → Pods。现有 pod 应该被终止,或正在终止。
-
等待以下 pod (负责升级数据库和现有数据的模式迁移)到启动:
clair-postgres-upgrade
、quay-postgres-upgrade、quay-postgres-upgrade
和quay-app-upgrade
。 -
在
clair-postgres-upgrade
、quay-postgres-upgrade
和quay-app-upgrade
pod 标记为 Completed 后,您的 Red Hat Quay 部署剩余的 pod 会启动。这大约需要十分钟。 -
验证
quay-database
和clair-postgres
pod 现在使用postgresql-13
镜像。 -
在
quay-app
pod 标记为 Running 后,就可以访问 Red Hat Quay registry。
14.2.2. 升级到下一个次版本
对于 z
流升级,例如 3.11.1 → 3.11.2,用户在安装过程中最初选择的主次频道中会发布更新。执行 z
流升级的过程取决于上述 approvalStrategy
。如果批准策略被设置为 Automatic
,Red Hat Quay Operator 会自动升级到最新的 z
流。这会导致自动的、将 Red Hat Quay 更新部署到较新的 z
流,而无需停机。否则,必须在开始安装前手动批准更新。
14.2.3. 更改 Red Hat Quay Operator 的更新频道
已安装的 Operator 的订阅指定一个更新频道,用于跟踪和接收 Operator 的更新。要升级 Red Hat Quay Operator 以开始跟踪并从更新频道接收更新,请在安装的 Red Hat Quay Operator 的 Subscription 选项卡中更改更新频道。对于带有 自动批准策略
的订阅,升级会自动开始,并可在列出 Installed Operators 的页面中监控。
14.2.4. 手动批准待处理的 Operator 升级
如果已安装的 Operator 的订阅设置为 Manual
,则当其当前更新频道中发布新的更新时,必须在开始安装前手动批准更新。如果 Red Hat Quay Operator 有一个待处理的升级,这个状态将显示在 Installed Operators 列表中。在 Red Hat Quay Operator 的 Subscription
选项卡中,您可以预览安装计划,并查看列出可用于升级的资源。如果满意,点 Approve
并返回到列出 Installed Operators 的页面,以监控升级的进度。
下图显示了 UI 中的 Subscription 选项卡,包括 更新频道
、批准策略
、升级状态
和 InstallPlan
:
Installed Operators 列表提供了当前 Quay 安装的高级概述:
14.3. 升级 QuayRegistry 资源
当 Red Hat Quay Operator 启动时,它会立即查找它要监视的命名空间中找到的任何 QuayRegistries
。当找到时,使用以下逻辑:
-
如果
status.currentVersion
未设置,请正常进行协调。 -
如果
status.currentVersion
与 Operator 版本相同,请正常进行协调。 -
如果
status.currentVersion
不等于 Operator 版本,请检查是否可以升级它。如果可以,执行升级任务,并在完成后将status.currentVersion
设置为 Operator 的版本。如果无法升级,则返回错误,并只保留QuayRegistry
及其部署的 Kubernetes 对象。
14.4. 升级 QuayEcosystem
从以前的 Operator 版本支持升级,这些 Operator 使用 QuayEcosystem
API 进行一组有限的配置。为确保迁移不会意外发生,需要将一个特殊标签应用到 QuayEcosystem
以便它被迁移。将创建一个新的 QuayRegistry
以供 Operator 管理,但旧的 QuayEcosystem
将保留,直到手动删除为止,以确保您可以在任何错误时回滚并仍然访问 Quay。要将现有的 QuayEcosystem
迁移到新的 QuayRegistry
,请使用以下流程:
流程
将
"quay-operator/migrate": "true"
添加到QuayEcosystem
的metadata.labels
中。$ oc edit quayecosystem <quayecosystemname>
metadata: labels: quay-operator/migrate: "true"
-
等待使用与
QuayEcosystem
相同的metadata.name
创建QuayRegistry
。QuayEcosystem
将标记为标签"quay-operator/migration-complete": "true
"。 -
在设置了新
QuayRegistry
的status.registryEndpoint
后,访问 Red Hat Quay 并确认所有数据和设置都已成功迁移。 -
如果一切正常工作,您可以删除
QuayEcosystem
和 Kubernetes 垃圾回收清理所有旧资源。
14.4.1. 恢复 QuayEcosystem 升级
如果在从 QuayEcosystem
升级到 QuayRegistry
的过程中出现错误,请按照以下步骤恢复为使用 QuayEcosystem
:
流程
使用 UI 或
kubectl
删除QuayRegistry
:$ kubectl delete -n <namespace> quayregistry <quayecosystem-name>
-
如果使用
Route
提供外部访问,将Route
更改为指回原始的Service
(使用 UI 或kubectl
)。
如果您的 QuayEcosystem
管理 PostgreSQL 数据库,升级过程会将您的数据迁移到由升级 Operator 管理的新 PostgreSQL 数据库。您的旧数据库不会被更改或删除,但 Red Hat Quay 在迁移完成后不再使用它。如果数据迁移过程中出现问题,升级过程将退出,建议您继续将数据库作为非受管组件。
14.4.2. 支持的升级的 QuayEcosystem 配置
如果迁移 QuayEcosystem
组件失败或不受支持,Red Hat Quay Operator 会在日志中报告错误,并在 status.conditions
中报告错误。所有非受管组件都应成功迁移,因为不需要采用 Kubernetes 资源,并且 Red Hat Quay 的 config.yaml
文件中已提供了所有必要的值。
数据库
不支持临时数据库(必须设置volumeSize
字段)。
Redis
不需要特别要求。
外部访问
自动迁移只支持 passthrough Route
访问。其他方法所需的手动迁移。
-
没有自定义主机名的
LoadBalancer
:当QuayEcosystem
使用标签"quay-operator/migration-complete": "true"
标记后,在删除QuayEcosystem
前需要从现存的Service
中删除metadata.ownerReferences
字段,这可以防止 Kubernetes 对Service
进行垃圾回收并并删除负载均衡器。一个新的Service
将被创建,带有metadata.name
格式<QuayEcosystem-name>-quay-app
。编辑现有Service
的spec.selector
,使其与新Service
的spec.selector
匹配,以便进入旧负载均衡器端点的流量现在会被定向到新的 pod。旧的Service
将会被您管理; Quay Operator 将不再管理它。 -
带有自定义主机名的
LoadBalancer
/NodePort
/Ingress
:将创建一个类型为LoadBalancer
的新的Service
,带有metadata.name
格式<QuayEcosystem-name>-quay-app
。将您的 DNS 设置更改为指向由新Service
提供的status.loadBalancer
端点。
Clair
不需要特别要求。
对象存储
QuayEcosystem
没有受管对象存储组件,因此对象存储始终标记为非受管。不支持本地存储。
仓库镜像
不需要特别要求。
其他资源
- 有关 Red Hat Quay Operator 的详情,请参阅上游 quay-operator 项目。