备份和恢复
第 1 章 备份和恢复 复制链接链接已复制到粘贴板!
集群备份和恢复 Operator 在 hub 集群上运行,并为 Red Hat Advanced Cluster Management for Kubernetes hub 集群失败提供灾难恢复解决方案。当 hub 集群失败时,一些功能(如基于策略的警报或集群更新)会停止工作,即使所有受管集群仍可以正常工作。当 hub 集群不可用时,您需要一个恢复计划来决定是否可以恢复,或者是否需要从新部署的 hub 集群中恢复数据。
了解如何配置主动 - 被动 hub 集群配置。在这种配置中,初始 hub 集群备份数据,一个或多个被动 hub 集群处于待命状态,以便在主动集群不可用时控制受管集群。
另外,了解更多有关备份和恢复组件如何使用配置的策略发送警报,以便管理员知道主 hub 集群不可用时,可能需要恢复操作。如果备份解决方案无法按预期工作,相同的策略会提示管理员,即使主 hub 集群活跃和管理集群。它会报告备份数据没有被生成的任何问题,或者导致备份数据和不可用 hub 集群的任何其他问题。
集群备份和恢复 Operator 依赖于 OADP Operator 安装 Velero,并从 hub 集群创建到存储数据的备份存储位置的连接。Velero 是运行备份和恢复操作的组件。集群备份和恢复 Operator 解决方案为所有 Red Hat Advanced Cluster Management hub 集群资源(包括受管集群、应用程序和策略)提供备份和恢复支持。
集群备份和恢复 Operator 支持备份扩展 hub 集群安装的任何第三方资源。使用这个备份解决方案,您可以定义基于 cron 的备份计划,这些计划在指定时间段内运行。当 hub 集群停机时,可以部署新的 hub 集群,并将备份的数据移到新的 hub 集群中。
继续阅读以下主题以了解更多有关备份和恢复 Operator 的信息:
1.1. 主动被动配置 复制链接链接已复制到粘贴板!
在主动被动配置中,有一个主动 hub 集群和被动 hub 集群。一个活跃 hub 集群也被视为主 hub 集群,它使用 BackupSchedule.cluster.open-cluster-management.io 资源以定义的时间间隔管理集群并备份资源。
被动 hub 集群会持续检索最新的备份并恢复被动数据。当有新的备份数据时,被动 hub 使用 Restore.cluster.open-cluster-management.io 资源从主 hub 集群恢复被动数据。当主 hub 集群停机时,这些 hub 集群处于备用状态,成为主 hub 集群。
主动和被动 hub 集群连接到相同的存储位置,主 hub 集群备份 被动 hub 集群的数据,以访问主 hub 集群。有关如何设置此自动恢复配置的详情,请参阅恢复被动资源,检查备份>> 部分。
在以下图中,活跃 hub 集群会管理本地集群并定期备份 hub 集群数据:
被动 hub 集群恢复这个数据,但受管集群激活数据除外,后者将受管集群移到 passive hub 集群。被动 hub 集群可以持续恢复被动数据,请参阅 Restore 被动资源,同时检查备份 部分。被动 hub 集群可以恢复被动数据作为一个一次性的操作,请参阅恢复被动资源部分以了解更多详细信息。
1.2. 灾难恢复 复制链接链接已复制到粘贴板!
当主 hub 集群失败时,管理员选择使用被动 hub 集群来接管受管集群。在以下镜像中,管理员决定将 Hub 集群 N 用作新的主 hub 集群:
hub 集群 N 恢复受管集群激活数据。此时,受管集群与 Hub 集群 N 连接。管理员通过在新的主 hub 集群( Hub 集群 N )上激活备份,方法是创建一个 BackupSchedule.cluster.open-cluster-management.io 资源,并将备份存储在与初始主 hub 集群相同的存储位置。
所有其他被动 hub 集群现在使用由新主 hub 集群创建的备份数据恢复被动数据。Hub N 现在是主 hub 集群,管理集群和备份数据。
备注:
- 上图中的进程 1 不是自动的,因为管理员必须决定主 hub 集群是否已失败且需要替换,或者 hub 集群和受管集群之间是否有网络通信错误。管理员还决定哪个被动 hub 集群成为主 hub 集群。当备份策略报告备份错误时,策略与 Ansible 作业集成可帮助您自动执行此步骤。
- 上图中的进程 2 是手动的。如果管理员没有从新的主 hub 集群创建备份,管理员会收到使用作为 cron 作业主动运行的备份通知的备份。
1.3. 备份和恢复 Operator 架构 复制链接链接已复制到粘贴板!
Operator 定义 BackupSchedule.cluster.open-cluster-management.io 资源,用于设置 Red Hat Advanced Cluster Management 备份计划,以及 restore.cluster.open-cluster-management.io 资源,该资源用于处理和恢复这些备份。Operator 会创建对应的 Velero 资源,并定义备份远程集群和需要恢复的任何其他 hub 集群资源所需的选项。查看以下示意图:
1.3.1. 备份的资源 复制链接链接已复制到粘贴板!
集群备份和恢复 Operator 解决方案为所有 hub 集群资源(如受管集群、应用程序和策略)提供备份和恢复支持。您可以使用解决方案备份任何扩展基本 hub 集群安装的第三方资源。使用这个备份解决方案,您可以定义一个基于 cron 的备份调度,该调度在指定时间段内运行,并持续备份 hub 集群内容的最新版本。
当 hub 集群需要替换或处于灾难情况下,当 hub 集群停机时,可以部署新的 hub 集群并备份数据被移到新的 hub 集群中。
查看以下用于识别备份数据的集群备份和恢复过程的排序列表:
-
排除
MultiClusterHub命名空间中的所有资源。这是为了避免备份链接到当前 hub 集群身份的安装资源,不应该备份。 -
使用
.open-cluster-management.io后缀的 API 版本备份所有 CRD。这个后缀表示所有 Red Hat Advanced Cluster Management 资源都已备份。 -
从以下 API 组备份所有 CRD:
argoproj.io,app.k8s.io,core.observatorium.io,hive.openshift.io。 -
排除以下 API 组中的所有 CRD:
admission.cluster.open-cluster-management.io,admission.work.open-cluster-management.io,internal.open-cluster-management.io,operator.open-cluster-management.io,work.open-cluster-management.io,search.open-cluster-management.io,admission.hive.openshift.io,velero.io。 -
排除以下 CRD,它们是包含的 API 组的一部分,但并不需要或被所有者资源(也会被备份)所替代:
clustermanagementaddon,observabilityaddon,applicationmanager,certpolicycontroller,iampolicycontroller,policycontroller,searchcollector,workmanager,backupschedule,restore,clusterclaim.cluster.open-cluster-management.io。 -
使用以下标签之一备份 secret 和 ConfigMap:
cluster.open-cluster-management.io/type,hive.openshift.io/secret-type,cluster.open-cluster-management.io/backup。 对于您要备份的任何其他资源,使用
cluster.open-cluster-management.io/backup标签,且不包含在前面提到的条件中。请参见以下示例:apiVersion: my.group/v1alpha1 kind: MyResource metadata: labels: cluster.open-cluster-management.io/backup: ""apiVersion: my.group/v1alpha1 kind: MyResource metadata: labels: cluster.open-cluster-management.io/backup: ""Copy to Clipboard Copied! Toggle word wrap Toggle overflow 注:需要备份
hive.openshift.io.ClusterDeployment资源使用的 secret,并仅在使用控制台创建集群时使用cluster.open-cluster-management.io/backup标签自动标注。如果使用 GitOps 部署 Hive 集群,则必须手动将cluster.open-cluster-management.io/backup标签添加到ClusterDeployment使用的 secret 中。排除您不想备份的特定资源。例如,请查看以下从备份过程中排除 Velero 资源的示例:
apiVersion: my.group/v1alpha1 kind: MyResource metadata: labels: velero.io/exclude-from-backup: "true"apiVersion: my.group/v1alpha1 kind: MyResource metadata: labels: velero.io/exclude-from-backup: "true"Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.2. 在受管集群激活时恢复的资源 复制链接链接已复制到粘贴板!
当您将 cluster.open-cluster-management.io/backup 标签添加到资源时,资源会在 acm-resources-generic-schedule 备份中自动备份。如果需要恢复任何资源,则必须将标签值设置为 cluster-activation,仅在受管集群移到新的 hub 集群后,并在恢复的资源中使用 veleroManagedClustersBackupName:latest。这样可确保资源不会被恢复,除非受管集群激活被调用。查看以下示例:
apiVersion: my.group/v1alpha1
kind: MyResource
metadata:
labels:
cluster.open-cluster-management.io/backup: cluster-activation
apiVersion: my.group/v1alpha1
kind: MyResource
metadata:
labels:
cluster.open-cluster-management.io/backup: cluster-activation
除了使用 cluster.open-cluster-management.io/backup: cluster-activation 标签并由 acm-resources-generic-schedule 备份存储的激活数据资源外,集群备份和恢复 Operator 还默认在激活集合中包括一些资源。以下资源由 acm-managed-clusters-schedule 备份备份:
-
managedcluster.cluster.open-cluster-management.io -
managedcluster.clusterview.open-cluster-management.io -
klusterletaddonconfig.agent.open-cluster-management.io -
managedclusteraddon.addon.open-cluster-management.io -
managedclusterset.cluster.open-cluster-management.io -
managedclusterset.clusterview.open-cluster-management.io -
managedclustersetbinding.cluster.open-cluster-management.io -
clusterpool.hive.openshift.io -
clusterclaim.hive.openshift.io -
clustercurator.cluster.open-cluster-management.io
1.3.3. 资源请求和限值自定义 复制链接链接已复制到粘贴板!
最初安装 Velero 时,Velero pod 会被设置为默认 CPU 和内存限值,如下例所示:
以上示例中的限制在某些情况下可以正常工作,但可能会在集群备份大量资源时进行更新。例如,当备份在管理 2000 集群的 hub 集群上运行时,Velero pod 会因为内存不足错误(OOM)崩溃。对于这种情况,以下配置允许备份完成:
要更新 Velero pod 资源的限制和请求,您需要更新 DataProtectionApplication 资源,并为 Velero pod 插入 resourceAllocation 模板。查看以下示例:
-
请参阅 Red Hat OpenShift Container Platform 文档中的 默认 Velero 云供应商插件 部分,以了解更多有关
DataProtectionApplication参数的信息。 - 如需有关备份和恢复 CPU 和内存要求的更多详情,请参阅 OpenShift Container Platform 文档中的配置主题的 CPU 和内存要求。
1.4. 在恢复激活数据前准备集群 复制链接链接已复制到粘贴板!
在新 hub 集群中恢复激活数据前,请完成以下步骤以避免数据崩溃或集群丢失:
关闭主集群。
如需更多信息,请参阅关闭主集群。
如果要使用现有受管集群作为恢复 hub,在
MultiClusterHub中将disableHubSelfManagement设置为true。如需更多信息,请参阅 disableHubSelfManagement 主题。
请参阅以下示例,其中
spec.disableHubSelfManagement被设置为true:Copy to Clipboard Copied! Toggle word wrap Toggle overflow
注:如果在将激活数据移到恢复 hub 集群之前,没有在恢复 hub 集群中禁用自管理选项,则 local-cluster klusterlet 和受管集群命名空间中的 klusterlet 会有冲突。因此,恢复 hub 集群通过使用受管集群和恢复的受管集群自行管理。如果您将受管集群分离为 detach 操作的一部分,受管集群会收到取消置备请求,这会导致恢复 hub 集群删除。
1.5. 管理备份和恢复 Operator 复制链接链接已复制到粘贴板!
集群备份和恢复 Operator 不会被自动安装。通过在 MultiClusterHub 资源中将 cluster-backup 参数设置为 true 来启用备份组件。启用后,集群备份和恢复 Operator 安装在 open-cluster-management-backup 命名空间中。安装集群备份 Operator 时,OADP Operator 也会与集群备份和恢复 Operator 相同的命名空间中自动安装。
备注:
- 自定义资源定义的有效范围是集群范围内的,因此不能在同一集群中安装两个 OADP 或 Velero 版本。如果您有两个不同的版本,则一个版本会使用错误的自定义资源定义来运行。
-
如果您没有在
MultiClusterHub资源中启用集群备份和恢复 Operator,则 OADP Operator 和 Velero 自定义资源定义仍然安装在 hub 集群中。MultiClusterHub资源将 OADP 和 Velero 自定义资源定义与 OADP Operator 使用的版本进行协调,该定义会在启用集群备份和恢复 Operator 时安装。因此,您无法在 hub 集群上安装 OADP 或 Velero 的另一个版本,除非您的版本使用与启用备份和恢复 Operator 时安装的 OADP Operator 相同的自定义资源定义。 - 备份组件可以与组件命名空间中安装的 OADP Operator 一起工作。
Velero 在 Red Hat Advanced Cluster Management hub 集群上安装 OADP Operator。Velero 用于备份和恢复 Red Hat Advanced Cluster Management hub 集群资源。
有关 Velero 支持的存储供应商列表,请参阅 OpenShift Container Platform 文档中的 AWS S3 兼容备份存储供应商。
1.5.1. 先决条件 复制链接链接已复制到粘贴板!
您必须满足以下先决条件才能启用和使用备份和恢复 Operator:
- 确保完成为保存备份的云存储 创建默认 Secret 的步骤。secret 资源必须在 OADP operator 命名空间中创建,该命名空间中位于备份组件命名空间中。
对于主动和被动 hub 集群 :
-
在 Red Hat OpenShift Container Platform 集群中,安装 Red Hat Advanced Cluster Management for Kubernetes operator 版本 2.7.x。安装 Red Hat Advanced Cluster Management 时会自动创建
MultiClusterHub资源,并显示以下状态:Running。 -
集群备份和恢复 Operator 必须手动安装。启用集群备份和恢复 Operator (
cluster-backup)。通过将cluster-backup参数设置为true来编辑MultiClusterHub资源。这会在带有备份组件的同一命名空间中安装 OADP operator。
-
在 Red Hat OpenShift Container Platform 集群中,安装 Red Hat Advanced Cluster Management for Kubernetes operator 版本 2.7.x。安装 Red Hat Advanced Cluster Management 时会自动创建
对于被动 hub 集群 :
- 在被动 hub 集群上运行恢复操作前,您必须手动配置 hub 集群,并在活跃 hub 集群上安装所有 Operator,以及与活跃 hub 集群相同的命名空间中。
-
确保 Red Hat Advanced Cluster Management Operator 安装在与初始 hub 集群相同的命名空间中。然后,创建
DataProtectionApplication资源,并连接到初始 hub 集群备份数据的相同存储位置。
在创建
DataProtectionApplication资源时,使用创建的 secret。完成以下步骤以创建
DataProtectionApplication资源实例:- 在 Red Hat OpenShift Container Platform 控制台中选择 Operators > Installed Operators。
-
在 DataProtectionApplication 下点
Create instance。 -
使用 {ocp-short)控制台或使用
DataProtectionApplication示例中所述的 YAML 文件选择配置来创建 Velero 实例。 -
将
DataProtectionApplicationnamespace 设置为open-cluster-management-backup。 为
DataProtectionApplication资源正确设置规格(spec:)值。然后点创建。如果您打算使用默认的备份存储位置,请在
backupStorageLocations部分中设置以下值default: true。查看以下DataProtectionApplication资源示例:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 请参阅创建
DataProtectionApplication资源的示例。- 在运行恢复操作前,请验证已安装了其他 Operator,如 Ansible Automation Platform、Red Hat OpenShift Container Platform GitOps 或证书管理器。这样可确保新 hub 集群配置与初始 hub 集群相同。
- 安装备份和恢复 Operator 时,被动 hub 集群必须使用与初始 hub 集群相同的命名空间名称,以及在之前的 hub 集群上配置的任何其他 Operator。
对于断开连接的环境 :
当在断开连接的环境中使用 Red Hat OpenShift Container Platform 启用备份和恢复组件时,请完成以下附加步骤:
使用 follwing 注解更新
MultiClusterHub资源,以覆盖安装 OADP Operator 的源。在MultiClusterHub资源上启用cluster-backup组件前创建注解:apiVersion: operator.open-cluster-management.io/v1 kind: MultiClusterHub metadata: annotations: installer.open-cluster-management.io/oadp-subscription-spec: '{"source": "redhat-operator-index"}'apiVersion: operator.open-cluster-management.io/v1 kind: MultiClusterHub metadata: annotations: installer.open-cluster-management.io/oadp-subscription-spec: '{"source": "redhat-operator-index"}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow redhat-operator-index是一个自定义名称,代表您定义并用来在断开连接的环境中访问 Red Hat OpenShift Operator 的CatalogSource资源的名称。运行以下命令来检索catalogsource:oc get catalogsource -A
oc get catalogsource -ACopy to Clipboard Copied! Toggle word wrap Toggle overflow 输出可能类似以下:
NAMESPACE NAME DISPLAY TYPE PUBLISHER AGE openshift-marketplace acm-custom-registry Advanced Cluster Management grpc Red Hat 42h openshift-marketplace multiclusterengine-catalog MultiCluster Engine grpc Red Hat 42h openshift-marketplace redhat-operator-index grpc 42h
NAMESPACE NAME DISPLAY TYPE PUBLISHER AGE openshift-marketplace acm-custom-registry Advanced Cluster Management grpc Red Hat 42h openshift-marketplace multiclusterengine-catalog MultiCluster Engine grpc Red Hat 42h openshift-marketplace redhat-operator-index grpc 42hCopy to Clipboard Copied! Toggle word wrap Toggle overflow
1.5.2. 启用备份和恢复 Operator 复制链接链接已复制到粘贴板!
当第一次创建 MultiClusterHub 资源时,可以启用集群备份和恢复 Operator。cluster-backup 参数设为 true。启用 Operator 后,会安装 operator 资源。
如果已创建了 MultiClusterHub 资源,您可以通过编辑 MultiClusterHub 资源来安装或卸载集群备份 Operator。如果要卸载集群备份 Operator,将 cluster-backup 设置为 false。
启用备份和恢复 Operator 时,MultiClusterHub 资源可能类似以下 YAML 文件:
1.5.3. 使用备份和恢复 Operator 复制链接链接已复制到粘贴板!
完成以下步骤以调度和恢复备份:
-
使用备份和恢复 Operator
backupschedule.cluster.open-cluster-management.io创建备份调度,并使用restore.cluster.open-cluster-management.io资源来恢复备份。 运行以下命令来创建
backupschedule.cluster.open-cluster-management.io资源:kubectl create -f cluster_v1beta1_backupschedule.yaml
kubectl create -f cluster_v1beta1_backupschedule.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 您的
cluster_v1beta1_backupschedule.yaml资源可能类似以下文件:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 查看
backupschedule.cluster.open-cluster-management.iospec属性的描述:-
veleroSchedule是必需属性,定义用于调度备份的 cron 作业。 -
veleroTtl是可选属性,定义调度的备份资源的过期时间。如果没有指定,则使用 Velero 设置的最大默认值,即720h。
-
检查
backupschedule.cluster.open-cluster-management.io资源的状态,这会显示三个schedule.velero.io资源的定义。运行以下命令:oc get BackupSchedule -n open-cluster-management-backup
oc get BackupSchedule -n open-cluster-management-backupCopy to Clipboard Copied! Toggle word wrap Toggle overflow 提醒,恢复操作在不同的 hub 集群上运行,用于恢复场景。要启动恢复操作,请在要恢复备份的 hub 集群中创建一个
restore.cluster.open-cluster-management.io资源。注:当您在新的 hub 集群上恢复备份时,请确保关闭创建备份的以前的 hub 集群。如果正在运行,则旧的 hub 集群会在受管集群协调发现受管集群不再可用时立即重新导入受管集群。
您可以使用集群备份和恢复 Operator,
backupschedule.cluster.open-cluster-management.io和restore.cluster.open-cluster-management.io资源来创建备份或恢复资源。请参阅cluster-backup-operator示例。运行以下命令来创建
restore.cluster.open-cluster-management.io资源:kubectl create -f cluster_v1beta1_backupschedule.yaml
kubectl create -f cluster_v1beta1_backupschedule.yamlCopy to Clipboard Copied! Toggle word wrap Toggle overflow 您的资源可能类似以下文件:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令来查看 Velero
Restore资源:oc get restore.velero.io -n open-cluster-management-backup
oc get restore.velero.io -n open-cluster-management-backupCopy to Clipboard Copied! Toggle word wrap Toggle overflow 运行以下命令,查看 Red Hat Advanced Cluster Management
Restore事件:oc describe restore.cluster.open-cluster-management.io -n open-cluster-management-backup
oc describe restore.cluster.open-cluster-management.io -n open-cluster-management-backupCopy to Clipboard Copied! Toggle word wrap Toggle overflow
有关 Restore YAML 资源的参数和示例的描述,请参阅恢复备份部分。
1.5.4. 扩展备份数据 复制链接链接已复制到粘贴板!
您可以通过在资源中添加 cluster.open-cluster-management.io/backup 标签来备份集群备份和恢复的第三方资源。标签的值可以是任意字符串,包括空字符串。使用一个可以帮助您识别要备份的组件的值。例如,如果组件是由 IDP 解决方案提供,请使用 cluster.open-cluster-management.io/backup: idp 标签。
注: 如果您希望在受管集群激活资源时恢复资源,请使用 cluster.open-cluster-management.io/backup 标签的 cluster-activation 值。恢复受管集群激活资源会导致受管集群活跃由 hub 集群(在启动恢复的位置)主动管理。
1.5.5. 调度集群备份 复制链接链接已复制到粘贴板!
在创建 backupschedule.cluster.open-cluster-management.io 资源时,会激活备份调度。查看以下 backupschedule.cluster.open-cluster-management.io 示例:
创建 backupschedule.cluster.open-cluster-management.io 资源后,运行以下命令来获取调度的集群备份的状态:
oc get BackupSchedule -n open-cluster-management-backup
oc get BackupSchedule -n open-cluster-management-backup
backupschedule.cluster.open-cluster-management.io 资源会创建六个 schedule.velero.io 资源,用于生成备份。运行以下命令查看调度的备份列表:
os get schedules -A | grep acm
os get schedules -A | grep acm
资源在以下组中单独备份:
- 凭证备份,它是存储 Hive 凭证、Red Hat Advanced Cluster Management 和用户创建的凭证和 ConfigMap 的备份文件。
-
资源备份,其中包含 Red Hat Advanced Cluster Management 资源的一个备份,另一个用于通用资源。这些资源使用以下标签
cluster.open-cluster-management.io/backup。 - 受管集群备份,其中仅包含激活与 hub 集群连接的资源,在恢复备份时。
注 :资源备份文件包含特定于受管集群的资源,但不包含将受管集群连接到 hub 集群的资源子集。连接受管集群的资源称为激活资源,并包含在受管集群备份中。当您只在新 hub 集群中为 凭证和资源备份中恢复备份时,新的 hub 集群将所有使用 Hive API 创建的受管集群处于分离状态。但是,只有在 passive hub 集群上恢复激活数据时,使用导入操作在主 hub 集群上导入的受管集群才会出现。受管集群仍然连接到创建备份文件的原始 hub 集群。
当恢复激活数据时,只有使用 Hive API 创建的受管集群才会与新的 hub 集群自动连接。所有其他受管集群都显示为 Pending 状态,必须手动重新附加到新集群。
1.5.5.1. 避免备份冲突 复制链接链接已复制到粘贴板!
如果 hub 集群从被动 hub 集群变为主 hub 集群,或者不同的受管集群在同一存储位置备份数据,则可能会出现备份冲突。
因此,最新的备份由 hub 集群生成,该集群不再设置为主 hub 集群。此 hub 集群仍然会生成备份,因为 BackupSchedule.cluster.open-cluster-management.io 资源仍然被启用。
请参阅以下列表以了解可能导致备份冲突的两个场景:
主 hub 集群意外失败,这由以下条件导致:
- 从主 hub 集群到 Hub1 的通信会失败。
- Hub1 备份数据在辅助 hub 集群上恢复,名为 Hub2。
-
管理员会在 Hub2 上创建
BackupSchedule.cluster.open-cluster-management.io资源,它是主 hub 集群,并为通用存储位置生成备份数据。 Hub1 意外开始再次工作。
因为
BackupSchedule.cluster.open-cluster-management.io资源仍然在 Hub1 上被启用,所以 Hub1 将备份恢复到与 Hub2 相同的存储位置。现在,两个 hub 集群都在同一个存储位置写入备份数据。任何从此存储位置恢复最新的备份的 hub 集群都可以使用 Hub1 数据,而不是 Hub2 数据。
管理员通过使 Hub2 成为主 hub 集群来测试灾难场景,这由以下条件导致:
- Hub1 已停止。
- Hub1 备份数据在 Hub2 上恢复。
-
管理员会在 Hub2 上创建
BackupSchedule.cluster.open-cluster-management.io资源,它是主 hub 集群,并为通用存储位置生成备份数据。 - 灾难测试完成后,管理员将恢复到之前的状态,并再次使 Hub1 主 hub 集群。
Hub1 在 Hub2 仍然处于活跃状态时启动。
由于
BackupSchedule.cluster.open-cluster-management.io资源仍然在 Hub2 上被启用,所以它会在损坏备份数据的同一存储位置写入备份。任何从这个位置恢复最新的备份的 hub 集群都可以使用 Hub2 数据,而不是 Hub1 数据。在这种情况下,在启动 Hub1 前,首先停止 Hub2 或删除BackupSchedule.cluster.open-cluster-management.io资源,然后解决备份冲突问题。
为了避免和报告备份冲突,BackupSchedule.cluster.open-cluster-management.io 资源有一个 BackupCollision 状态。如果当前 hub 集群生成了存储位置的最新备份,控制器会定期检查。如果没有,不同的 hub 集群最近将备份数据写入存储位置,表示 hub 集群与不同的 hub 集群共存。
在这种情况下,当前 hub 集群 BackupSchedule.cluster.open-cluster-management.io 资源状态被设置为 BackupCollision,此资源创建的 Schedule.velero.io 资源将被删除以避免数据崩溃。BackupCollision 由备份策略报告。管理员在从无效 hub 集群中删除 BackupSchedule.cluster.open-cluster-management.io 资源并在有效的主 hub 集群上创建新的 BackupSchedule.cluster.open-cluster-management.io 资源前,管理员会验证哪个 hub 集群写入存储位置,以恢复备份。
运行以下命令检查是否有备份冲突:
oc get backupschedule -A
oc get backupschedule -A
如果存在备份冲突,输出可能类似以下示例:
NAMESPACE NAME PHASE MESSAGE openshift-adp schedule-hub-1 BackupCollision Backup acm-resources-schedule-20220301234625, from cluster with id [be97a9eb-60b8-4511-805c-298e7c0898b3] is using the same storage location. This is a backup collision with current cluster [1f30bfe5-0588-441c-889e-eaf0ae55f941] backup. Review and resolve the collision then create a new BackupSchedule resource to resume backups from this cluster.
NAMESPACE NAME PHASE MESSAGE
openshift-adp schedule-hub-1 BackupCollision Backup acm-resources-schedule-20220301234625, from cluster with id [be97a9eb-60b8-4511-805c-298e7c0898b3] is using the same storage location. This is a backup collision with current cluster [1f30bfe5-0588-441c-889e-eaf0ae55f941] backup. Review and resolve the collision then create a new BackupSchedule resource to resume backups from this cluster.
1.5.6. 恢复备份 复制链接链接已复制到粘贴板!
在进行一般的恢复时,运行备份的 hub 集群变得不可用,备份的数据需要移到一个新的 hub 集群。这可以通过在新的 hub 集群上运行集群恢复操作来完成。在这种情况下,恢复操作会在创建备份的不同 hub 集群中运行。
有些情况下,您要在收集备份的同一 hub 集群中恢复数据,以便恢复来自以前快照的数据。在这种情况下,恢复和备份操作都在同一 hub 集群中运行。
在 hub 集群中创建 restore.cluster.open-cluster-management.io 资源后,您可以运行以下命令来获取恢复操作的状态:
oc get restore -n open-cluster-management-backup
oc get restore -n open-cluster-management-backup
您还应能够验证是否已创建备份文件中包含的已备份资源。
注:restore.cluster.open-cluster-management.io 资源运行一次,除非您使用 syncRestoreWithNewBackups 选项并将其设置为 true,如 Restore passive resources 部分所述。如果要在恢复操作完成后再次运行相同的恢复操作,您必须创建一个具有相同 spec 选项的新 restore.cluster.open-cluster-management.io 资源。
restore 操作用于恢复备份操作创建的所有三种备份类型。但是,您可以选择只安装特定类型的备份(仅限受管集群、仅用户凭证或只安装 hub 集群资源)。
恢复定义以下三个必要的 spec 属性,其中为备份文件类型定义了恢复逻辑:
-
veleroManagedClustersBackupName用于定义受管集群激活资源的恢复选项。 -
veleroCredentialsBackupName用于为用户凭证定义 restore 选项。 veleroResourcesBackupName用于定义 hub 集群资源的 restore 选项(Applications、Policy及其他 hub 集群资源,如受管集群被动数据)。前面提到的属性的有效选项有以下值:
-
latest- 此属性恢复此类型的备份文件。 -
skip- 此属性不会尝试使用当前恢复操作恢复这种类型的备份。 -
<backup_name>- 此属性按名称恢复指向它的指定的备份。
-
由 restore.cluster.open-cluster-management.io 创建的 restore.velero.io 资源的名称遵循以下模版规则 <restore.cluster.open-cluster-management.io name>-<velero-backup-resource-name>.查看以下描述:
-
restore.cluster.open-cluster-management.io 名称是当前restore.cluster.open-cluster-management.io资源的名称,该资源用于启动恢复。 velero-backup-resource-name是 Velero 备份文件的名称,用于恢复数据。例如,名为restore-acm的restore.cluster.open-cluster-management.io资源创建restore.velero.io恢复资源。查看以下格式示例:-
restore-acm-acm-managed-clusters-schedule-20210902205438可用于恢复受管集群激活数据备份。在本例中,用于恢复资源的backup.velero.io备份名称为acm-managed-clusters-schedule-20210902205438。 -
restore-acm-acm-credentials-schedule-20210902206789用于恢复凭据备份。在本例中,用于恢复资源的backup.velero.io备份名称为acm-managed-clusters-schedule-20210902206789。 -
restore-acm-acm-resources-schedule-20210902201234用于恢复应用程序、策略和其他 hub 集群资源,如受管集群被动数据备份。在这个示例中,用于恢复资源的backup.velero.io备份名称为acm-managed-clusters-schedule-20210902201234。
-
注:如果 skip 用于备份类型,则不会创建 restore.velero.io。
查看以下集群 Restore 资源的 YAML 示例。在这个示例中,使用最新可用的备份文件恢复所有三种备份文件:
Note:当来自受管集群备份的 acm-managed-clusters 备份被恢复到另外一个 hub 集群时,只有 Hive API 创建的受管集群会自动连接到新的 hub 集群。所有其他受管集群都处于 Pending Import 状态,且必须重新导入到新的 hub 集群中。如需更多信息,请参阅 恢复导入的受管集群(技术预览)。
1.5.6.1. 准备新的 hub 集群 复制链接链接已复制到粘贴板!
在新 hub 集群上运行恢复操作前,您需要手动配置 hub 集群,并在初始 hub 集群上安装相同的 Operator。您必须在与初始 hub 集群相同的命名空间中安装 Red Hat Advanced Cluster Management Operator,创建 DataProtectionApplication 资源,然后连接到之前备份了数据的同一存储位置。
对 Red Hat Advanced Cluster Management Operator 创建的 MultiClusterHub 资源使用与初始 hub 集群上的配置相同,包括对 MultiClusterEngine 资源的任何更改。
例如,如果初始 hub 集群安装了任何其他 Operator,如 Ansible Automation Platform、Red Hat OpenShift GitOps、cert-manager,则必须在运行恢复操作前安装它们。这样可确保配置新的 hub 集群与初始 hub 集群相同。
1.5.6.2. 在恢复后清理 hub 集群 复制链接链接已复制到粘贴板!
如果使用当前恢复的备份更改了,Velero 会更新现有资源。Velero 不会清理 delta 资源,这些资源是由以前的恢复创建的资源,而不是当前恢复的备份的一部分。这限制了在新 hub 集群上恢复 hub 集群数据时可以使用的情况。除非恢复只应用一次,否则您无法可靠地使用新的 hub 集群作为被动配置。hub 集群中的数据没有反映恢复的资源可用的数据。
为解决这个限制,当创建 Restore.cluster.open-cluster-management.io 资源时,备份 Operator 会运行一个清理 hub 集群的 post 恢复操作。该操作会删除之前不是由 Red Hat Advanced Cluster Management 恢复(不是当前恢复的备份的一部分)创建的资源。
后恢复清理使用 cleanupBeforeRestore 属性来识别要清理的对象子集。您可以使用以下两个选项进行恢复后清理:
-
None: 不需要清理,只开始 Velero 恢复。在新 hub 集群中使用None。 -
CleanupRestored:清理之前由以前 Red Hat Advanced Cluster Management 恢复创建的所有资源,这些资源不是当前恢复的备份的一部分。 CleanupAll:清理 hub 集群上可能成为 Red Hat Advanced Cluster Management 备份的一部分的所有资源,即使它们没有因为恢复操作而创建。这在恢复操作启动前在 hub 集群上创建额外内容时使用。最佳实践:避免使用
CleanupAll选项。仅将它用作最后的手段,且需要非常小心。除了之前恢复的备份创建的资源外,CleanupAll还会清理用户创建的 hub 集群上的资源。反之,应使用 'CleanupRestored ' 选项来防止在 hub 集群指定为灾难场景的被动候选时更新 hub 集群内容。使用干净的 hub 集群作为被动集群。
备注:
-
如果恢复的备份没有资源,Velero 会为 velero 恢复资源设置状态
PartiallyFailed。这意味着,如果任何创建的restore.velero.io资源没有恢复任何资源,则restore.cluster.open-cluster-management.io资源可能会处于PartiallyFailed状态。 -
restore.cluster.open-cluster-management.io资源会运行一次,除非您使用syncRestoreWithNewBackups:true来在新的备份可用时恢复被动数据。在这种情况下,请按照使用同步示例的恢复被动操作。请参阅在检查备份时恢复被动资源。完成恢复操作后,您想要在同一 hub 集群上运行另一个恢复操作,您必须创建一个新的restore.cluster.open-cluster-management.io资源。 -
虽然您可以创建多个
restore.cluster.open-cluster-management.io资源,但在任何时间点上只能有一个。
1.5.6.3. 在检查备份时恢复被动资源 复制链接链接已复制到粘贴板!
使用 restore-passive-sync 示例恢复被动数据,同时继续检查新备份是否可用并自动恢复它们。要自动恢复新的备份,您必须将 syncRestoreWithNewBackups 参数设置为 true。您还必须仅恢复最新的被动数据。您可以在本节末尾找到示例示例。
将 VeleroResourcesBackupName 和 VeleroCredentialsBackupName 参数设置为 latest,VeleroManagedClustersBackupName 参数为 skip。当将 VeleroManagedClustersBackupName 设置为 latest 后,受管集群会在新的 hub 集群中激活,现在是主 hub 集群。
当激活的受管集群变为主 hub 集群时,恢复资源被设置为 Finished,并且 syncRestoreWithNewBackups 会被忽略,即使设置为 true。
默认情况下,当 syncRestoreWithNewBackups 设为 true 时,控制程序会每 30 分钟检查新的备份。如果找到新的备份,它会恢复备份的资源。您可以通过更新 restoreSyncInterval 参数来更改检查的持续时间。
例如,请查看以下资源每 10 分钟检查备份:
1.5.6.4. 恢复被动资源 复制链接链接已复制到粘贴板!
使用 restore-acm-passive 示例在被动配置中恢复 hub 集群资源。被动数据是备份数据,如 secret、ConfigMap、应用程序、策略以及所有受管集群自定义资源,它不在受管集群和 hub 集群之间激活连接。备份资源通过凭证备份和恢复资源在 hub 集群上恢复。
请参见以下示例:
1.5.6.5. 恢复激活资源 复制链接链接已复制到粘贴板!
在恢复被动 hub 集群上的激活数据前,请关闭创建备份的以前的 hub 集群。如果主 hub 集群仍在运行,它会尝试根据在这个 hub 集群上运行的协调流程,尝试使用不再可用的受管集群。
当您希望 hub 集群管理集群时,请使用 restore-acm-passive-activate 示例。在这种情况下,假设其它数据已在使用被动资源的 hub 集群上恢复。
根据您如何恢复被动资源,您有一些选项来恢复激活资源:
-
如果您使用
restore-acm-passive-sync cluster.open-cluster-management.io资源,如 Restore passive resources while checking for backups to restore passive data 部分所述,将veleroManagedClustersBackupName值更新为latest。因此,受管集群资源和restore-acm-passive-sync资源会被恢复。 - 如果您将被动资源恢复为一个时间操作,或者还没有恢复任何资源,选择恢复所有资源,如 恢复所有资源部分所述。
1.5.7. 恢复受管集群激活数据 复制链接链接已复制到粘贴板!
当使用 cluster.open-cluster-management.io/backup: cluster-activation 标签时,受管集群激活数据或其他激活数据资源由受管集群备份和 resource-generic 备份存储。当在新的 hub 集群上恢复激活数据时,受管集群由运行恢复的 hub 集群主动管理。请参阅 调度集群备份 以了解如何使用 Operator。
1.5.7.1. 恢复所有资源 复制链接链接已复制到粘贴板!
如果要一次恢复所有数据,请使用 restore-acm 示例,并使 hub 集群在一个步骤中管理受管集群。在 hub 集群中创建 restore.cluster.open-cluster-management.io 资源后,运行以下命令获取恢复操作的状态:
oc get restore -n open-cluster-management-backup
oc get restore -n open-cluster-management-backup
您的示例可能类似以下资源:
在 hub 集群中,验证是否已创建备份文件中包含的备份资源。
1.5.7.2. 恢复导入的受管集群 复制链接链接已复制到粘贴板!
只有使用 Hive API 与主 hub 集群连接的受管集群会自动连接到新的 hub 集群,其中恢复激活数据。这些集群已在主 hub 集群上使用 Clusters 选项卡的 Create cluster 按钮创建。当激活数据被恢复时,使用 Import cluster 按钮连接到初始 hub 集群的受管集群显示为 Pending Import,需要在新的 hub 集群中重新导入。
Hive 受管集群可以与新的 hub 集群连接,因为 Hive 将受管集群 kubeconfig 存储在 hub 集群上的受管集群命名空间中。这在新的 hub 集群上备份和恢复。然后,导入控制器使用恢复的配置更新受管集群上的 bootstrap kubeconfig,该配置仅适用于使用 Hive API 创建的受管集群。导入的集群不可用。
要在新 hub 集群上重新连接导入的集群,请在启动恢复操作后手动创建 auto-import-secret 资源。如需了解更多详细信息 ,请参阅使用自动导入 secret 导入集群。
在受管集群命名空间中创建 auto-import-secret 资源,每个集群处于 Pending Import 状态。使用具有足够权限的 kubeconfig 或令牌,以便导入组件在新 hub 集群上启动自动导入。您必须使用令牌连接到受管集群,为每个受管集群具有访问权限。令牌必须具有 klusterlet 角色绑定或具有相同权限的角色。
1.5.7.2.1. 使用受管服务帐户自动连接集群 复制链接链接已复制到粘贴板!
备份控制器使用 Managed Service Account 组件自动将导入的集群连接到新的 hub 集群。Managed Service Account 创建一个令牌,为每个受管集群命名空间中的每个导入的集群备份令牌。该令牌使用 klusterlet-bootstrap-kubeconfig ClusterRole 绑定,允许自动导入操作使用令牌。klusterlet-bootstrap-kubeconfig ClusterRole 只能获取或更新 bootstrap-hub-kubeconfig secret。要了解更多有关受管服务帐户组件的信息,请参阅什么是受管服务帐户?
当新 hub 集群上恢复激活数据时,恢复控制器会运行 post 恢复操作,并查找处于 Pending Import 状态的所有受管集群。如果找到了 Managed Service Account 生成的有效令牌,控制器会使用令牌创建一个 auto-import-secret。因此,导入组件会尝试重新连接受管集群。如果可以访问集群,则操作可以成功。
1.5.7.2.1.1. 启用自动导入 复制链接链接已复制到粘贴板!
默认情况下,禁用使用 Managed Service Account 组件的自动导入功能。要启用自动导入功能,请完成以下步骤:
通过在
MultiClusterEngine资源中将managedserviceaccount-previewenabled参数设置为true来启用 Managed Service Account 组件。请参见以下示例:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 通过将
useManagedServiceAccount参数设置为true,为BackupSchedule.cluster.open-cluster-management.io资源启用自动导入功能。请参见以下示例:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 默认令牌有效期持续时间被设置为
veleroTtl值的两倍,以提高令牌对整个生命周期存储令牌的所有备份的几率。在某些情况下,您可能需要通过为可选的managedServiceAccountTTL属性设置值来控制令牌的有效时长。如果您需要为生成的令牌更新默认令牌过期时间,请谨慎使用
managedServiceAccountTTL。从默认值更改令牌过期时间可能会导致生成带有令牌集的备份,在备份生命周期中过期。因此,导入功能不适用于受管集群。重要 :除非需要控制令牌的有效时长,否则不要使用
managedServiceAccountTTL。有关使用
managedServiceAccountTTL属性的示例:Copy to Clipboard Copied! Toggle word wrap Toggle overflow
启用自动导入功能后,备份组件通过创建以下内容开始处理导入的受管集群:
-
名为
managed-serviceaccount的ManagedServiceAddon。 -
名为
auto-import-account的ManagedServiceAccount。 -
每个
ManagedServiceAccount的ManifestWork,用于为受管集群上的ManagedServiceAccount令牌设置klusterlet-bootstrap-kubeconfigRoleBinding。
只有在创建 Managed Service Account 时可以访问受管集群时,才会创建令牌,否则在受管集群可用后它会被创建。
1.5.7.2.1.2. 自动导入注意事项 复制链接链接已复制到粘贴板!
以下场景可能会阻止受管集群在移至新的 hub 集群时被自动导入:
-
在没有
ManagedServiceAccount令牌的情况下运行 hub 备份时,例如在受管集群无法访问时创建ManagedServiceAccount资源时,备份不包含自动导入受管集群的令牌。 -
如果
auto-import-accountsecret 令牌有效并且已备份,但在备份的可用令牌已过期时运行恢复操作,则自动导入操作会失败。restore.cluster.open-cluster-management.io资源会为每个受管集群报告无效的令牌问题。 因此在恢复时创建的
auto-import-secret使用ManagedServiceAccount令牌连接到受管集群,受管集群还必须提供 kubeapiserver信息。apiserver必须在ManagedCluster资源中设置。请参见以下示例:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 当在 hub 集群中导入集群时,只会在 OpenShift Container Platform 集群中自动设置
apiserver。您必须在其他类型的受管集群中手动设置apiserver,如 EKS 集群,否则自动导入功能会忽略集群。因此,当您将其移到恢复 hub 集群时,集群会处于Pending Import状态。-
如果备份调度在
ManagedServiceAccountsecret 上设置了备份标签前运行,则ManagedServiceAccountsecret 可能不包含在备份中。ManagedServiceAccountsecret 在创建时没有设置集群open-cluster-management.io/backup标签。因此,备份控制器定期在受管集群命名空间下搜索ManagedServiceAccountsecret,并在未找到时添加备份标签。
1.5.7.2.1.3. 禁用自动导入 复制链接链接已复制到粘贴板!
您可以通过在 BackupSchedule 资源中将 useManagedServiceAccount 参数设置为 false 来禁用自动导入集群功能。请参见以下示例:
默认值为 false。将值设为 false 后,备份 Operator 会删除所有创建的资源,包括 ManagedServiceAddon、ManagedServiceAccount 和 ManifestWork。删除资源会删除 hub 集群和受管集群中的自动导入令牌。
1.5.7.3. 使用其他恢复示例 复制链接链接已复制到粘贴板!
查看以下 Restore 部分,以查看恢复不同类型的备份文件的 YAML 示例。
恢复所有三种备份资源:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 仅恢复受管集群资源:
Copy to Clipboard Copied! Toggle word wrap Toggle overflow 使用
acm-managed-clusters-schedule-20210902205438备份只为受管集群恢复资源:Copy to Clipboard Copied! Toggle word wrap Toggle overflow 备注:
-
restore.cluster.open-cluster-management.io资源运行一次。恢复操作完成后,您可以选择在同一 hub 集群中运行另一个恢复操作。您必须创建新的restore.cluster.open-cluster-management.io资源才能运行新的恢复操作。 -
您可以创建多个
restore.cluster.open-cluster-management.io,但在任何时候都只能运行一个。
-
1.5.7.4. 查看恢复事件 复制链接链接已复制到粘贴板!
使用以下命令获取有关恢复事件的信息:
oc describe -n open-cluster-management-backup <restore-name>
oc describe -n open-cluster-management-backup <restore-name>
您的事件列表可能类似以下示例:
1.5.7.5. 关闭主集群 复制链接链接已复制到粘贴板!
在恢复被动 hub 集群上的激活数据前,请关闭创建备份的以前的 hub 集群。如果主 hub 集群仍在运行,它会尝试根据在这个 hub 集群上运行的协调流程,尝试使用不再可用的受管集群。
1.5.8. 验证备份或恢复配置 复制链接链接已复制到粘贴板!
集群备份和恢复 Operator Helm chart (cluster-backup-chart) 在 hub 集群上安装 backup-restore-enabled 策略,用于告知您备份和恢复组件的问题。backup-restore-enabled 策略包括一组用于检查以下限制的模板:
Pod 验证
以下模板检查备份组件和依赖项的 pod 状态:
-
acm-backup-pod-running模板检查备份和恢复 operator pod 是否在运行。 -
oadp-pod-running模板检查 OADP operator pod 是否在运行。 -
velero-pod-running模板检查 Velero pod 是否在运行。
-
数据保护应用程序验证
-
data-protection-application-available模板检查是否创建了DataProtectioApplicatio.oadp.openshift.io资源。这个 OADP 资源设置 Velero 配置。
-
备份存储验证
-
backup-storage-location-available模板检查BackupStorageLocation.velero.io资源是否已创建以及状态值是否为Available。这意味着与备份存储的连接有效。
-
BackupSchedule 冲突验证
如果当前 hub 集群上存在
BackupSchedule.cluster.open-cluster-management.io,则acm-backup-clusters-collision-report模板会验证状态不是BackupCollision。这会在将备份数据写入存储位置时,验证当前 hub 集群与其它 hub 集群不冲突。有关
BackupCollision的定义,请参阅 避免备份冲突。
BackupSchedule 和恢复状态验证
-
acm-backup-phase-validation模板检查当前集群中是否存在BackupSchedule.cluster.open-cluster-management.io,则检查状态为Failed或Empty状态。这样可确保如果此集群是主 hub 集群,并正在生成备份,则BackupSchedule.cluster.open-cluster-management.io状态是健康。 -
如果当前集群中存在
Restore.cluster.open-cluster-management.io,则相同的模板会检查当前集群中没有处于Failed或Empty状态的状态。这样可确保如果这个集群是二级 hub 集群,且被恢复备份,Restore.cluster.open-cluster-management.io状态是健康。
-
备份存在验证
-
acm-managed-clusters-schedule-backups-available模板检查Backup.velero.io资源是否位于BackupStorageLocation.velero.io指定的位置上,以及备份是否由BackupSchedule.cluster.open-cluster-management.io资源创建。这验证了备份已至少运行一次,使用备份和恢复 Operator。
-
备份完成
-
acm-backup-in-progress-report模板检查Backup.velero.io资源是否处于InProgress状态。这个验证会被添加,因为带有大量资源,velero pod 会作为备份运行重启,备份会停留在不继续完成状态。在正常备份过程中,备份资源会在某一时间点进行,但不会被卡住并在完成运行。正常情况下,在调度运行时报告acm-backup-in-progress-report模板会在调度运行时报告警告并备份正在进行。
-
主动作为 cron 作业运行的备份
BackupSchedule.cluster.open-cluster-management.io主动运行并在存储位置保存新的备份。此验证通过backup-schedule-cron-enabled策略模板来完成。模板检查是否有带有velero.io/schedule-name: acm-validation-policy-schedule标签的Backup.velero.io。acm-validation-policy-schedule备份设置为在为备份 cron 调度设定时间后过期。如果没有创建备份的 cron 作业,旧的acm-validation-policy-schedule备份将被删除,因为它过期且没有创建新的备份。因此,如果在任何时间点上没有acm-validation-policy-schedule backups,这代表没有活跃的 cron 作业生成备份。此策略旨在帮助在 hub 集群活跃并生成或恢复备份时通知 hub 集群管理员。
1.5.9. 使用服务器端加密保护数据 复制链接链接已复制到粘贴板!
服务器端加密是应用程序或服务的数据加密,在存储位置接收数据。在传输过程中,备份机制本身不会加密数据(因为它会前往备份存储位置),或其他人(同时存储在备份存储位置的磁盘上)。它依赖于对象和快照系统中的原生机制。
最佳实践 :使用可用的备份存储服务器端加密数据。备份包含资源,如在 hub 集群外存储需要加密的凭证和配置文件。
您可以使用 serverSideEncryption 和 kmsKeyId 参数为存储在 Amazon S3 中的备份启用加密。如需了解更多详细信息,请参阅备份存储位置 YAML。以下示例指定在设置 DataProtectionApplication 资源时的 AWS KMS 密钥 ID:
请参阅 Velero 支持的存储供应商,以找出其它存储供应商的所有可配置参数。