监管
更多信息,了解更多有关监管策略框架的信息,这有助于使用策略强化集群安全性。
摘要
第 1 章 风险和合规性
管理 Red Hat Advanced Cluster Management for Kubernetes 组件的安全性。使用定义的策略和流程监管集群,以识别并最大程度降低风险。使用策略来定义规则和设置控制。
先决条件:您必须为 Red Hat Advanced Cluster Management for Kubernetes 配置身份验证服务要求。如需更多信息,请参阅 访问控制。
查看以下主题以了解有关保护集群的更多信息:
1.1. 证书
在整个 Red Hat Advanced Cluster Management for Kubernetes 范围内会创建和使用各种证书。
您可以自带证书。为您的证书创建 Kubernetes TLS Secret。创建证书后,您可以替换由 Red Hat Advanced Cluster Management 安装程序创建的某些证书。
所需访问权限:集群管理员或团队管理员。
注: 只有在 Red Hat Advanced Cluster Management 原生安装中才支持替换证书。
在 Red Hat Advanced Cluster Management 中运行的服务所需的所有证书都是在 Red Hat Advanced Cluster Management 安装过程中创建的。证书由 OpenShift 服务证书服务创建和管理。
您还可以轮转 OpenShift Service Serving 证书。如需更多信息,请按照 OpenShift 文档手动轮转生成的服务证书,并手动轮转服务 CA 证书。轮转完成后,使用以下命令将新证书应用到所有服务:
oc -n open-cluster-management delete pod -l chart=management-ingress
集群中的相关 pod 会自动重启。
继续阅读以了解有关证书管理的更多信息:
Red Hat Advanced Cluster Management hub 集群证书
Red Hat Advanced Cluster Management 组件证书
Red Hat Advanced Cluster Management 管理的证书
注意 :用户负责证书轮转和更新。
1.1.1. Red Hat Advanced Cluster Management hub 集群证书
1.1.1.1. Observability 证书
安装 Red Hat Advanced Cluster Management 后,会创建可观察性证书并供可观察组件使用,以便在 hub 集群和受管集群间的网络流量上提供 mutual TLS。与可观察证书关联的 Kubernetes secret。
open-cluster-management-observability
命名空间包含以下证书:
-
Observability-server-ca-certs
:获取 CA 证书来签署服务器端证书 -
Observability-client-ca-certs
:获取 CA 证书来签署客户端的证书 -
Observability-server-certs
:获取由observability-observatorium-api 部署使用的服务器证书
-
Observability-grafana-certs
:获取observability-rbac-query-proxy
部署使用的客户端证书
open-cluster-management-addon-observability
命名空间在受管集群中包含以下证书:
-
Observability-managed-cluster-certs
:与 hub 服务器中的observability-server-ca-certs
相同的服务器 CA 证书 -
observability-controller-open-cluster-management.io-observability-signer-client-cert
:由被metrics-collector-deployment
使用的客户证书
CA 证书的有效期为五年,其他证书的有效期为一年。所有可观察证书会在过期后自动刷新。
查看以下列表以了解证书自动更新时的影响:
- 当剩余的有效时间不超过 73 天时,非 CA 证书将自动续订。续订证书后,相关部署中的 Pod 会自动重启以使用更新的证书。
- 当剩余有效时间不超过一年时,CA 证书会被自动续订。证书被续订后,旧的 CA 不会被删除,而是与更新的 CA 共存。相关部署同时使用旧和更新的证书,并继续工作。旧的 CA 证书在过期时会被删除。
- 当证书被续订时,hub 集群和受管集群之间的流量不会中断。
1.1.1.2. 使用您自己的 (BYO) 可观察证书认证机构 (CA) 证书
如果您不想使用 Red Hat Advanced Cluster Management 生成的默认可观察性 CA 证书,您可以在启用可观察性前选择使用 BYO observability CA 证书。
1.1.1.2.1. 用于生成 CA 证书的 OpenSSL 命令
Observability 需要两个 CA 证书;一个用于服务器端,另一个用于客户端。
使用以下命令生成您的 CA RSA 私钥:
openssl genrsa -out serverCAKey.pem 2048 openssl genrsa -out clientCAKey.pem 2048
使用私钥生成自签名 CA 证书。运行以下命令:
openssl req -x509 -sha256 -new -nodes -key serverCAKey.pem -days 1825 -out serverCACert.pem openssl req -x509 -sha256 -new -nodes -key clientCAKey.pem -days 1825 -out clientCACert.pem
1.1.1.2.2. 创建与 BYO observability CA 证书关联的 secret
完成以下步骤以创建 secret:
使用您的证书和私钥创建
observability-server-ca-certs
secret。运行以下命令:oc -n open-cluster-management-observability create secret tls observability-server-ca-certs --cert ./serverCACert.pem --key ./serverCAKey.pem
使用您的证书和私钥创建
observability-client-ca-certs
secret。运行以下命令:oc -n open-cluster-management-observability create secret tls observability-client-ca-certs --cert ./clientCACert.pem --key ./clientCAKey.pem
1.1.1.2.3. 替换 alertmanager 路由的证书
如果您不想使用 OpenShift 默认入口证书,您可以通过更新 alertmanager 路由来替换 alertmanager 证书。完成以下步骤:
使用以下命令检查可观察证书:
openssl x509 -noout -text -in ./observability.crt
-
将证书上的通用名称 (
CN
) 更改为alertmanager
。 -
使用 alertmanager 路由的主机名更改
csr.cnf
配置文件中的 SAN。 在
open-cluster-management-observability
命名空间中创建以下两个 secret。运行以下命令:oc -n open-cluster-management-observability create secret tls alertmanager-byo-ca --cert ./ca.crt --key ./ca.key oc -n open-cluster-management-observability create secret tls alertmanager-byo-cert --cert ./ingress.crt --key ./ingress.key
如需更多信息,请参阅 OpenSSL 命令以生成证书。如果要恢复 alertmanager 路由的默认自签名证书,请参阅为管理 ingress 恢复默认自签名证书以删除 open-cluster-management-observability
命名空间中的两个 secret。
1.1.2. Red Hat Advanced Cluster Management 组件证书
1.1.2.1. 列出 hub 集群受管证书
您可以查看在内部使用 OpenShift Service Serving 证书服务的 hub 集群受管证书列表。运行以下命令列出证书:
oc get secret -n open-cluster-management -o custom-columns=Name:.metadata.name,Expiration:.metadata.annotations.service\\.beta\\.openshift\\.io/expiry | grep -v '<none>'
注:如果启用了可观察性,则还需要额外的命名空间来创建证书。
1.1.2.2. 刷新 hub 集群受管证书
您可以通过在 List hub 集群受管证书中运行 命令来刷新 hub 集群受管证书。当您标识需要刷新的证书时,删除与该证书关联的 secret。例如,您可以运行以下命令删除 secret:
oc delete secret grc-0c925-grc-secrets -n open-cluster-management
注:删除 secret 后会创建一个新 secret。但是,您必须手动重启使用该 secret 的 pod,以便它们能够开始使用新证书。
1.1.2.3. 刷新 OpenShift Container Platform 受管证书
您可以刷新 OpenShift Container Platform 受管证书,它们是 Red Hat Advanced Cluster Management Webhook 和代理服务器使用的证书。
完成以下步骤以刷新 OpenShift Container Platform 受管证书:
运行以下命令,删除与 OpenShift Container Platform 受管证书关联的 secret:
oc delete secret -n open-cluster-management ocm-webhook-secret
注: 有些服务可能没有需要删除的 secret。
运行以下命令,重启与 OpenShift Container Platform 受管证书关联的服务:
oc delete po -n open-cluster-management ocm-webhook-679444669c-5cg76
重要 :许多服务都有副本;每个服务都需要重启。
查看下表,了解包含证书的 pod 概述列表,以及是否需要在重启 pod 前删除 secret 的信息:
服务名称 | Namespace | pod 名称示例 | Secret 名称(如果适用) |
---|---|---|---|
channels-apps-open-cluster-management-webhook-svc | open-cluster-management | multicluster-operators-application-8c446664c-5lbfk | - |
multicluster-operators-application-svc | open-cluster-management | multicluster-operators-application-8c446664c-5lbfk | - |
multiclusterhub-operator-webhook | open-cluster-management | multiclusterhub-operator-bfd948595-mnhjc | - |
ocm-webhook | open-cluster-management | ocm-webhook-679444669c-5cg76 | ocm-webhook-secret |
cluster-manager-registration-webhook | open-cluster-management-hub | cluster-manager-registration-webhook-fb7b99c-d8wfc | registration-webhook-serving-cert |
cluster-manager-work-webhook | open-cluster-management-hub | cluster-manager-work-webhook-89b8d7fc-f4pv8 | work-webhook-serving-cert |
1.1.3. Red Hat Advanced Cluster Management 管理的证书
1.1.3.1. 频道证书
CA 证书可与作为 Red Hat Advanced Cluster Management 应用程序管理一部分的 Git 频道关联。如需了解更多详细信息,请参阅使用自定义 CA 证书进行安全 HTTPS 连接。
Helm 频道允许您禁用证书验证。禁用证书验证的 Helm 频道,必须在开发环境中配置。禁用证书验证会带来安全隐患。
1.1.3.2. 受管集群证书
证书用于使用 hub 验证受管集群。因此,了解与这些证书关联的故障排除方案非常重要。如需了解更多详细信息,请参阅 证书更改后离线导入的集群。
受管集群证书会自动刷新。
1.1.4. 第三方证书
1.1.4.1. 轮转 gatekeeper Webhook 证书
完成以下步骤以轮转 gatekeeper Webhook 证书:
使用以下命令编辑包含证书的 secret:
oc edit secret -n openshift-gatekeeper-system gatekeeper-webhook-server-cert
-
删除
data
部分中的以下内容:ca.crt
、ca.key
、tls.crt' 和tls.key
。 使用以下命令删除
gatekeeper-controller-manager
pod 来重启 gatekeeper Webhook 服务:oc delete po -n openshift-gatekeeper-system -l control-plane=controller-manager
gatekeeper Webhook 证书被轮转。
1.1.4.2. 轮转完整性 shield Webhook 证书(技术预览)
完成以下步骤以轮转完整性 shield Webhook 证书:
编辑 IntegrityShield 自定义资源,把
integrity-shield-operator-system
命名空间添加到inScopeNamespaceSelector
设置中的命名空间排除列表中。运行以下命令编辑资源:oc edit integrityshield integrity-shield-server -n integrity-shield-operator-system
运行以下命令,删除包含 shield 证书的 secret:
oc delete secret -n integrity-shield-operator-system ishield-server-tls
删除 Operator,以便重新创建 secret。确保 Operator pod 名称与系统中的 pod 名称匹配。运行以下命令:
oc delete po -n integrity-shield-operator-system integrity-shield-operator-controller-manager-64549569f8-v4pz6
删除完整 shield 服务器 pod,以使用以下命令开始使用新证书:
oc delete po -n integrity-shield-operator-system integrity-shield-server-5fbdfbbbd4-bbfbz
在受管集群中使用证书策略控制器来创建和管理证书策略。请参阅策略控制器以了解更多有关控制器的信息。返回到风险和合规页面以了解更多信息。
1.2. 替换管理入口证书
如果您不想使用 OpenShift 默认入口证书,您可以通过更新 Red Hat Advanced Cluster Management for Kubernetes 路由来替换管理入口证书。
1.2.1. 替换管理入口证书的先决条件
将您的 management-ingress
证书和私钥准备妥当。如果需要,您可以使用 OpenSSL 生成 TLS 证书。将证书上的通用名称参数 CN
设置为 manangement-ingress
。如果您要生成证书,请加入以下设置:
在您的证书主题备用名称(SAN)列表中包括 Red Hat Advanced Cluster Management for Kubernetes 的路由名称作为域名。
运行以下命令来接收路由名称:
oc get route -n open-cluster-management
您可能会收到以下响应:
multicloud-console.apps.grchub2.dev08.red-chesterfield.com
1.2.1.1. 用于生成证书的示例配置文件
以下示例配置文件和 OpenSSL 命令提供了有关如何使用 OpenSSL 生成 TLS 证书的示例。查看以下 csr.cnf
配置文件,该文件定义了用来使用 OpenSSL 生成证书的配置设置。
[ req ] # Main settings default_bits = 2048 # Default key size in bits. prompt = no # Disables prompting for certificate values so the configuration file values are used. default_md = sha256 # Specifies the digest algorithm. req_extensions = req_ext # Specifies the configuration file section that includes any extensions. distinguished_name = dn # Specifies the section that includes the distinguished name information. [ dn ] # Distinguished name settings C = US # Country ST = North Carolina # State or province L = Raleigh # Locality O = Red Hat Open Shift # Organization OU = Red Hat Advanced Container Management # Organizational unit CN = management-ingress # Common name. [ req_ext ] # Extensions subjectAltName = @alt_names # Subject alternative names [ alt_names ] # Subject alternative names DNS.1 = multicloud-console.apps.grchub2.dev08.red-chesterfield.com [ v3_ext ] # x509v3 extensions authorityKeyIdentifier=keyid,issuer:always # Specifies the public key that corresponds to the private key that is used to sign a certificate. basicConstraints=CA:FALSE # Indicates whether the certificate is a CA certificate during the certificate chain verification process. #keyUsage=keyEncipherment,dataEncipherment # Defines the purpose of the key that is contained in the certificate. extendedKeyUsage=serverAuth # Defines the purposes for which the public key can be used. subjectAltName=@alt_names # Identifies the subject alternative names for the identify that is bound to the public key by the CA.
备注:请必使用您的管理入口的正确主机名更新标记的 SAN,即 DNS.1
。
1.2.1.2. 用于生成证书的 OpenSSL 命令
以下 OpenSSL 命令与上述配置文件一同用来生成所需的 TLS 证书。
生成您的证书颁发机构 (CA) RSA 私钥:
openssl genrsa -out ca.key 4096
使用您的 CA 密钥生成自签名 CA 证书:
openssl req -x509 -new -nodes -key ca.key -subj "/C=US/ST=North Carolina/L=Raleigh/O=Red Hat OpenShift" -days 400 -out ca.crt
为您的证书生成 RSA 私钥:
openssl genrsa -out ingress.key 4096
使用私钥生成证书签名请求 (CSR):
openssl req -new -key ingress.key -out ingress.csr -config csr.cnf
使用您的 CA 证书和密钥及 CSR 生成签名证书:
openssl x509 -req -in ingress.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out ingress.crt -sha256 -days 300 -extensions v3_ext -extfile csr.cnf
检查证书内容:
openssl x509 -noout -text -in ./ingress.crt
1.2.2. 替换自带 (BYO) 入口证书
完成以下步骤以替换您的 BYO 入口证书:
使用您的证书和私钥创建
byo-ingress-tls
secret。运行以下命令:oc -n open-cluster-management create secret tls byo-ingress-tls-secret --cert ./ingress.crt --key ./ingress.key
使用以下命令验证是否在正确的命名空间中创建了 secret:
oc get secret -n open-cluster-management | grep -e byo-ingress-tls-secret -e byo-ca-cert
可选:运行以下命令,创建包含 CA 证书的 secret:
oc -n open-cluster-management create secret tls byo-ca-cert --cert ./ca.crt --key ./ca.key
删除
management-ingress
订阅以重新部署订阅。前面步骤中创建的 secret 会被自动使用。运行以下命令:oc delete subscription management-ingress-sub -n open-cluster-management
- 验证当前证书是您的证书,并且所有控制台访问和登录功能保持不变。
1.2.3. 恢复管理入口的默认自签名证书
使用以下命令删除您自己的证书 secret:
oc delete secret byo-ca-cert byo-ingress-tls-secret -n open-cluster-management
删除
management-ingress
订阅以重新部署订阅。前面步骤中创建的 secret 会被自动使用。运行以下命令:oc delete subscription management-ingress-sub -n open-cluster-management
- 验证当前证书是您的证书,并且所有控制台访问和登录功能保持不变。
如需有关由 Red Hat Advanced Cluster Management 创建和管理的证书的更多信息,请参阅证书。返回到风险和合规页面以了解更多有关保护集群的信息。
第 2 章 监管
对于在私有云、多云和混合云环境中部署的工作负载,企业必须满足内部对软件工程、安全工程、弹性、安全性以及规范标准的要求。Red Hat Advanced Cluster Management for Kubernetes 监管功能为企业引进自己的安全策略提供了一个可扩展的策略框架。
2.1. 监管架构
使用 Red Hat Advanced Cluster Management for Kubernetes 监管声明周期来增强集群的安全性。产品监管生命周期基于定义的策略、流程和程序,以便可以通过一个中央接口页面来管理安全性和合规性。参阅以下监管架构图:
监管架构由以下组件组成:
监管仪表板:提供云监管和风险详情的概述信息,其中包括策略和集群违反情况。
备注:
-
当策略传播到受管集群时,复制策略会命名为
namespaceName.policyName
。创建策略时,请确保namespaceName.policyName
的长度不得超过 63 个字符,因为 Kubernetes 对对象名称有限制。 -
当您在 hub 集群中搜索策略时,您可能还会在受管集群上收到复制策略的名称。例如,如果搜索
policy-dhaz-cert
,则可能出现来自 hub 集群中的以下策略名称:default.policy-dhaz-cert
。
-
当策略传播到受管集群时,复制策略会命名为
基于策略的监管框架: 支持根据与集群关联的属性(如一个地区)支持策略创建和部署到各种受管集群。请参阅
policy-collection
存储库,以查看预定义的策略示例,以及向集群部署策略的说明。您还可以贡献自定义策略控制器和策略。违反策略时,可将自动化配置为运行并采取用户选择的任何操作。如需更多信息,请参阅配置 Ansible Tower 用于监管。使用
policy_governance_info
指标查看趋势并分析任何策略故障。如需了解更多详细信息,请参阅监管指标。- 策略控制器:根据您的指定控制在受管集群中评估一个或多个策略,并为违反行为生成 Kubernetes 事件。违反行为会被传播到 hub 集群中。安装中包含的策略控制器如下: Kubernetes 配置、证书和 IAM。您还可以创建自定义策略控制器。
-
开源社区:在 Red Hat Advanced Cluster Management 策略框架的基础上支持社区贡献。策略控制器和第三方策略也是 s
tolostron/policy-collection 存储库的一部分
。了解如何使用 GitOps 贡献和部署策略。如需更多信息,请参阅使用 GitOps 部署策略。了解如何将第三方策略与 Red Hat Advanced Cluster Management for Kubernetes 集成。如需更多信息,请参阅集成第三方策略控制器。
了解 Red Hat Advanced Cluster Management for Kubernetes 策略的结构,以及如何使用 Red Hat Advanced Cluster Management for Kubernetes 监管仪表板。
2.2. 策略概述
使用 Red Hat Advanced Cluster Management for Kubernetes 安全策略框架,以创建自定义策略控制器和其他策略。Kubernetes 自定义资源定义(CRD)实例用于创建策略。有关 CRD 的更多信息,请参阅使用 CustomResourceDefinitions 扩展 Kubernetes API。
每个 Red Hat Advanced Cluster Management for Kubernetes 策略可以至少有一个或多个模板。有关策略元素的更多详情,请参阅本页面的以下策略 YAML 表部分。
策略需要一个 PlacementRule 或 Placement,用于定义策略文档应用到的集群,以及将 Red Hat Advanced Cluster Management for Kubernetes 策略绑定到放置规则的 PlacementBinding。有关如何定义 PlacementRule
的更多信息,请参阅应用程序生命周期文档中的 放置规则。有关如何定义 放置
的更多信息,请参阅集群生命周期文档中的 放置概述。
重要:
您必须创建
PlacementBinding
,并将它与PlacementRule
或Placement
关联。最佳实践 :在使用
Placement
资源时,使用命令行界面(CLI) 来更新策略。- 除集群命名空间外,您可在 hub 集群上的任意命名空间中创建策略。如果在集群命名空间中创建策略,则 Red Hat Advanced Cluster Management for Kubernetes 会将其删除。
- 每个客户端和供应商负责确保其受管云环境满足适用于 Kubernetes 集群上托管的工作负载的内部软件工程、安全工程、弹性、安全性以及合规性企业安全标准。使用监管和安全功能来提高可见性并对配置进行修复,以满足标准。
在以下部分了解更多有关策略组件的详细信息:
2.2.1. 策略 YAML 结构
创建策略时,必须包含所需的参数字段和值。根据您的策略控制器,您可能需要包含其他可选字段和值。查看解释的参数字段的以下 YAML 结构:
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: annotations: policy.open-cluster-management.io/standards: policy.open-cluster-management.io/categories: policy.open-cluster-management.io/controls: spec: policy-templates: - objectDefinition: apiVersion: kind: metadata: name: spec: remediationAction: disabled: --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: placementRef: name: kind: apiGroup: subjects: - name: kind: apiGroup: --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: spec: clusterConditions: - type: clusterLabels: matchLabels: cloud:
2.2.2. 策略 YAML 表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.annotations | 可选。用于指定一组描述策略试图验证的标准集合的安全详情。这里介绍的所有注解都以逗号分隔的字符串表示。注:您可以在控制台中根据您在策略页面上为策略定义的标准和类别查看策略违反。 |
annotations.policy.open-cluster-management.io/standards | 与策略相关的安全标准的名称。例如,美国国家标准与技术研究院 (NIST) 和支付卡行业 (PCI)。 |
annotations.policy.open-cluster-management.io/categories | 安全控制类别是针对一个或多个标准的具体要求。例如,系统和信息完整性类别可能表明您的策略包含一个数据传输协议来保护个人信息,符合 HIPAA 和 PCI 标准的要求。 |
annotations.policy.open-cluster-management.io/controls | 正在接受检查的安全控制名称。例如,证书策略控制器。 |
spec.policy-templates | 必需。用于创建一个或多个应用到受管集群的策略。 |
spec.disabled |
必需。将值设为 |
spec.remediationAction |
可选。指定您的策略的修复。参数值是 |
2.2.3. 策略示例文件
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-role annotations: policy.open-cluster-management.io/standards: NIST SP 800-53 policy.open-cluster-management.io/categories: AC Access Control policy.open-cluster-management.io/controls: AC-3 Access Enforcement spec: remediationAction: inform disabled: false policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-role-example spec: remediationAction: inform # the policy-template spec.remediationAction is overridden by the preceding parameter value for spec.remediationAction. severity: high namespaceSelector: exclude: ["kube-*"] include: ["default"] object-templates: - complianceType: mustonlyhave # role definition should exact match objectDefinition: apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: sample-role rules: - apiGroups: ["extensions", "apps"] resources: ["deployments"] verbs: ["get", "list", "watch", "delete","patch"] --- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-policy-role placementRef: name: placement-policy-role kind: PlacementRule apiGroup: apps.open-cluster-management.io subjects: - name: policy-role kind: Policy apiGroup: policy.open-cluster-management.io --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-policy-role spec: clusterConditions: - status: "True" type: ManagedClusterConditionAvailable clusterSelector: matchExpressions: - {key: environment, operator: In, values: ["dev"]}
2.2.4. 放置 YAML 示例文件
PlacementBinding
和 Placement
资源可以与上一策略示例结合使用,以使用集群 Placement
API 而非 PlacementRule
API 部署策略。
--- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-policy-role placementRef: name: placement-policy-role kind: Placement apiGroup: cluster.open-cluster-management.io subjects: - name: policy-role kind: Policy apiGroup: policy.open-cluster-management.io --- apiVersion: cluster.open-cluster-management.io/v1alpha1 kind: Placement metadata: name: placement-policy-role spec: predicates: - requiredClusterSelector: labelSelector: matchExpressions: - {key: environment, operator: In, values: ["dev"]}
请参阅管理安全策略以创建和更新策略。您还可以启用和更新 Red Hat Advanced Cluster Management 策略控制器,以验证您的策略合规性。请参阅策略控制器。
要了解更多策略主题,请参阅监管。
2.3. 策略控制器
策略控制器监控并报告集群是否合规。通过开箱即用的策略模板应用预定义策略控制器和策略,以使用 Red Hat Advanced Cluster Management for Kubernetes 策略框架。策略控制器是 Kubernetes 自定义资源定义(CRD)实例。
有关 CRD 的更多信息,请参阅使用 CustomResourceDefinitions 扩展 Kubernetes API。策略控制器会修复策略违反情况,以使集群状态兼容。
您可以使用产品策略框架创建自定义策略和策略控制器。如需更多信息,请参阅 创建自定义策略控制器(已弃用)。
查看以下主题以了解有关以下 Red Hat Advanced Cluster Management for Kubernetes 策略控制器的更多信息:
重要 :只有配置策略控制器策略支持 enforce
功能。当策略控制器不支持 enforce
功能时,您必须手动修复策略。
有关管理您的策略的更多主题,请参阅监管。
2.3.1. Kubernetes 配置策略控制器
配置策略控制器可用于配置任何 Kubernetes 资源,并在集群中应用安全策略。
配置策略控制器与本地 Kubernetes API 服务器通信,以获取集群中的配置列表。有关 CRD 的更多信息,请参阅使用 CustomResourceDefinitions 扩展 Kubernetes API。
配置策略控制器是在安装过程中在 hub 集群上创建的。配置策略控制器支持 enforce
功能并监控以下策略的合规性:
当将配置策略的 remediationAction
设置为 enforce
时,控制器会在目标受管集群上创建副本策略。您还可以在配置策略中使用模板。如需更多信息,请参阅配置策略中的模板支持。
继续读取以了解更多有关配置策略控制器的信息:
2.3.1.1. 配置策略控制器 YAML 结构
Name: configuration-policy-example Namespace: Labels: APIVersion: policy.open-cluster-management.io/v1 Kind: ConfigurationPolicy Metadata: Finalizers: finalizer.policy.open-cluster-management.io Spec: Conditions: Ownership: NamespaceSelector: Exclude: Include: RemediationAction: Status: CompliancyDetails: Configuration-Policy-Example: Default: Kube - Public: Compliant: Compliant Events:
2.3.1.2. 配置策略示例
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-config spec: namespaceSelector: include: ["default"] exclude: [] remediationAction: inform severity: low object-templates: - complianceType: musthave objectDefinition: apiVersion: v1 kind: Pod metadata: name: pod spec: containers: - image: 'pod-image' name: ports: - containerPort: 80
2.3.1.3. 配置策略 YAML 标
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。策略的名称。 |
spec | 必需。有关监控哪些配置策略以及如何进行修复的规格。 |
spec.namespace |
命名空间对象或资源是必需的。策略应用到的 hub 集群中的命名空间。至少为 |
spec.remediationAction |
必需。指定您的策略的修复。输入 |
spec.remediationAction.severity |
必需。当策略不合规时,指定严重性。使用以下参数值: |
spec.remediationAction.complianceType | 必需。用于列出必须被评估或应用到受管集群的角色的预期行为和任何 Kubernetes 对象。您必须使用以下操作动词作为参数值:
|
请参阅 CM-Configuration-Management
文件夹的 Red Hat Advanced Cluster Management 使用 NIST Special Publication 800-53(Rev. 4) 的策略示例。了解策略如何应用到您的 hub 集群,请参阅支持的策略以了解更多详细信息。
2.3.2. 证书策略控制器
证书策略控制器可以用来检测快要到期的证书,并检测时间太长(小时)或包含无法与指定模式匹配的 DNS 名称。
通过更新控制器策略中的以下参数来配置和自定义证书策略控制器:
-
minimumDuration
-
minimumCADuration
-
maximumDuration
-
maximumCADuration
-
allowedSANPattern
-
disallowedSANPattern
由于以下情况之一,您的策略可能会变得不合规:
- 当证书过期的时间少于最短持续时间,或超过最长时间时。
- 当 DNS 名称与指定模式匹配时。
证书策略控制器是在受管集群上创建的。控制器与本地 Kubernetes API 服务器通信,以获取包含证书的 secret 列表,并确定所有不合规的证书。有关 CRD 的更多信息,请参阅使用 CustomResourceDefinitions 扩展 Kubernetes API。
证书策略控制器不支持 enforce
功能。
2.3.2.1. 证书策略控制器 YAML 结构
查看证书策略的以下示例,并查看 YAML 表中的元素:
apiVersion: policy.open-cluster-management.io/v1 kind: CertificatePolicy metadata: name: certificate-policy-example namespace: labels: category=system-and-information-integrity spec: namespaceSelector: include: ["default"] exclude: ["kube-*"] remediationAction: severity: minimumDuration: minimumCADuration: maximumDuration: maximumCADuration: allowedSANPattern: disallowedSANPattern:
2.3.2.1.1. 证书策略控制器 YAML 表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略的名称。 |
metadata.namespace | 必需。创建了策略的受管集群内命名空间。 |
metadata.labels |
可选。在证书策略中, |
spec | 必需。有关要监控和刷新哪些证书的规格。 |
spec.namespaceSelector |
必需。要将策略应用到的受管集群命名空间。输入
• 当您创建多个证书策略并将其应用到同一受管集群时,必须为每个策略
• 如果证书策略控制器的 |
spec.remediationAction |
必需。指定您的策略的修复。将参数值设置为 |
spec.severity |
可选。当策略不合规时,会告知用户的严重性。使用以下参数值: |
spec.minimumDuration |
必需。如果没有指定值,则默认为 |
spec.minimumCADuration |
可选。设定一个与其他证书不同的值来标识可能很快过期的签名证书。如果没有指定参数值,则 CA 证书过期时间作为 |
spec.maximumDuration | 可选。指定一个值来标识创建的时间超过您所期望的限制值的证书。参数使用 Golang 的持续时间格式。如需更多信息,请参阅 Golang 解析持续时间。 |
spec.maximumCADuration | 可选。创建一个值来标识创建的时间超过您定义的限制值的签名的证书。参数使用 Golang 的持续时间格式。如需更多信息,请参阅 Golang 解析持续时间。 |
spec.allowedSANPattern | 可选。正则表达式,必须与您证书中定义的每个 SAN 条目匹配。这个参数会根据特征检查 DNS 名称。如需更多信息,请参阅 Golang 郑则表达式语法。 |
spec.disallowedSANPattern |
可选。正则表达式,不能与证书中定义的任何 SAN 条目匹配。这个参数根据模式检查 DNS 名称。 如需更多信息,请参阅 Golang 郑则表达式语法。 |
2.3.2.2. 证书策略示例
当在 hub 集群上创建证书策略控制器时,会在受管集群上创建复制策略。请参阅 policy-certificate.yaml
查看证书策略示例。
2.3.3. IAM 策略控制器
Identity and Access Management (IAM) 策略控制器可以用来接收有关不合规的 IAM 策略的通知。合规性检查是基于您在 IAM 策略中配置的参数。
IAM 策略控制器监控集群中具有特定集群角色(例如 ClusterRole
)所需的最大数量用户数。要监控的默认集群角色是 cluster-admin
。IAM 策略控制器与本地 Kubernetes API 服务器通信。如需更多信息,请参阅使用 CustomResourceDefinitions 扩展 Kubernetes API。
IAM 策略控制器在您的受管集群上运行。查看以下部分以了解更多信息:
2.3.3.1. IAM 策略 YAML 结构
查看 IAM 策略的以下示例,并查看 YAML 表中的参数:
apiVersion: policy.open-cluster-management.io/v1 kind: IamPolicy metadata: name: spec: clusterRole: severity: remediationAction: maxClusterRoleBindingUsers: ignoreClusterRoleBindings:
2.3.3.2. IAM 策略 YAML 表
查看以下参数表以获详细信息:
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
spec | 必需。添加策略的配置详情。 |
spec.clusterRole |
可选。要监控的集群角色(如 |
spec.severity |
可选。当策略不合规时,会告知用户的严重性。使用以下参数值: |
spec.remediationAction |
可选。指定您的策略的修复。输入 |
spec.ignoreClusterRoleBindings |
可选。正则表达式(regex)值列表,指示要忽略的集群角色绑定名称。这些正则表达式值必须遵循 Go regexp 语法。默认情况下,所有具有以 |
spec.maxClusterRoleBindingUsers | 必需。在策略被视为不合规前可用的 IAM rolebinding 的最大数量。 |
2.3.3.3. IAM 策略示例
请参阅 policy-limitclusteradmin.yaml
查看 IAM 策略示例。如需更多信息,请参阅管理安全策略。
有关更多主题,请参阅策略控制器。
2.3.4. 创建自定义策略控制器(已弃用)
了解如何编写、应用、查看和更新您的自定义策略控制器。您可以为策略控制器创建 YAML 文件,以部署到集群中。查看以下部分以创建策略控制器:
2.3.4.1. 编写一个策略控制器
使用位于 governance-policy-framework
存储库中的策略控制器框架。完成以下步骤来创建策略控制器:
运行以下命令克隆
governance-policy-framework
存储库:git clone git@github.com:stolostron/governance-policy-framework.git
通过更新策略模式定义自定义控制器策略。您的策略可能类似以下内容:
metadata: name: samplepolicies.policies.open-cluster-management.io spec: group: policy.open-cluster-management.io names: kind: SamplePolicy listKind: SamplePolicyList plural: samplepolicies singular: samplepolicy
更新策略控制器以监视
SamplePolicy
kind。运行以下命令:for file in $(find . -name "*.go" -type f); do sed -i "" "s/SamplePolicy/g" $file; done for file in $(find . -name "*.go" -type f); do sed -i "" "s/samplepolicy-controller/samplepolicy-controller/g" $file; done
通过完成以下步骤重新编译并运行策略控制器:
- 登录到您的集群。
- 选择用户图标,然后点击 Configure client。
- 将配置信息复制并粘贴到您的命令行中,然后按 Enter 键。
运行以下命令以应用您的策略 CRD 并启动控制器:
export GO111MODULE=on kubectl apply -f deploy/crds/policy.open-cluster-management.io_samplepolicies_crd.yaml export WATCH_NAMESPACE=<cluster_namespace_on_hub> go run cmd/manager/main.go
您可能会收到以下输出来表示控制器在运行:
{“level”:”info”,”ts”:1578503280.511274,”logger”:”controller-runtime.manager”,”msg”:”starting metrics server”,”path”:”/metrics”} {“level”:”info”,”ts”:1578503281.215883,”logger”:”controller-runtime.controller”,”msg”:”Starting Controller”,”controller”:”samplepolicy-controller”} {“level”:”info”,”ts”:1578503281.3203468,”logger”:”controller-runtime.controller”,”msg”:”Starting workers”,”controller”:”samplepolicy-controller”,”worker count”:1} Waiting for policies to be available for processing…
创建策略,验证控制器是否已检索策略,并在集群中应用策略。运行以下命令:
kubectl apply -f deploy/crds/policy.open-cluster-management.io_samplepolicies_crd.yaml
应用策略时,会出现一条消息来指示您的自定义控制器监控并检测到策略。这个信息可能类似以下内容:
{"level":"info","ts":1578503685.643426,"logger":"controller_samplepolicy","msg":"Reconciling SamplePolicy","Request.Namespace":"default","Request.Name":"example-samplepolicy"} {"level":"info","ts":1578503685.855259,"logger":"controller_samplepolicy","msg":"Reconciling SamplePolicy","Request.Namespace":"default","Request.Name":"example-samplepolicy"} Available policies in namespaces: namespace = kube-public; policy = example-samplepolicy namespace = default; policy = example-samplepolicy namespace = kube-node-lease; policy = example-samplepolicy
运行以下命令,检查
status
字段中的合规详情:kubectl describe SamplePolicy example-samplepolicy -n default
您的输出可能类似以下内容:
status: compliancyDetails: example-samplepolicy: cluster-wide: - 5 violations detected in namespace `cluster-wide`, there are 0 users violations and 5 groups violations default: - 0 violations detected in namespace `default`, there are 0 users violations and 0 groups violations kube-node-lease: - 0 violations detected in namespace `kube-node-lease`, there are 0 users violations and 0 groups violations kube-public: - 1 violations detected in namespace `kube-public`, there are 0 users violations and 1 groups violations compliant: NonCompliant
更改策略规则和策略逻辑,为您的策略控制器引入新规则。完成以下步骤:
通过更新
SamplePolicySpec
在 YAML 文件中添加新字段 。您的规格应该和以下类似:spec: description: SamplePolicySpec defines the desired state of SamplePolicy properties: labelSelector: additionalProperties: type: string type: object maxClusterRoleBindingGroups: type: integer maxClusterRoleBindingUsers: type: integer maxRoleBindingGroupsPerNamespace: type: integer maxRoleBindingUsersPerNamespace: type: integer
-
使用新字段更新 samplepolicy_controller.go 中的
SamplePolicySpec
结构。 -
使用新的路径更新
samplepolicy_controller.go
文件中的PeriodicallyExecSamplePolicies
函数来运行策略控制器。查看PeriodicallyExecSamplePolicies
字段的示例,请参阅 stolostron/multicloud-operators-policy-controller。 - 重新编译并运行策略控制器。请参阅编写策略控制器
您的策略控制器可以正常工作。
2.3.4.2. 将控制器部署到集群中
将自定义策略控制器部署到集群,并将策略控制器与监管仪表板集成。完成以下步骤:
运行以下命令构建策略控制器镜像:
make build docker build . -f build/Dockerfile -t <username>/multicloud-operators-policy-controller:latest
运行以下命令将镜像推送到您选择的仓库中。例如,运行以下命令将镜像 push 到 Docker Hub:
docker login docker push <username>/multicloud-operators-policy-controller
-
配置
kubectl
以指向由 Red Hat Advanced Cluster Management for Kubernetes 管理的集群。 替换 operator 清单以使用内置镜像名称,并更新命名空间以监视策略。命名空间必须是集群的命名空间。您的清单可能类似以下内容:
sed -i "" 's|stolostron/multicloud-operators-policy-controller|ycao/multicloud-operators-policy-controller|g' deploy/operator.yaml sed -i "" 's|value: default|value: <namespace>|g' deploy/operator.yaml
运行以下命令更新 RBAC 角色:
sed -i "" 's|samplepolicies|testpolicies|g' deploy/cluster_role.yaml sed -i "" 's|namespace: default|namespace: <namespace>|g' deploy/cluster_role_binding.yaml
将策略控制器部署到集群中:
运行以下命令为集群设置服务帐户:
kubectl apply -f deploy/service_account.yaml -n <namespace>
运行以下命令来为 operator 创建 RBAC:
kubectl apply -f deploy/role.yaml -n <namespace> kubectl apply -f deploy/role_binding.yaml -n <namespace>
为您的策略控制器设置 RBAC。运行以下命令:
kubectl apply -f deploy/cluster_role.yaml kubectl apply -f deploy/cluster_role_binding.yaml
运行以下命令来设置自定义资源定义(CRD):
kubectl apply -f deploy/crds/policies.open-cluster-management.io_samplepolicies_crd.yaml
运行以下命令来部署
multicloud-operator-policy-controller
:kubectl apply -f deploy/operator.yaml -n <namespace>
运行以下命令验证控制器是否正常工作:
kubectl get pod -n <namespace>
-
您必须通过为控制器创建一个
策略模板
来集成您的策略控制器。如需更多信息,请参阅从控制台创建集群安全策略。
2.3.4.2.1. 扩展控制器部署
策略控制器部署不支持删除。您可以扩展部署,以更新部署应用到哪些 pod。完成以下步骤:
- 登录到受管集群。
- 导航到自定义策略控制器的部署。
- 扩展部署。当将部署扩展到零个 pod 时,策略控制程序部署将被禁用。
如需有关部署的更多信息,请参阅 OpenShift Container Platform 部署。
您的策略控制器已部署并在集群中集成。如需更多信息,请参阅策略控制器。
2.4. 集成第三方策略控制器
集成第三方策略,在策略模板中创建自定义注解,以指定一个或多个合规标准、控制类别和控制。
您还可以使用来自 policy-collection/community 中的第三方策略。
了解如何集成以下第三方策略:
2.4.1. 集成 gatekeeper 约束和约束模板
Gatekeeper 是一个验证 webhook,它强制执行基于自定义资源定义(CRD)的策略,该策略与 Open Policy Agent(OPA)一起运行。您可以使用 gatekeeper operator 策略在集群中安装 gatekeeper。Gatekeeper 策略可用于评估 Kubernetes 资源合规性。您可以使用 OPA 作为策略引擎,并使用 Rego 作为策略语言。
gatekeeper 策略在 Red Hat Advanced Cluster Management 中作为 Kubernetes 配置策略创建。Gatekeeper 策略包括约束模板(ConstraintTemplates
)和 Constraints
、审计模板和准入模板。如需更多信息,请参阅 Gatekeeper 上游存储库。
Red Hat Advanced Cluster Management 支持 Gatekeeper 版本 3.3.0,并在 Red Hat Advanced Cluster Management gatekeeper 策略中应用以下约束模板:
ConstraintTemplates
和约束: 使用policy-gatekeeper-k8srequiredlabels
策略在受管集群上创建 gatekeeper 约束模板。apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-gatekeeper-k8srequiredlabels spec: remediationAction: enforce # will be overridden by remediationAction in parent policy severity: low object-templates: - complianceType: musthave objectDefinition: apiVersion: templates.gatekeeper.sh/v1beta1 kind: ConstraintTemplate metadata: name: k8srequiredlabels spec: crd: spec: names: kind: K8sRequiredLabels validation: # Schema for the `parameters` field openAPIV3Schema: properties: labels: type: array items: string targets: - target: admission.k8s.gatekeeper.sh rego: | package k8srequiredlabels violation[{"msg": msg, "details": {"missing_labels": missing}}] { provided := {label | input.review.object.metadata.labels[label]} required := {label | label := input.parameters.labels[_]} missing := required - provided count(missing) > 0 msg := sprintf("you must provide labels: %v", [missing]) } - complianceType: musthave objectDefinition: apiVersion: constraints.gatekeeper.sh/v1beta1 kind: K8sRequiredLabels metadata: name: ns-must-have-gk spec: match: kinds: - apiGroups: [""] kinds: ["Namespace"] namespaces: - e2etestsuccess - e2etestfail parameters: labels: ["gatekeeper"]
audit 模板: 使用
policy-gatekeeper-audit
定期检查并评估为检测现有错误配置而强制执行的门管理器策略的现有资源。apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-gatekeeper-audit spec: remediationAction: inform # will be overridden by remediationAction in parent policy severity: low object-templates: - complianceType: musthave objectDefinition: apiVersion: constraints.gatekeeper.sh/v1beta1 kind: K8sRequiredLabels metadata: name: ns-must-have-gk status: totalViolations: 0
Admission 模板: 使用
policy-gatekeeper-admission
检查由 gatekeeper admission webhook 创建的错误配置:apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-gatekeeper-admission spec: remediationAction: inform # will be overridden by remediationAction in parent policy severity: low object-templates: - complianceType: mustnothave objectDefinition: apiVersion: v1 kind: Event metadata: namespace: openshift-gatekeeper-system # set it to the actual namespace where gatekeeper is running if different annotations: constraint_action: deny constraint_kind: K8sRequiredLabels constraint_name: ns-must-have-gk event_type: violation
如需了解更多详细信息,请参阅 policy-gatekeeper-sample.yaml
。
2.4.2. 策略生成器
策略生成器是 Red Hat Advanced Cluster Management for Kubernetes 应用程序生命周期订阅 GitOps 工作流的一部分,该工作流使用 Kustomize 生成 Red Hat Advanced Cluster Management for Kubernetes 策略。策略生成器从 Kubernetes 清单 YAML 文件构建 Red Hat Advanced Cluster Management for Kubernetes 策略,该文件通过用于配置它的 PolicyGenerator
清单 YAML 文件提供。策略生成器作为 Kustomize 生成器插件实施。有关 Kustomize 的更多信息,请参阅 Kustomize 文档。
此 Red Hat Advanced Cluster Management 版本捆绑的策略生成器版本为 v1.4.1。
2.4.2.1. 策略生成器功能
策略生成器及其与 Red Hat Advanced Cluster Management 应用程序生命周期 订阅的 GitOps 工作流通过 Red Hat Advanced Cluster Management 策略简化了 Kubernetes 资源对象分发到受管 OpenShift 集群的过程。特别是,使用策略生成器完成以下操作:
- 将任何 Kubernetes 清单文件转换为 Red Hat Advanced Cluster Management 配置策略。
- 在将输入 Kubernetes 清单插入到生成的 Red Hat Advanced Cluster Management 策略前对其进行补丁。
- 生成额外的配置策略,以便能够通过 Red Hat Advanced Cluster Management for Kubernetes 报告 Gatekeeper 和 Kyverno 策略违反情况。
2.4.2.2. 策略生成器配置结构
策略生成器是一个 Kustomize 生成器插件,它配置了一个 PolicyGenerator
kind 和 policy.open-cluster-management.io/v1
API 版本的清单。
要使用该插件,请首先在 kustomization.yaml
文件中添加一个 generators
部分。查看以下示例:
generators: - policy-generator-config.yaml
上例中引用的 policy-generator-config.yaml
文件是一个 YAML 文件,其中包含要生成的策略的说明。简单的策略生成器配置文件可能类似以下示例:
apiVersion: policy.open-cluster-management.io/v1 kind: PolicyGenerator metadata: name: config-data-policies policyDefaults: namespace: policies policies: - name: config-data manifests: - path: configmap.yaml
configmap.yaml
代表要包含在策略中的 Kubernetes 清单 YAML 文件。查看以下示例:
apiVersion: v1 kind: ConfigMap metadata: name: my-config namespace: default data: key1: value1 key2: value2
生成的 Policy
以及生成的 PlacementRule
和 PlacementBinding
可能类似以下示例:
apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-config-data namespace: policies spec: clusterConditions: - status: "True" type: ManagedClusterConditionAvailable clusterSelector: matchExpressions: [] --- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-config-data namespace: policies placementRef: apiGroup: apps.open-cluster-management.io kind: PlacementRule name: placement-config-data subjects: - apiGroup: policy.open-cluster-management.io kind: Policy name: config-data --- apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: annotations: policy.open-cluster-management.io/categories: CM Configuration Management policy.open-cluster-management.io/controls: CM-2 Baseline Configuration policy.open-cluster-management.io/standards: NIST SP 800-53 name: config-data namespace: policies spec: disabled: false policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: config-data spec: object-templates: - complianceType: musthave objectDefinition: apiVersion: v1 data: key1: value1 key2: value2 kind: ConfigMap metadata: name: my-config namespace: default remediationAction: inform severity: low
如需了解更多详细信息,请参阅 policy-generator-plugin
存储库。
2.4.2.3. 生成用于安装 Operator 的策略
Red Hat Advanced Cluster Management 策略的一个常见用途是在一个或多个受管 OpenShift 集群上安装 Operator。查看以下不同安装模式和所需资源的示例。
2.4.2.3.1. 安装 OpenShift GitOps 的策略
本例演示了如何生成一个策略,以使用策略生成器安装 OpenShift GitOps。OpenShift GitOps 操作器 提供所有命名空间 安装模式。首先,需要按照以下示例创建名为 openshift-gitops-subscription.yaml
的订阅
清单文件。
apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: openshift-gitops-operator namespace: openshift-operators spec: channel: stable name: openshift-gitops-operator source: redhat-operators sourceNamespace: openshift-marketplace
要固定到 Operator 的特定版本,您可以添加以下参数和值: spec.startingCSV: openshift-gitops-operator.v<version>
。将 <version
> 替换为您的首选版本。
接下来,需要名为 policy-generator-config.yaml
的策略生成器配置文件。以下示例显示了一个策略,它将在所有 OpenShift 受管集群上安装 OpenShift GitOps:
apiVersion: policy.open-cluster-management.io/v1 kind: PolicyGenerator metadata: name: install-openshift-gitops policyDefaults: namespace: policies placement: clusterSelectors: vendor: "OpenShift" remediationAction: enforce policies: - name: install-openshift-gitops manifests: - path: openshift-gitops-subscription.yaml
所需的最后一个文件是 kustomization.yaml
文件。kustomization.yaml
文件需要以下配置:
generators: - policy-generator-config.yaml
生成的策略可能类似以下文件:
apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-install-openshift-gitops namespace: policies spec: clusterConditions: - status: "True" type: ManagedClusterConditionAvailable clusterSelector: matchExpressions: - key: vendor operator: In values: - OpenShift --- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-install-openshift-gitops namespace: policies placementRef: apiGroup: apps.open-cluster-management.io kind: PlacementRule name: placement-install-openshift-gitops subjects: - apiGroup: policy.open-cluster-management.io kind: Policy name: install-openshift-gitops --- apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: annotations: policy.open-cluster-management.io/categories: CM Configuration Management policy.open-cluster-management.io/controls: CM-2 Baseline Configuration policy.open-cluster-management.io/standards: NIST SP 800-53 name: install-openshift-gitops namespace: policies spec: disabled: false policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: install-openshift-gitops spec: object-templates: - complianceType: musthave objectDefinition: apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: openshift-gitops-operator namespace: openshift-operators spec: channel: stable name: openshift-gitops-operator source: redhat-operators sourceNamespace: openshift-marketplace remediationAction: enforce severity: low
如需了解更多详细信息,请参阅 了解 OpenShift GitOps 和 Operator 文档。
2.4.2.3.2. 安装 Compliance Operator 的策略
对于使用 命名空间安装模式的 Operator,如 Compliance Operator,还需要 OperatorGroup
清单。本例演示了安装 Compliance Operator 的生成的策略。
首先,必须创建一个带有 Namespace
、Subscription
和名为 compliance-operator.yaml
的 OperatorGroup
清单的 YAML 文件。以下示例将这些清单安装到 compliance-operator
命名空间中:
apiVersion: v1 kind: Namespace metadata: name: openshift-compliance --- apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: compliance-operator namespace: openshift-compliance spec: channel: release-0.1 name: compliance-operator source: redhat-operators sourceNamespace: openshift-marketplace --- apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: compliance-operator namespace: openshift-compliance spec: targetNamespaces: - compliance-operator
接下来,需要名为 policy-generator-config.yaml
的策略生成器配置文件。以下示例显示了在一个 OpenShift 受管集群上安装 Compliance Operator 的单一策略:
apiVersion: policy.open-cluster-management.io/v1 kind: PolicyGenerator metadata: name: install-compliance-operator policyDefaults: namespace: policies placement: clusterSelectors: vendor: "OpenShift" remediationAction: enforce policies: - name: install-compliance-operator manifests: - path: compliance-operator.yaml
所需的最后一个文件是 kustomization.yaml
文件。kustomization.yaml
文件中需要以下配置:
generators: - policy-generator-config.yaml
因此,生成的策略应类似以下文件:
apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-install-compliance-operator namespace: policies spec: clusterConditions: - status: "True" type: ManagedClusterConditionAvailable clusterSelector: matchExpressions: - key: vendor operator: In values: - OpenShift --- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-install-compliance-operator namespace: policies placementRef: apiGroup: apps.open-cluster-management.io kind: PlacementRule name: placement-install-compliance-operator subjects: - apiGroup: policy.open-cluster-management.io kind: Policy name: install-compliance-operator --- apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: annotations: policy.open-cluster-management.io/categories: CM Configuration Management policy.open-cluster-management.io/controls: CM-2 Baseline Configuration policy.open-cluster-management.io/standards: NIST SP 800-53 name: install-compliance-operator namespace: policies spec: disabled: false policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: install-compliance-operator spec: object-templates: - complianceType: musthave objectDefinition: apiVersion: v1 kind: Namespace metadata: name: openshift-compliance - complianceType: musthave objectDefinition: apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: compliance-operator namespace: openshift-compliance spec: channel: release-0.1 name: compliance-operator source: redhat-operators sourceNamespace: openshift-marketplace - complianceType: musthave objectDefinition: apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: compliance-operator namespace: openshift-compliance spec: targetNamespaces: - compliance-operator remediationAction: enforce severity: low
如需了解更多详细信息,请参阅 Compliance Operator 文档。
2.4.2.4. 策略生成器配置参考表
请注意,每个策略可覆盖 policyDefaults
部分中除 namespace
以外的所有字段。
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
complianceType |
可选。决定在将清单与集群上对象进行比较时的策略控制器行为。参数值为 |
kind |
必需。将值设为 |
metadata | 必需。用于唯一标识配置文件。 |
metadata.name | 必需。用于标识策略资源的名称。 |
placementBindingDefaults |
必需。用于整合 |
placementBindingDefaults.name | 可选。最佳实践是设置要使用的显式放置绑定名称,而不使用默认值。 |
policyDefaults |
必需。对于 policies 数组中的条目,这里列出的任何默认值都会被覆盖,但 |
policyDefaults.categories |
可选。 |
policyDefaults.controls |
可选。 |
policyDefaults.consolidateManifests |
可选。这决定了是否为策略中包含的所有清单生成单一配置策略。如果设置为 |
policyDefaults.informGatekeeperPolicies |
可选。当策略引用违反 gatekeeper 策略清单时,这决定了是否应生成额外的配置策略以便在 Red Hat Advanced Cluster Management 中接收策略违反情况。默认值为 |
policyDefaults.informKyvernoPolicies |
可选。当策略引用 Kyverno 策略清单时,这决定了在 Kyverno 策略被违反时,是否应生成额外的配置策略来接收 Red Hat Advanced Cluster Management 中的策略违反情况。默认值为 |
policyDefaults.namespace | 必需。所有策略的命名空间。 |
policyDefaults.placement | 可选。策略的放置配置。这默认为与所有集群匹配的放置配置。 |
placement.clusterSelectors |
可选。通过以以下格式 |
placement.name | 可选。指定一个名称来整合包含相同集群选择器的放置规则。 |
placement.placementRulePath |
可选。要重复使用现有放置规则,请指定相对于 |
policyDefaults.remediationAction |
可选。策略的补救机制。参数值是 |
policyDefaults.severity |
可选。策略违反的严重性。默认值为 |
policyDefaults.standards |
可选。 |
policies |
必需。要创建的策略列表以及覆盖默认值或 |
policies[ ].manifests | 必需。策略中包含的 Kubernetes 对象清单列表。 |
policies[ ].name | 必需。要创建的策略的名称。 |
policies[ ].manifests[ ].complianceType |
可选。决定在将清单与集群上对象进行比较时的策略控制器行为。参数值为 |
policies[ ].manifests[ ].path |
必需。与 |
policies[ ].manifests[ ].patches |
可选。应用到路径上清单的 Kustomize 补丁程序。如果有多个清单,补丁需要设置 |
2.5. 支持的策略
查看支持的策略示例,了解如何在 Red Hat Advanced Cluster Management for Kubernetes 中创建和管理策略时如何在 hub 集群上定义规则、流程和控制。
注:您可以将现有策略复制到 Policy YAML 中。当您粘贴现有策略时,会自动输入参数字段的值。您还可以使用搜索功能搜索策略 YAML 文件中的内容。
2.5.1. 开箱即用策略的支持列表
policy | Red Hat OpenShift Container Platform 3.11 | Red Hat OpenShift Container Platform 4 |
---|---|---|
内存用量策略 | x | x |
命名空间策略 | x | x |
镜像漏洞策略 | x | x |
Pod 策略 | x | x |
Pod 安全策略(已弃用) | ||
角色策略 | x | x |
角色绑定策略 | x | x |
安全性上下文约束策略(SCC) | x | x |
ETCD 加密策略 | x | |
Gatekeeper 策略 | x | |
Compliance operator 策略 | x | |
E8 扫描策略 | x | |
OpenShift CIS 扫描策略 | x |
查看以下策略示例以查看如何应用特定策略:
更多主题,请参阅监管。
2.5.2. 内存用量策略
Kubernetes 配置策略控制器负责监控内存用量策略的状态。使用内存用量策略来限制或约束您的内存和计算用量。如需更多信息,请参阅 Kubernetes 文档中的限制范围。
在以下部分了解更多有关内存用量策略结构的详细信息:
2.5.2.1. 内存用量策略 YAML 结构
您的内存用量策略可能类似以下 YAML 文件:
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-limitrange namespace: spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: apiVersion: kind: metadata: name: spec: limits: - default: memory: defaultRequest: memory: type: ...
2.5.2.2. 内存用量策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.2.3. 内存用量策略示例
请参阅 policy-limitmemory.yaml
查看策略示例。如需更多信息,请参阅管理安全策略。请参阅 Kubernetes 配置策略控制器以查看控制器监控的其他配置策略。
2.5.3. 命名空间策略
Kubernetes 配置策略控制器负责监控命名空间策略的状态。应用命名空间策略来为您的命名空间定义特定规则。
在以下部分了解更多有关命名空间策略结构的详细信息:
2.5.3.1. 命名空间策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-namespace-1 namespace: spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: kind: apiVersion: metadata: name: ...
2.5.3.2. 命名空间策略 YAML 表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.3.3. 命名空间策略示例
请参阅 policy-namespace.yaml
查看策略示例。
如需更多信息,请参阅管理安全策略。请参阅 Kubernetes 配置策略控制器以了解其他配置策略。
2.5.4. 镜像漏洞策略
应用镜像漏洞策略,以利用 Container Security Operator 来检测容器镜像是否有漏洞。如果没有安装 Container Security Operator,该策略会在受管集群上安装它。
镜像漏洞策略由 Kubernetes 配置策略控制器负责检查。有关 Security Operator 的更多信息,请参阅 Quay 存储库中的 Container Security Operator。
备注:
- 镜像漏洞策略在断开连接的安装过程中无法正常工作。
-
IBM Power 和 IBM Z 架构不支持 镜像漏洞策略。它依赖于 Quay Container Security Operator。container-security-operator registry 中没有
ppc64le
或s390x
镜像。
查看以下部分以了解更多信息:
2.5.4.1. 镜像漏洞策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-imagemanifestvulnpolicy namespace: default annotations: policy.open-cluster-management.io/standards: NIST-CSF policy.open-cluster-management.io/categories: DE.CM Security Continuous Monitoring policy.open-cluster-management.io/controls: DE.CM-8 Vulnerability Scans spec: remediationAction: disabled: policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: spec: remediationAction: severity: high object-templates: - complianceType: objectDefinition: apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: container-security-operator namespace: spec: channel: installPlanApproval: name: source: sourceNamespace: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: spec: remediationAction: severity: namespaceSelector: exclude: include: object-templates: - complianceType: objectDefinition: apiVersion: secscan.quay.redhat.com/v1alpha1 kind: ImageManifestVuln # checking for a kind --- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-policy-imagemanifestvulnpolicy namespace: default placementRef: name: kind: apiGroup: subjects: - name: kind: apiGroup: --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-policy-imagemanifestvulnpolicy namespace: default spec: clusterConditions: - status: type: clusterSelector: matchExpressions: [] # selects all clusters if not specified
2.5.4.2. 镜像漏洞策略 YAML 表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.4.3. 镜像漏洞策略示例
请参阅 policy-imagemanifestvuln.yaml
。如需更多信息,请参阅管理安全策略。
请参阅 Kubernetes 配置策略控制器,以查看配置控制器监控的其他配置策略。
2.5.5. Pod 策略
Kubernetes 配置策略控制器负责监控 Pod 策略的状态。应用 Pod 策略来为 Pod 定义容器规则。集群中必须存在 pod 才能使用此信息。
在以下部分了解更多有关 pod 策略结构的详细信息:
2.5.5.1. Pod 策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-pod namespace: spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: apiVersion: kind: Pod # pod must exist metadata: name: spec: containers: - image: name: ports: - containerPort: ...
2.5.5.2. Pod 策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.5.3. Pod 策略示例
请参阅 policy-pod.yaml
查看策略示例。
请参阅 Kubernetes 配置策略控制器,以查看配置控制器监控的其他配置策略。请参阅管理配置策略 以管理其他策略。
2.5.6. Pod 安全策略
Kubernetes 配置策略控制器负责监控 Pod 安全策略的状态。应用 Pod 安全策略来保护 Pod 和容器。如需更多信息,请参阅 Kubernetes 文档中的 Pod 安全策略。
在以下部分了解更多有关 Pod 安全策略结构的详细信息:
2.5.6.1. Pod 安全策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-podsecuritypolicy namespace: spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: apiVersion: kind: PodSecurityPolicy # no privileged pods metadata: name: annotations: spec: privileged: allowPrivilegeEscalation: allowedCapabilities: volumes: hostNetwork: hostPorts: hostIPC: hostPID: runAsUser: rule: seLinux: rule: supplementalGroups: rule: fsGroup: rule: ...
2.5.6.2. Pod 安全策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.6.3. Pod 安全策略示例
请参阅 policy-psp.yaml
查看示例策略。如需更多信息,请参阅管理配置策略。
请参阅 Kubernetes 配置策略控制器以查看控制器监控的其他配置策略。
2.5.7. 角色策略
Kubernetes 配置策略控制器负责监控角色策略的状态。在 object-template
中定义角色来为集群中的特定角色设置规则和权限。
在以下部分了解更多有关角色策略结构的详细信息:
2.5.7.1. 角色策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-role namespace: annotations: policy.open-cluster-management.io/standards: NIST-CSF policy.open-cluster-management.io/categories: PR.AC Identity Management Authentication and Access Control policy.open-cluster-management.io/controls: PR.AC-4 Access Control spec: remediationAction: inform disabled: false policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-role-example spec: remediationAction: inform # will be overridden by remediationAction in parent policy severity: high namespaceSelector: exclude: ["kube-*"] include: ["default"] object-templates: - complianceType: mustonlyhave # role definition should exact match objectDefinition: apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: sample-role rules: - apiGroups: ["extensions", "apps"] resources: ["deployments"] verbs: ["get", "list", "watch", "delete","patch"] --- apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-policy-role namespace: placementRef: name: placement-policy-role kind: PlacementRule apiGroup: apps.open-cluster-management.io subjects: - name: policy-role kind: Policy apiGroup: policy.open-cluster-management.io --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-policy-role namespace: spec: clusterConditions: - type: ManagedClusterConditionAvailable status: "True" clusterSelector: matchExpressions: [] ...
2.5.7.2. 角色策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.7.3. 角色策略示例
应用角色策略来为集群中的特定角色设置规则和权限。
如需有关角色的更多信息,请参阅基于角色的访问控制。查看角色策略示例,请参阅 policy-role.yaml
。
要了解如何管理角色策略,请参阅管理 配置策略 以了解更多信息。请参阅 Kubernetes 配置策略控制器,以查看监控控制器的其他配置策略。
2.5.8. 角色绑定策略
Kubernetes 配置策略控制器负责监控角色绑定策略的状态。应用角色绑定策略,将策略绑定到受管集群中的命名空间。
在以下部分了解更多有关命名空间策略结构的详细信息:
2.5.8.1. 角色绑定策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: namespace: spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: kind: RoleBinding # role binding must exist apiVersion: rbac.authorization.k8s.io/v1 metadata: name: operate-pods-rolebinding subjects: - kind: User name: admin # Name is case sensitive apiGroup: roleRef: kind: Role #this must be Role or ClusterRole name: operator # this must match the name of the Role or ClusterRole you wish to bind to apiGroup: rbac.authorization.k8s.io ...
2.5.8.2. 角色绑定策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 必需。创建了策略的受管集群内命名空间。 |
spec | 必需。有关如何标识和修复合规违反情况的规格。 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.complianceType |
必需。将值设为 |
spec.namespace |
必需。要将策略应用到的受管集群命名空间。输入 |
spec.remediationAction |
必需。指定您的策略的修复。参数值是 |
spec.object-template | 必需。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
2.5.8.3. 角色绑定策略示例
请参阅 policy-rolebinding.yaml
查看策略示例。有关 管理其他策略 的更多信息,请参阅管理配置策略。
请参阅 Kubernetes 配置策略控制器以了解其他配置策略。
2.5.9. 安全性上下文约束策略
Kubernetes 配置策略控制器负责监控安全性上下文约束 (SCC) 策略的状态。应用安全性上下文约束 (SCC) 策略,通过在策略中定义条件来控制 Pod 的权限。
在以下部分了解更多有关 SCC 策略的详细信息:
2.5.9.1. SCC 策略 YAML 结构
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-scc namespace: open-cluster-management-policies spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: apiVersion: kind: SecurityContextConstraints # restricted scc metadata: annotations: kubernetes.io/description: name: sample-restricted-scc allowHostDirVolumePlugin: allowHostIPC: allowHostNetwork: allowHostPID: allowHostPorts: allowPrivilegeEscalation: allowPrivilegedContainer: allowedCapabilities: defaultAddCapabilities: fsGroup: type: groups: - system: priority: readOnlyRootFilesystem: requiredDropCapabilities: runAsUser: type: seLinuxContext: type: supplementalGroups: type: users: volumes:
2.5.9.2. SCC 策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespace | 必需。创建了策略的受管集群内命名空间。 |
spec.complianceType |
必需。将值设为 |
spec.remediationAction |
必需。指定您的策略的修复。参数值是 |
spec.namespace |
必需。要将策略应用到的受管集群命名空间。输入 |
spec.object-template | 必需。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。 |
有关 SCC 策略内容的解释,请参阅 OpenShift Container Platform 文档中的管理安全性上下文约束。
2.5.9.3. SCC 策略示例
应用安全性上下文约束 (SCC) 策略,通过在策略中定义条件来控制 Pod 的权限。如需更多信息,请参阅管理安全性上下文约束(SCC)。
请参阅 policy-scc.yaml
查看策略示例。有关 管理其他策略 的更多信息,请参阅管理配置策略。
请参阅 Kubernetes 配置策略控制器以了解其他配置策略。
2.5.10. ETCD 加密策略
应用 etcd-encryption
策略,在 ETCD 数据存储中检测或启用敏感数据的加密。Kubernetes 配置策略控制器负责监控 etcd-encryption
策略的状态。如需更多信息,请参阅 OpenShift Container Platform 文档中的加密 etcd 数据。注 :ETCD 加密策略只支持 Red Hat OpenShift Container Platform 4 及更新的版本。
在以下部分了解更多有关 etcd-encryption
策略结构的详细信息:
2.5.10.1. ETCD 加密策略 YAML 结构
etcd-encryption
策略可能类似以下 YAML 文件:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: policy-etcdencryption namespace: spec: complianceType: remediationAction: namespaces: exclude: include: object-templates: - complianceType: objectDefinition: apiVersion: config.openshift.io/v1 kind: APIServer metadata: name: cluster spec: encryption: type: ...
2.5.10.2. ETCD 加密策略表
字段 | 描述 |
---|---|
apiVersion |
必需。将值设置为 |
kind |
必需。将值设为 |
metadata.name | 必需。用于标识策略资源的名称。 |
metadata.namespaces | 可选。 |
spec.namespace |
必需。策略应用到的节点集群内命名空间。输入 |
remediationAction |
可选。指定您的策略的修复。参数值是 |
disabled |
必需。将值设为 |
spec.complianceType |
必需。将值设为 |
spec.object-template | 可选。用于列出必须接受评估或应用到受管集群的任何其他 Kubernetes 对象。请参阅 OpenShift Container Platform 文档中的加密 etcd 数据。 |
2.5.10.3. etcd 加密策略示例
如需策略示例,请参阅 policy-etcdencryption.yaml
。如需更多信息,请参阅管理安全策略。
请参阅 Kubernetes 配置策略控制器以查看控制器监控的其他配置策略。
2.5.11. Compliance operator 策略
Compliance Operator 是一个运行 OpenSCAP 的 operator,可让您使 Red Hat OpenShift Container Platform 集群与您需要的安全基准兼容。您可以使用合规 operator 策略在受管集群上安装合规 Operator。
compliance operator 策略在 Red Hat Advanced Cluster Management 中作为 Kubernetes 配置策略创建。OpenShift Container Platform 4.6 和 4.7 支持合规性 Operator 策略。如需更多信息,请参阅 OpenShift Container Platform 文档中的了解 Compliance Operator 部分以了解更多详细信息。
注: Compliance operator 策略 依赖于 OpenShift Container Platform Compliance Operator,它不受 IBM Power 或 IBM Z 架构的支持。如需有关 Compliance Operator 的更多信息,请参阅 OpenShift Container Platform 文档中的了解 Compliance Operator。
2.5.11.1. Compliance operator 资源
创建合规 Operator 策略时,会创建以下资源:
-
Operator 安装的合规性 operator 命名空间(
openshift- compliance
):
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: comp-operator-ns spec: remediationAction: inform # will be overridden by remediationAction in parent policy severity: high object-templates: - complianceType: musthave objectDefinition: apiVersion: v1 kind: Namespace metadata: name: openshift-compliance
-
用于指定目标命名空间的 operator 组(
compliance-operator
):
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: comp-operator-operator-group spec: remediationAction: inform # will be overridden by remediationAction in parent policy severity: high object-templates: - complianceType: musthave objectDefinition: apiVersion: operators.coreos.com/v1 kind: OperatorGroup metadata: name: compliance-operator namespace: openshift-compliance spec: targetNamespaces: - openshift-compliance
-
用于引用名称和频道的订阅(
comp-operator-subscription
)。订阅会拉取配置集作为一个容器,它支持:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: comp-operator-subscription spec: remediationAction: inform # will be overridden by remediationAction in parent policy severity: high object-templates: - complianceType: musthave objectDefinition: apiVersion: operators.coreos.com/v1alpha1 kind: Subscription metadata: name: compliance-operator namespace: openshift-compliance spec: channel: "4.7" installPlanApproval: Automatic name: compliance-operator source: redhat-operators sourceNamespace: openshift-marketplace
安装 compliance operator 策略后,会创建以下 pod:compliance-operator
、ocp4
和 rhcos4
。请参阅 policy-compliance-operator-install.yaml
示例。
安装 compliance Operator 后,您还可以创建并应用 E8 扫描策略和 OpenShift CIS 扫描策略。如需更多信息,请参阅 E8 扫描策略和 OpenShift CIS 扫描策略。
要了解管理合规 Operator 策略的信息,请参阅管理安全策略 以了解更多信息。有关配置策略的更多主题,请参阅 Kubernetes 配置策略控制器。
2.5.12. E8 扫描策略
一个 Essential 8(E8)扫描策略会部署一个扫描,检查 master 和 worker 节点是否满足 E8 安全配置集。您必须安装 Compliance Operator 以应用 E8 扫描策略。
E8 扫描策略在 Red Hat Advanced Cluster Management 中作为 Kubernetes 配置策略创建。OpenShift Container Platform 4.7 和 4.6 支持 E8 扫描策略。如需更多信息,请参阅 OpenShift Container Platform 文档中的了解 Compliance Operator 部分以了解更多详细信息。
2.5.12.1. E8 扫描策略资源
当您创建 E8 扫描策略时,会创建以下资源:
ScanSettingBinding
资源 (e8
) 用于识别要扫描的配置集:apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: compliance-suite-e8 spec: remediationAction: inform severity: high object-templates: - complianceType: musthave # this template checks if scan has completed by checking the status field objectDefinition: apiVersion: compliance.openshift.io/v1alpha1 kind: ScanSettingBinding metadata: name: e8 namespace: openshift-compliance profiles: - apiGroup: compliance.openshift.io/v1alpha1 kind: Profile name: ocp4-e8 - apiGroup: compliance.openshift.io/v1alpha1 kind: Profile name: rhcos4-e8 settingsRef: apiGroup: compliance.openshift.io/v1alpha1 kind: ScanSetting name: default
一个
ComplianceSuite
资源 (compliance-suite-e8
),用于通过检查status
字段来验证扫描是否已完成:apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: compliance-suite-e8 spec: remediationAction: inform severity: high object-templates: - complianceType: musthave # this template checks if scan has completed by checking the status field objectDefinition: apiVersion: compliance.openshift.io/v1alpha1 kind: ComplianceSuite metadata: name: e8 namespace: openshift-compliance status: phase: DONE
一个
ComplianceCheckResult
资源 (compliance-suite-e8-results
),它通过检查ComplianceCheckResult
自定义资源 (CR) 来报告扫描套件的结果:apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: compliance-suite-e8-results spec: remediationAction: inform severity: high object-templates: - complianceType: mustnothave # this template reports the results for scan suite: e8 by looking at ComplianceCheckResult CRs objectDefinition: apiVersion: compliance.openshift.io/v1alpha1 kind: ComplianceCheckResult metadata: namespace: openshift-compliance labels: compliance.openshift.io/check-status: FAIL compliance.openshift.io/suite: e8
注: 支持自动补救。将补救操作设置为 enforce
以创建 ScanSettingBinding
资源。
请参阅 policy-compliance-operator-e8-scan.yaml
示例。如需更多信息,请参阅管理安全策略。注 : 在 E8 策略被删除后,它将从目标集群或集群中移除。
2.5.13. OpenShift CIS 扫描策略
OpenShift CIS 扫描策略会部署一个扫描来检查 master 和 worker 节点是否与 OpenShift CIS 安全基准相符。您必须安装 Compliance operator 以应用 OpenShift CIS 策略。
OpenShift CIS 扫描策略在 Red Hat Advanced Cluster Management 中作为 Kubernetes 配置策略创建。OpenShift Container Platform 4.9、4.7 和 4.6 支持 OpenShift CIS 扫描策略。如需更多信息,请参阅 OpenShift Container Platform 文档中的 了解 Compliance Operator 部分以了解更多详细信息。
2.5.13.1. OpenShift CIS 资源
创建 OpenShift CIS 扫描策略时,会创建以下资源:
用于识别要扫描的配置集的
ScanSettingBinding
资源 (cis
):apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: compliance-cis-scan spec: remediationAction: inform severity: high object-templates: - complianceType: musthave # this template creates ScanSettingBinding:cis objectDefinition: apiVersion: compliance.openshift.io/v1alpha1 kind: ScanSettingBinding metadata: name: cis namespace: openshift-compliance profiles: - apiGroup: compliance.openshift.io/v1alpha1 kind: Profile name: ocp4-cis - apiGroup: compliance.openshift.io/v1alpha1 kind: Profile name: ocp4-cis-node settingsRef: apiGroup: compliance.openshift.io/v1alpha1 kind: ScanSetting name: default
一个
ComplianceSuite
资源 (compliance-suite-cis
),用于通过检查status
字段来验证扫描是否已完成:apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: compliance-suite-cis spec: remediationAction: inform severity: high object-templates: - complianceType: musthave # this template checks if scan has completed by checking the status field objectDefinition: apiVersion: compliance.openshift.io/v1alpha1 kind: ComplianceSuite metadata: name: cis namespace: openshift-compliance status: phase: DONE
一个
ComplianceCheckResult
资源 (compliance-suite-cis-results
),它通过检查ComplianceCheckResult
自定义资源 (CR) 来报告扫描套件的结果:apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: compliance-suite-cis-results spec: remediationAction: inform severity: high object-templates: - complianceType: mustnothave # this template reports the results for scan suite: cis by looking at ComplianceCheckResult CRs objectDefinition: apiVersion: compliance.openshift.io/v1alpha1 kind: ComplianceCheckResult metadata: namespace: openshift-compliance labels: compliance.openshift.io/check-status: FAIL compliance.openshift.io/suite: cis
请参阅 policy-compliance-operator-cis-scan.yaml
文件示例。有关创建策略的更多信息,请参阅管理安全策略。
2.6. 管理安全策略
使用监管仪表板创建、查看和管理安全策略和策略违反情况。您可以通过 CLI 和控制台为您的策略创建 YAML 文件。
2.6.1. 自定义监管页面
在Governance 页面中,您可以通过按类别或标准过滤违反情况来自定义概述视图,折叠概述以查看较少的信息,您可以搜索策略。您还可以根据策略或集群违反过滤违反表视图。
继续使用以下过滤选项自定义您的视图:
违反情况(只有在一个或多个策略满足标准时才会出现以下选项:
- 无冲突
- 违反
-
-
源(仅当一个或多个策略满足标准时,才会显示以下选项):
- 本地
- 外部
- Git
补救(始终显示以下选项并支持批量操作):
- inform
- enforce
状态(以下选项始终显示并支持批量操作):
- Enabled
- Disabled
策略表列出了以下策略详情:Policy name, Namespace, Status, Remediation, Cluster violations, Source, Controls, Automation 和 Created.您可以编辑、启用或禁用,将补救设置为 inform 或 enforce,或通过选择 Actions 图标来删除策略。您可以通过选择要展开行的下拉箭头来查看特定策略的类别和标准。
查看 Automation 列中频率字段的以下描述:
-
Manual run:手动将此自动化设置为运行一次。在自动化运行后,它将设置为
disabled
。 -
Run once mode:违反策略时,自动化将运行一次。在自动化运行后,它将设置为
disabled
。在将自动化设置为禁用
后,您必须继续手动运行自动化。当使用 once mode 时,target_clusters
的额外变量会自动提供违反策略的集群列表。Ansible Tower 作业模板必须为EXTRA VARIABLES
部分启用PROMPT ON LAUNCH
。 -
Disable automation:当调度的自动化被设置为
禁用
时,在更新设置前不会运行自动化。
当您在表列表中选择一个策略时,控制台中会显示以下信息标签页:
- Details :选择 Details 选项卡来查看策略详情和放置详情。在 Placement 表中,Compliance 列提供了查看所显示集群的合规性的链接。
- Clusters :选择 Clusters 选项卡来查看与放置关联的所有集群的表列表。点 View details 链接来查看模板详情和 YAML。您还可以查看相关的资源。单击 View history 链接,以查看合规性状态、违反消息和上次报告的时间。
- templates:选择 Templates 选项卡来查看与每个模板放置关联的集群表列表。您可以通过选择 View history 链接来查看模板的合规性状态、违反消息、上次报告时间和查看模板历史记录。
查看以下主题以了解更多有关创建和更新您的安全策略的信息。
更多主题,请参阅监管。
2.6.2. 为监管配置 Ansible Tower
Red Hat Advanced Cluster Management for Kubernetes 监管可与 Ansible Tower 自动化集成,以创建策略违反自动化。您可以从 Red Hat Advanced Cluster Management 控制台配置自动化。
2.6.2.1. 先决条件
- Red Hat OpenShift Container Platform 4.5 或更高版本
- 已安装 Ansible Tower 版本 3.7.3 或更高版本。安装最新版本的 Ansible Tower 是最佳实践方案。如需了解更多详细信息,请参阅 Red Hat Ansible Tower 文档。
- 将 Ansible Automation Platform Resource Operator 安装到 hub 集群,将 Ansible 作业连接到管理框架。为了获得最佳结果,在使用 AnsibleJob 启动 Ansible Tower 作业时,Ansible Tower 作业模板在运行时应该是等价的。如果没有 Ansible Automation Platform Resource Operator,您可以在 Red Hat OpenShift Container Platform OperatorHub 页面中找到它。
有关安装和配置 Ansible Tower 自动化的更多信息,请参阅设置 Ansible 任务
2.6.2.2. 从控制台创建策略违反自动化
登录到 Red Hat Advanced Cluster Management hub 集群后,从导航菜单中选择 Governance。
单击 Automation 列中的 Configure,为特定策略配置自动化。在 Credential 部分,单击下拉菜单来选择 Ansible 凭据。如果需要添加凭证,请参阅 管理凭证概述。
注:此凭证复制到与策略相同的命名空间中。该凭据供创建用于启动自动化的 AnsibleJob
资源使用。控制台的 Credentials 部分中的 Ansible 凭据更改会被自动更新。
单击下拉列表,以选择作业模板。在 Extra variables 部分,添加来自 PolicyAutomation
的 extra_vars
部分中的参数值。选择自动化的频率。您可以选择 Manual run、Run once mode 或 Disable automation。
-
Manual run:手动将此自动化设置为运行一次。在自动化运行后,它将设置为
disabled
。 -
Run once mode:违反策略时,自动化将运行一次。在自动化运行后,它将设置为
disabled
。在将自动化设置为禁用
后,您必须继续手动运行自动化。当使用 once mode 时,target_clusters
的额外变量会自动提供违反策略的集群列表。Ansible Tower 作业模板必须为EXTRA VARIABLES
部分启用了PROMPT ON LAUNCH
。 -
Disable automation:当调度的自动化被设置为
禁用
时,在更新设置前不会运行自动化。
选择 Save 保存 策略违反自动化。当您从 History 选项卡中选择 View Job 链接时,链接会将您定向到搜索页面上的作业模板。成功创建自动化后,会在 Automation 列中显示它。
您的策略违反自动化是从控制台创建的。
2.6.2.3. 通过 CLI 创建策略违反自动化
完成以下步骤,通过 CLI 配置策略违反自动化:
-
在终端中,使用
oc login
命令登录到 Red Hat Advanced Cluster Management hub 集群。 - 查找或创建您要向其添加自动化的策略。请注意策略名称和命名空间。
使用以下示例创建
PolicyAutomation
资源,作为指南:apiVersion: policy.open-cluster-management.io/v1beta1 kind: PolicyAutomation metadata: name: policyname-policy-automation spec: automationDef: extra_vars: your_var: your_value name: Policy Compliance Template secret: ansible-tower type: AnsibleJob mode: disabled policyRef: policyname
-
上例中的 Ansible 作业模板名称是
Policy Compliance Template
。更改该值,使其与您的任务模板名称匹配。 -
在
extra_vars
部分中,添加您需要传递给 Ansible 作业模板的任何参数。 将模式设置为
once
或disabled
。once
模式只运行作业一次,然后模式会被设置为disabled
。-
once mode:违反策略时,自动化将运行一次。在自动化运行后,它将设置为
disabled
。在将自动化设置为禁用
后,您必须继续手动运行自动化。当使用 once mode 时,target_clusters
的额外变量会自动提供违反策略的集群列表。Ansible Tower 作业模板必须为EXTRA VARIABLES
部分启用了PROMPT ON LAUNCH
。 -
Disable automation:当调度的自动化被设置为
禁用
时,在更新设置前不会运行自动化。
-
once mode:违反策略时,自动化将运行一次。在自动化运行后,它将设置为
-
将
policyRef
设置为您的策略的名称。 -
在与包含 Ansible Tower 凭据的
PolicyAutomation
资源相同的命名空间中创建一个 secret。在上例中,secret 名称为ansible-tower
。使用 应用程序生命周期中的示例 来查看如何创建 secret。 创建
PolicyAutomation
资源。备注:
可以通过在
PolicyAutomation
资源中添加以下注解来立即运行策略自动化:metadata: annotations: policy.open-cluster-management.io/rerun: "true"
-
当策略为
once
模式时,当策略不合规时自动化将运行。添加名为target_clusters
的extra_vars
变量,值是每个受管集群名称的数组,其中的策略不合规。
2.6.3. 使用 GitOps 部署策略
您可以使用监管框架在一组受管集群中部署一组策略。您可以通过添加到开源社区的 policy-collection
中,贡献并使用存储库中的策略。如需更多信息,请参阅 贡献自定义策略。来自开源社区的、位于 stable
和 community
目录中的策略会进一步根据 NIST Special Publication 800-53 进行组织。
继续阅读以了解使用 GitOps 通过 Git 存储库自动化和跟踪策略更新和创建的最佳做法。
先决条件:在开始之前,务必 fork policy-collection
存储库。
2.6.3.1. 自定义本地存储库
通过将 stable
和 community
策略整合到单个文件夹中,自定义您的本地存储库。删除您不想使用的策略。完成以下步骤以自定义您的本地存储库:
在存储库中创建一个新目录,以存放您要部署的策略。确保您位于 GitOps 的主要默认分支的本地
policy-collection
存储库中。运行以下命令:mkdir my-policies
将所有
stable
和community
策略复制到您的my-policies
目录中。首先,如果stable
文件夹包含community
中可用内容的副本,则首先从社区策略开始。运行以下命令:cp -R community/* my-policies/ cp -R stable/* my-policies/
现在,您在一个父目录结构中已有所有策略,您可以在 fork 中编辑策略。
提示:
- 最佳做法是删除您不打算使用的策略。
从以下列表中了解策略和策略定义:
- 用途:了解策略的作用。
补救操作:该策略是否仅告知您合规,还是强制执行策略并进行更改?请参阅
spec.remediationAction
参数。如果强制进行更改,请确保您了解功能预期。记得检查哪些策略支持执行。如需更多信息,请参阅 Validate 部分。注:策略的
spec.remediationAction
设置覆盖单个spec.policy-templates
中设置的任何补救操作。-
placement:策略部署到哪些群集?默认情况下,大多数策略都以带有
environment: dev
标签的集群为目标。有些策略可能针对 OpenShift Container Platform 集群或其他标签。您可以更新或添加附加标签来包括其他集群。如果没有特定值,策略会应用到所有集群。您还可以创建策略的多个副本并为每个副本自定义,如果您想要使用一组集群配置的一种策略,并为另一组集群配置另一种方式。
2.6.3.2. 提交到您的本地存储库
在您对目录所做的更改满意后,提交您的更改并将其推送到 Git,以便集群可以访问它们。
注:本示例用于显示如何将策略与 GitOps 搭配使用的基础知识,因此您可能具有不同的工作流来对分支进行更改。
完成以下步骤:
在终端中运行
git status
,以查看您之前创建的目录中的最近更改。将您的新目录添加到要使用以下命令提交的更改列表中:git add my-policies/
提交更改并自定义您的消息。运行以下命令:
git commit -m “Policies to deploy to the hub cluster”
将更改推送到用于 GitOps 的已分叉存储库的分支。运行以下命令:
git push origin <your_default_branch>master
您的更改已提交。
2.6.3.3. 在集群中部署策略
在推送更改后,您可以将策略部署到 Red Hat Advanced Cluster Management for Kubernetes 安装中。在部署后,您的 hub 集群连接到 Git 存储库。对 Git 存储库所选分支的任何其他更改都会反映在集群中。
注 : 默认情况下,通过 GitOps 部署的策略使用 合并
协调选项。如果要使用 replace
reconcile 选项,将 apps.open-cluster-management.io/reconcile-option: replace
注解添加到 Subscription
资源。如需更多详细信息,请参阅 应用程序生命周期。
deploy.sh
脚本在 hub 集群中创建 Channel
和 Subscription
资源。频道连接到 Git 仓库,订阅指定要通过频道传递给集群的数据。因此,在您的 hub 上会创建指定子目录中定义的所有策略。在订阅创建策略后,Red Hat Advanced Cluster Management 会根据定义的放置规则分析策略,并在与策略应用到的每个受管集群关联的命名空间中创建额外的策略资源。
该策略随后从 hub 集群上对应的受管集群命名空间中复制到受管集群。因此,Git 仓库中的策略推送到具有与策略放置规则中定义的 clusterSelector
匹配的所有受管集群。
完成以下步骤:
在
policy-collection
文件夹中运行以下命令来更改目录:cd deploy
请确定将命令行界面(CLI)配置为使用以下命令在正确的集群中创建资源:
oc cluster-info
命令的输出显示集群的 API 服务器详情,其中安装了 Red Hat Advanced Cluster Management。如果没有显示正确的 URL,请将 CLI 配置为指向正确的集群。如需更多信息,请参阅使用 OpenShift CLI。
创建一个命名空间,创建您的策略以控制访问和组织策略。运行以下命令:
oc create namespace policy-namespace
运行以下命令将策略部署到集群中:
./deploy.sh -u https://github.com/<your-repository>/policy-collection -p my-policies -n policy-namespace
将
your-repository
替换为您的 Git 用户名或存储库名称。注:
deploy.sh
脚本的完整参数列表使用以下语法:./deploy.sh [-u <url>] [-b <branch>] [-p <path/to/dir>] [-n <namespace>] [-a|--name <resource-name>]
查看每个参数的以下解释:
-
URL:从主
policy-collection
存储库派生的存储库的 URL。默认 URL 为https://github.com/stolostron/policy-collection.git
。 -
分支:要指向的 Git 存储库的分支。默认分支为
main
。 -
子目录路径:为包含要使用的策略而创建的子目录路径。在前面的示例中,我们使用了
my-policies
子目录,但您也可以指定您想要从哪个文件夹开始。例如,您可以使用my-policies/AC-Access-Control
。默认文件夹为stable
。 -
Namespace:在 hub 集群中创建资源和策略的命名空间。这些说明使用
policy-namespace
命名空间。默认命名空间是policies
。 -
名称前缀:
Channel
和Subscription
资源的前缀。默认为demo-stable-policies
。
-
URL:从主
运行 deploy.sh
脚本后,有权访问存储库的任何用户都可以提交更改到分支,后者将更改至集群中的现有策略。
2.6.3.4. 从控制台验证 GitOps 策略部署
从控制台验证您的更改是否已应用于您的策略。您还可以从控制台对策略进行更多更改,但当 订阅
与 Git 存储库协调时,会恢复更改。完成以下步骤:
- 登录您的 Red Hat Advanced Cluster Management 集群。
- 在导航菜单中选择 Governance。
- 查找您在表中部署的策略。使用 GitOps 部署的策略在 Source 列中具有 Git 标签。单击该标签,以查看 Git 存储库的详细信息。
2.6.3.4.1. 通过 CLI 验证 GitOps 策略部署
完成以下步骤:
检查以下策略详情:
- 为什么一个特定的策论在所分发的集群中合规或不合规?
- 策略是否应用到正确的集群?
- 如果此策略没有分发到任何集群,为什么?
识别您创建或修改的 GitOps 部署策略。GitOps 部署的策略可以通过自动应用的注解来标识。GitOps 部署的策略的注解类似以下路径:
apps.open-cluster-management.io/hosting-deployable: policies/deploy-stable-policies-Policy-policy-role9 apps.open-cluster-management.io/hosting-subscription: policies/demo-policies apps.open-cluster-management.io/sync-source: subgbk8s-policies/demo-policies
GitOps 注解可用于查看哪一订阅创建了该策略。您还可以在策略中添加自己的标签,以便可以编写基于标签选择策略的运行时查询。
例如,您可以使用以下命令在策略中添加标签:
oc label policy <policy-name> -n <policy-namespace> <key>=<value>
然后,您可以使用以下命令查询带有标签的策略:
oc get policy -n <policy-namespace> -l <key>=<value>
使用 GitOps 部署了您的策略。
2.6.4. 支持配置策略中的模板
配置策略支持将 Golang 文本模板包含在对象定义中。这些模板在 hub 集群或目标受管集群的运行时使用与该集群相关的配置解决。这可让您使用动态内容定义配置策略,并通知或强制实施为目标集群自定义的 Kubernetes 资源。
2.6.4.1. 前提条件
- 模板语法必须符合 Golang 模板语言规范,并且从解析的模板生成的资源定义必须是有效的 YAML。如需更多与 Package 模板相关的信息,请参阅 Golang 文档。模板验证中的任何错误都将识别为策略违反情况。当您使用自定义模板功能时,这些值会在运行时被替换。
2.6.4.2. 模板功能
模板功能(如特定于资源和通用的 lookup
模板功能 )可用于引用集群中的 Kubernetes 资源。特定于资源的功能用于方便使用,并使资源内容更易于访问。如果您使用通用的函数 lookup
,则最好熟悉正在查找的资源的 YAML 结构。除了这些功能外,还可使用 base64encode
、base64decode
、indent
、autoindent
、toInt
、toBool
等实用程序功能。
要将模板符合 YAML 语法,必须使用引号或块字符(|
或 >
)在策略资源中以字符串的形式设置模板。这会导致解析的模板值也是字符串。要覆盖此功能,请考虑使用 toInt
或 toBool
作为模板中的最终功能,以启动进一步处理,强制将值解释为整数或布尔值。
继续阅读以查看支持的一些自定义模板功能的描述和示例:
2.6.4.2.1. fromSecret function
fromSecret
功能返回 secret 中给定 data 键的值。查看该功能的以下语法:
func fromSecret (ns string, secretName string, datakey string) (dataValue string, err error)
使用此功能时,请输入 Kubernetes Secret
资源的命名空间、名称和数据键。如果目标集群上不存在 Kubernetes Secret
资源,则会出现策略违反的情况。如果目标集群上不存在 data 键,则该值将变为空字符串。查看在目标集群上强制执行 Secret
资源的以下配置策略。PASSWORD
data 键的值是引用目标集群上 secret 的模板:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-fromsecret namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: apiVersion: v1 data: USER_NAME: YWRtaW4= PASSWORD: '{{ fromSecret "default" "localsecret" "PASSWORD" }}' kind: Secret metadata: name: demosecret namespace: test type: Opaque remediationAction: enforce severity: low
2.6.4.2.2. fromConfigmap function
fromConfigmap
功能返回 ConfigMap 中给定 data 键的值。查看该功能的以下语法:
func fromConfigMap (ns string, configmapName string, datakey string) (dataValue string, err Error)
使用此功能时,请输入 Kubernetes ConfigMap
资源的命名空间、名称和数据键。如果目标集群上不存在 Kubernetes ConfigMap
资源,则会出现策略违反的情况。如果目标集群上不存在 data 键,则该值将变为空字符串。查看在目标受管集群中强制执行 Kubernetes 资源的以下配置策略。log-file
data 键的值是一个模板,它从 ConfigMap 获得 log-file
的值,从 default
命名空间获得 log-config
,log-level
被设置为 data 键 log-level
。
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-fromcm-lookup namespace: test-templates spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: kind: ConfigMap apiVersion: v1 metadata: name: demo-app-config namespace: test data: app-name: sampleApp app-description: "this is a sample app" log-file: '{{ fromConfigMap "default" "logs-config" "log-file" }}' log-level: '{{ fromConfigMap "default" "logs-config" "log-level" }}' remediationAction: enforce severity: low
2.6.4.2.3. fromClusterClaim function
fromClusterClaim
功能返回 ClusterClaim
资源中的 Spec.Value
的值。查看该功能的以下语法:
func fromClusterClaim (clusterclaimName string) (value map[string]interface{}, err Error)
当使用功能时,输入 Kubernetes ClusterClaim
资源的名称。如果 ClusterClaim
资源不存在,您会收到策略违反情况。查看在目标受管集群上强制执行 Kubernetes 资源的配置策略示例。platform
数据键的值是一个模板,它检索 platform.open-cluster-management.io
集群声明的值。同样,它从 ClusterClaim
获取产品
和版本
的值:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-clusterclaims namespace: default spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: kind: ConfigMap apiVersion: v1 metadata: name: sample-app-config namespace: default data: # Configuration values can be set as key-value properties platform: '{{ fromClusterClaim "platform.open-cluster-management.io" }}' product: '{{ fromClusterClaim "product.open-cluster-management.io" }}' version: '{{ fromClusterClaim "version.openshift.io" }}' remediationAction: enforce severity: low
2.6.4.2.4. lookup function
lookup
功能将 Kubernetes 资源作为 JSON 兼容映射返回。请注意,如果请求的资源不存在,则会返回一个空映射。查看该功能的以下语法:
func lookup (apiversion string, kind string, namespace string, name string) (value string, err Error)
使用功能时,输入 Kubernetes 资源的 API 版本、类型、命名空间和名称。查看在目标受管集群上强制执行 Kubernetes 资源的配置策略示例。metrics-url
数据键的值是一个模板,它从 default
命名空间中获取 v1/Service
Kubernetes metrics
资源,并设置为查询的资源中的 Spec.ClusterIP
的值:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-lookup namespace: test-templates spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: kind: ConfigMap apiVersion: v1 metadata: name: demo-app-config namespace: test data: # Configuration values can be set as key-value properties app-name: sampleApp app-description: "this is a sample app" metrics-url: | http://{{ (lookup "v1" "Service" "default" "metrics").spec.clusterIP }}:8080 remediationAction: enforce severity: low
2.6.4.2.5. base64enc function
base64enc
功能返回以 base64
编码的输入 data string
值。查看该功能的以下语法:
func base64enc (data string) (enc-data string)
使用功能时,输入字符串值。查看以下使用 base64enc
功能的配置策略示例:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-fromsecret namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: ... data: USER_NAME: '{{ fromConfigMap "default" "myconfigmap" "admin-user" | base64enc }}'
2.6.4.2.6. base64dec function
base64dec
功能返回一个以 base64
解码的输入的 enc-data string
值。查看该功能的以下语法:
func base64dec (enc-data string) (data string)
使用这个功能时,输入字符串值。查看以下使用 base64enc
功能的配置策略示例:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-fromsecret namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: ... data: app-name: | "{{ ( lookup "v1" "Secret" "testns" "mytestsecret") .data.appname ) | base64dec }}"
2.6.4.2.7. indent function
indent
功能会返回经过 padded 的 data string
。查看该功能的以下语法:
func indent (spaces int, data string) (padded-data string)
使用功能时,输入带有特定空格数的数据字符串。查看以下使用 indent
功能的配置策略示例:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-fromsecret namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: ... data: Ca-cert: | {{ ( index ( lookup "v1" "Secret" "default" "mycert-tls" ).data "ca.pem" ) | base64dec | indent 4 }}
2.6.4.2.8. autoindent 功能
autoindent
函数的作用类似于 indent
函数,它根据模板前面的空格数自动决定前导空格的数量。查看以下使用 autoindent
函数的配置策略示例:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-fromsecret namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: ... data: Ca-cert: | {{ ( index ( lookup "v1" "Secret" "default" "mycert-tls" ).data "ca.pem" ) | base64dec | autoindent }}
2.6.4.2.9. toInt function
toInt
函数处理并返回输入值的整数值。另外,如果这是模板中的最后一个功能,也会进一步处理源内容。这是为了确保该值由 YAML 解释为整数。查看该功能的以下语法:
func toInt (input interface{}) (output int)
使用函数时,输入需要转换为整数的数据。查看以下使用 toInt
功能的配置策略示例:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-template-function namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: ... spec: vlanid: | {{ (fromConfigMap "site-config" "site1" "vlan") | toInt }}
2.6.4.2.10. toBool function
toBool
函数将输入字符串转换为布尔值,并返回布尔值。另外,如果这是模板中的最后一个功能,也会进一步处理源内容。这是为了确保该值被 YAML 解释为布尔值。查看该功能的以下语法:
func toBool (input string) (output bool)
使用函数时,输入需要转换为布尔值的字符串数据。查看以下使用 toBool
函数的配置策略示例:
apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: name: demo-template-function namespace: test spec: namespaceSelector: exclude: - kube-* include: - default object-templates: - complianceType: musthave objectDefinition: ... spec: enabled: | {{ (fromConfigMap "site-config" "site1" "enabled") | toBool }}
2.6.4.3. 在配置策略中支持 hub 集群模板
除了动态地自定义目标集群的受管集群模板外,Red Hat Advanced Cluster Management 还支持 hub 集群模板,以使用 hub 集群中的值定义配置策略。这个组合减少了在每个目标集群或策略定义中创建硬编码配置值的需求。
hub 集群模板基于 Golang 文本模板规格,{{hub … hub}}
分隔符表示配置策略中的 hub 集群模板。
为安全起见,hub 集群模板中的特定于资源和通用查询功能都仅限于 hub 集群上策略的命名空间。
重要: 如果您使用 hub 集群模板传播 secret 或其他敏感数据,则敏感数据存在于 hub 集群上的受管集群命名空间和发布该策略的受管集群中。模板内容在策略中扩展,策略不会由 OpenShift Container Platform ETCD 加密支持加密。
2.6.4.3.1. 模板处理
配置策略定义可以包含 hub 集群和受管集群模板。hub 集群模板首先在 hub 集群中处理,然后将带有已解析 hub 集群模板的策略定义传播到目标集群。在受管集群中,Configuration PolicyController 会处理
策略定义中的任何受管集群模板,然后强制执行或验证完全解析的对象定义。
2.6.4.3.2. 重新处理的特殊注解
只有在创建或更新后,才会在 hub 集群中处理策略。因此,hub 集群模板仅在策略创建或更新时解析到引用的资源中的数据。对引用资源的任何更改都不会自动与策略同步。
可以使用特殊的注解 policy.open-cluster-management.io/trigger-update
来指示模板引用数据的更改。对特殊注解值的任何更改都会启动模板处理,引用资源的最新内容都会在作为在受管主机上处理的传播器的策略定义中读取和更新。使用此注解的一种典型方法是每次递增值。
如需 hub 集群和受管集群模板的比较,请参阅下表:
模板 | hub 集群 | 受管集群(managed cluster) |
---|---|---|
Syntax | golang 文本模板规格 | golang 文本模板规格 |
Delimiter | {{hub … hub}} | {{ … }} |
Functions |
组模板功能,支持对 Kubernetes 资源和字符串操作的动态访问。如需更多信息,请参阅模板功能。注 : | 组模板功能,支持对 Kubernetes 资源和字符串操作的动态访问。如需更多信息,请参阅模板功能。 |
Function output storage |
在与受管集群同步前,模板功能的输出存储在 hub 集群上每个适用的受管集群命名空间中的 | 模板功能的输出不存储在策略相关的资源对象中。 |
Context |
| 没有上下文变量 |
Processing | 在 hub 集群的运行时,处理会在复制策略传播到集群的过程中进行。只有在创建或更新模板时,策略中的策略和 hub 集群模板才会在 hub 集群中处理。 |
处理发生在受管集群中的 |
Access control |
您只能引用与 | 您可以引用集群中的任何资源。 |
Processing errors | hub 集群模板中的错误显示为策略应用到的受管集群中的违反情况。 | 受管集群模板中的错误会在发生违反情况的特定目标集群中以违反的形式显示。 |
2.6.4.3.3. 绕过模板处理
您可以创建一个策略,其中包含不是由 Red Hat Advanced Cluster Management 处理的模板。默认情况下,Red Hat Advanced Cluster Management 会处理所有模板。
要绕过 hub 集群的模板处理,必须将 {{ template content }}
更改为 {{ '{{ template content }}'
}}
。
另外,您还可以在 Policy
:policy.open-cluster-management.io/disable-templates: "true"
的 ConfigurationPolicy
部分中添加以下注解。当包含此注解时,不需要之前的临时解决方案。针对 ConfigurationPolicy
绕过模板处理。
2.6.5. 监管指标
策略框架公开指标来显示策略分布和合规性。在 hub 集群中使用 policy_governance_info
指标来查看趋势并分析任何策略失败。
2.6.5.1. 指标概述
OpenShift Container Platform 监控会收集 policy_governance_info
,如果已启用,Red Hat Advanced Cluster Management observability 会收集一些聚合数据。
注 :如果启用了可观察性,您可以从 Grafana Explore 页面输入对指标的查询。
创建策略时,您要创建一个 root 策略。框架监视根策略以及 PlacementRules
和 PlacementBindings
,以确定在哪里创建 propagated 策略,以便将策略分发到受管集群。对于根和传播策略,如果策略合规,则指标会记录 0
,如果策略不合规,则记录 1
。
policy_governance_info
指标使用以下标签:
-
type
:标签值为root
或propagated
。 -
policy
:关联的根策略的名称。 -
policy_namespace
:定义根策略的 hub 集群上命名空间。 -
cluster_namespace
:分发策略的集群的命名空间。
这些标签和值启用查询来显示集群中可能发生的许多事情,这些情况可能很难跟踪。
注 :如果不需要指标数据,且对性能或安全性有任何顾虑,则可以禁用此功能。在传播器部署中,将 DISABLE_REPORT_METRICS
环境变量设置为 true
。您还可以将 policy_governance_info
指标添加到 observability allowlist 作为自定义指标。如需了解更多详细信息,请参阅 添加自定义指标。
2.6.6. 管理安全策略
创建一个安全策略,根据您指定的安全标准、类别和控制,报告并验证您的集群合规性。要为 Red Hat Advanced Cluster Management for Kubernetes 创建策略,您必须在受管集群上创建 YAML 文件。
注:您可以将现有策略复制到 Policy YAML 中。当您粘贴现有策略时,会自动输入参数字段的值。您还可以使用搜索功能搜索策略 YAML 文件中的内容。
查看以下部分:
2.6.6.1. 创建安全策略
您可以使用命令行界面 (CLI) 或者从控制台创建安全策略。需要集群管理员访问权限。
重要 :您必须定义放置规则和放置绑定,才能将策略应用到特定集群。为 Cluster selector 字段输入有效的值,以定义 PlacementRule
和 PlacementBinding
。如需有效表达式,请参阅 Kubernetes 文档中的支持基于集合的要求的资源。查看 Red Hat Advanced Cluster Management 策略所需的对象定义:
- PlacementRule:定义必须部署策略的集群选择器。
- PlacementBinding :将放置绑定到放置规则。
在策略概述中查看策略 YAML 文件的更多描述。
2.6.6.1.1. 使用命令行界面创建安全策略
完成以下步骤,使用命令行界面 (CLI) 创建策略:
运行以下命令来创建策略:
kubectl create -f policy.yaml -n <namespace>
定义策略使用的模板。要编辑
.yaml
文件,请添加templates
字段来定义模板。您的策略可能类似以下 YAML 文件:apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy1 spec: remediationAction: "enforce" # or inform disabled: false # or true namespaces: include: ["default"] exclude: ["kube*"] policy-templates: - objectDefinition: apiVersion: policy.open-cluster-management.io/v1 kind: ConfigurationPolicy metadata: namespace: kube-system # will be inferred name: operator spec: remediationAction: "inform" object-templates: complianceType: "musthave" # at this level, it means the role must exist and must have the following rules apiVersion: rbac.authorization.k8s.io/v1 kind: Role metadata: name: example objectDefinition: rules: - complianceType: "musthave" # at this level, it means if the role exists the rule is a musthave apiGroups: ["extensions", "apps"] resources: ["deployments"] verbs: ["get", "list", "watch", "create", "delete","patch"]
定义
PlacementRule
。务必更改PlacementRule
,以通过clusterNames
或clusterLabels
指定需要应用策略的集群。查看 放置规则示例概述您
PlacementRule
可能类似如下内容:apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement1 spec: clusterConditions: - type: ManagedClusterConditionAvailable status: "True" clusterNames: - "cluster1" - "cluster2" clusterLabels: matchLabels: cloud: IBM
定义一个
PlacementBinding
来绑定您的策略和PlacementRule
。您PlacementBinding
可能类似以下 YAML 示例:apiVersion: policy.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding1 placementRef: name: placement1 apiGroup: apps.open-cluster-management.io kind: PlacementRule subjects: - name: policy1 apiGroup: policy.open-cluster-management.io kind: Policy
2.6.6.1.1.1. 通过 CLI 查看您的安全策略
完成以下步骤,通过 CLI 查看您的安全策略:
运行以下命令,查看具体安全策略的详情:
kubectl get securitypolicy <policy-name> -n <namespace> -o yaml
运行以下命令,查看您的安全策略的描述:
kubectl describe securitypolicy <name> -n <namespace>
2.6.6.1.2. 从控制台创建集群安全策略
从控制台创建新策略时,也会在 YAML 编辑器中创建 YAML 文件。
进入 click Governance 页面并点 Create policy。
输入或选择您想要的策略。选择策略后会自动输入参数值。
您的 YAML 文件可能类似以下策略:
+
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-pod annotations: policy.open-cluster-management.io/categories: 'SystemAndCommunicationsProtections,SystemAndInformationIntegrity' policy.open-cluster-management.io/controls: 'control example' policy.open-cluster-management.io/standards: 'NIST,HIPAA' spec: complianceType: musthave namespaces: exclude: ["kube*"] include: ["default"] object-templates: - complianceType: musthave objectDefinition: apiVersion: v1 kind: Pod metadata: name: pod1 spec: containers: - name: pod-name image: 'pod-image' ports: - containerPort: 80 remediationAction: enforce disabled: false --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementBinding metadata: name: binding-pod placementRef: name: placement-pod kind: PlacementRule apiGroup: apps.open-cluster-management.io subjects: - name: policy-pod kind: Policy apiGroup: policy.open-cluster-management.io --- apiVersion: apps.open-cluster-management.io/v1 kind: PlacementRule metadata: name: placement-pod spec: clusterConditions: - type: ManagedClusterConditionAvailable status: "True" clusterLabels: matchLabels: cloud: "IBM"
点击 Create Policy。从控制台创建了安全策略。
2.6.6.1.2.1. 从控制台查看您的安全策略
在控制台中查看任何安全策略及其状态。
导航到 Governance 页面,查看您的策略的表列表。注:您可以通过选择 Policies 标签页或 Cluster violations 标签页来过滤策略列表。
选择一个策略来查看更多详情。此时会显示 Details、Clusters 和 Templates 标签页。当无法决定集群或策略状态时,会显示以下信息: No status
。
2.6.6.2. 更新安全策略
查看以下部分以了解如何更新安全策略。
2.6.6.2.1. 禁用安全策略
您的策略默认是启用的。从控制台禁用您的策略。
登录到 Red Hat Advanced Cluster Management for Kubernetes 控制台后,进入 Governance 页来查看您的策略表列表。
选择 Actions 图标 > Disable policy。此时会出现 Disable Policy 对话框。
点击 Disable policy。您的策略已禁用。
2.6.6.3. 删除安全策略
通过 CLI 或控制台删除安全策略。
通过 CLI 删除安全策略:
运行以下命令来删除安全策略:
kubectl delete policy <securitypolicy-name> -n <open-cluster-management-namespace>
删除策略后,它会从一个或多个目标集群中移除。运行以下命令验证您的策略是否已移除:
kubectl get policy <securitypolicy-name> -n <open-cluster-management-namespace>
从控制台删除安全策略:
在导航菜单中点 Governance 来查看您的策略的表列表。在策略违反表中点击您要删除的策略的 Actions 图标。
点击 Remove。在 Remove policy 对话框中点击 Remove policy
2.6.7. 管理配置策略
了解如何创建、应用、查看和更新您的配置策略。提醒,以下资源是配置策略:
- 内存用量策略
- 命名空间策略
- 镜像漏洞策略
- Pod 策略
- Pod 安全策略
- 角色策略
- 角色绑定策略
- 安全内容约束 (SCC) 策略
- ETCD 加密策略
- Compliance operator 策略
需要的访问权限 : 管理员或集群管理员
2.6.7.1. 创建配置策略
您可以使用命令行界面 (CLI) 或者从控制台为配置策略创建 YAML 文件。查看以下部分以创建配置策略:
2.6.7.1.1. 通过 CLI 创建配置策略
完成以下步骤,通过 CLI 创建配置策略:
为您的配置策略创建一个 YAML 文件。运行以下命令:
kubectl create -f configpolicy-1.yaml
您的配置策略可能类似以下策略:
apiVersion: policy.open-cluster-management.io/v1 kind: Policy metadata: name: policy-1 namespace: kube-system spec: namespaces: include: ["default", "kube-*"] exclude: ["kube-system"] remediationAction: inform disabled: false complianceType: musthave object-templates: ...
运行以下命令来应用策略:
kubectl apply -f <policy-file-name> --namespace=<namespace>
运行以下命令,验证并列出策略:
kubectl get policy --namespace=<namespace>
您的配置策略已创建。
2.6.7.1.2. 通过 CLI 查看您的配置策略
完成以下步骤,通过 CLI 查看您的配置策略:
运行以下命令,查看具体配置策略的详情:
kubectl get policy <policy-name> -n <namespace> -o yaml
运行以下命令,查看您的配置策略的描述:
kubectl describe policy <name> -n <namespace>
2.6.7.1.3. 从控制台创建配置策略
从控制台创建配置策略时,也会在 YAML 编辑器中创建 YAML 文件。
从控制台登录到集群,从导航菜单中选择 Governance。
点击 Create policy。通过为规格参数选择一个配置策略来指定您要创建的策略。
通过填写策略表单继续创建配置策略。为以下字段输入或选择适当的值:
- Name
- Specifications
- Cluster selector
- Remediation action
- Standards
- Categories
- Controls
点 Create。您的配置策略已创建。
2.6.7.1.4. 从控制台查看您的配置策略
在控制台中查看任何配置策略及其状态。
从控制台登录到集群后,选择 Governance 来查看您的策略的表列表。注:您可以选择 All policies 选项卡或者 Cluster violations 选项卡来过滤您的策略表列表。
选择一个策略来查看更多详情。此时会显示 Details、Clusters 和 Templates 标签页。
2.6.7.2. 更新配置策略
查看以下部分以了解如何更新配置策略。
2.6.7.2.1. 禁用配置策略
禁用您的配置策略。与前面提到的说明类似,登录并导航到 Governance 页面。
从表列表中选择配置策略的 Actions 图标,然后单击 Disable。此时会出现 Disable Policy 对话框。
点击 Disable policy。
您的配置策略已被禁用。
2.6.7.3. 删除配置策略
通过 CLI 或控制台删除配置策略。
通过 CLI 删除配置策略:
运行以下命令来删除配置策略:
kubectl delete policy <policy-name> -n <namespace>
删除策略后,它会从一个或多个目标集群中移除。
- 运行以下命令验证您的策略是否已移除:
kubectl get policy <policy-name> -n <namespace>
通过控制台删除配置策略:
在导航菜单中点 Governance 来查看您的策略的表列表。
在策略违反表中点击您要删除的策略的 Actions 图标。然后单击删除。在 Remove policy 对话框中点击 Remove policy。
您的策略已删除。
请参阅 CM-Configuration-Management 文件夹 中的 Red Hat Advanced Cluster Management 支持的配置策略示例。
或者,参阅 Kubernetes 配置策略控制器来查看控制器监控的其他配置策略。有关管理其他策略的详情,请参阅管理安全策略。
2.6.8. 管理 gatekeeper Operator 策略
使用 gatekeeper operator 策略在受管集群上安装 gatekeeper operator 和 gatekeeper。在以下部分中了解如何创建、查看和更新您的 gatekeeper Operator 策略。
需要的访问权限: 集群管理员
2.6.8.1. 使用 gatekeeper operator 策略安装 gatekeeper
使用监管框架来安装 gatekeeper Operator。OpenShift Container Platform 目录中提供了 gatekeeper operator。如需更多信息,请参阅 OpenShift Container Platform 文档中的将 Operator 添加到集群部分。
使用配置策略控制器来安装 gatekeeper operator 策略。在安装过程中,Operator 组和订阅会拉取 gatekeeper operator 将其安装到受管集群中。然后,gatekeeper operator 会创建一个 gatekeeper CR 来配置 gatekeeper。查看 Gatekeeper operator CR 示例。
在支持 enforce(强制)
补救操作的情况下,gatekeeper operator 策略由 Red Hat Advanced Cluster Management 配置策略控制器监控。当设置为 enforce
时,控制器会自动创建 Gatekeeper Operator 策略。
2.6.8.2. 从控制台创建 gatekeeper 策略
通过从控制台创建 gatekeeper 策略来安装 gatekeeper 策略。
登录到集群后,进入 Governance 页面。
选择 Create policy。在填写表单时,从 Specifications 项中选择 GatekeeperOperator。策略的参数值会自动填充,策略默认设置为 inform
。将补救操作设置为 enforce
来安装 gatekeeper。请参阅 policy-gatekeeper-operator.yaml
查看示例。
+ 注: 考虑可由 Operator 生成默认值。如需了解可用于 gatekeeper operator 策略的可选参数的说明,请参阅 Gatekeeper Helm Chart。
2.6.8.2.1. Gatekeeper operator CR
apiVersion: operator.gatekeeper.sh/v1alpha1 kind: Gatekeeper metadata: name: gatekeeper spec: audit: replicas: 1 logLevel: DEBUG auditInterval: 10s constraintViolationLimit: 55 auditFromCache: Enabled auditChunkSize: 66 emitAuditEvents: Enabled resources: limits: cpu: 500m memory: 150Mi requests: cpu: 500m memory: 130Mi validatingWebhook: Enabled webhook: replicas: 2 logLevel: ERROR emitAdmissionEvents: Enabled failurePolicy: Fail resources: limits: cpu: 480m memory: 140Mi requests: cpu: 400m memory: 120Mi nodeSelector: region: "EMEA" affinity: podAffinity: requiredDuringSchedulingIgnoredDuringExecution: - labelSelector: matchLabels: auditKey: "auditValue" topologyKey: topology.kubernetes.io/zone tolerations: - key: "Example" operator: "Exists" effect: "NoSchedule" podAnnotations: some-annotation: "this is a test" other-annotation: "another test"
2.6.8.3. 升级 gatekeeper 和 gatekeeper operator
您可以升级 gatekeeper 和 gatekeeper operator 的版本。完成以下步骤:
-
当使用 gatekeeper operator 策略安装 gatekeeper operator 时,请注意
installPlanApproval
的值。当installPlanApproval
设置为Automatic
时,Operator 会自动升级。当installPlanApproval
设置为Manual
时,您必须为每个集群手动批准 gatekeeper operator 的升级。
2.6.8.4. 更新 gatekeeper operator 策略
查看以下部分以了解如何更新 gatekeeper operator 策略。
2.6.8.4.1. 从控制台查看 gatekeeper operator 策略
在控制台中查看您的 gatekeeper operator 策略及其状态。
从控制台登录到集群后,点 Governance 来查看策略的表列表。注:您可以通过选择 Policies 标签页或 Cluster violations 标签页来过滤策略列表。
选择 policy-gatekeeper-operator
策略来查看更多详细信息。选择 Clusters 选项卡来查看策略违反情况。
2.6.8.4.2. 禁用 gatekeeper operator 策略
禁用 gatekeeper operator 策略。
登录到 Red Hat Advanced Cluster Management for Kubernetes 控制台后,进入 Governance 页来查看您的策略表列表。
选择 policy-gatekeeper-operator
策略的 Actions 图标,然后单击 Disable。此时会出现 Disable Policy 对话框。
点击 Disable policy。您的 policy-gatekeeper-operator
策略已被禁用。
2.6.8.5. 删除 gatekeeper operator 策略
通过 CLI 或控制台删除 gatekeeper operator 策略。
通过 CLI 删除 gatekeeper operator 策略:
运行以下命令来删除 gatekeeper operator 策略:
kubectl delete policy <policy-gatekeeper-operator-name> -n <namespace>
删除策略后,它会从一个或多个目标集群中移除。
运行以下命令验证您的策略是否已移除:
kubectl get policy <policy-gatekeeper-operator-name> -n <namespace>
从控制台删除 gatekeeper operator 策略:
导航到 Governance 页面,查看您的策略的表列表。
与之前的控制台指令类似,点
policy-gatekeeper-operator
策略的 Actions 图标。单击 Remove 以删除该策略。在 Remove policy 对话框中点击 Remove policy。
您的 gatekeeper operator 策略被删除。
2.6.8.6. 卸载 gatekeeper 策略、gatekeeper 和 gatekeeper operator 策略
完成以下步骤以卸载 gatekeeper 策略、gatekeeper 和 gatekeeper operator 策略:
删除应用到受管集群的 gatekeeper
Constraint
和ConstraintTemplate
:-
编辑 gatekeeper operator 策略。找到您用来创建 gatekeeper
Constraint
和ConstraintTemplate
的ConfigurationPolicy
模板 。 -
将
ConfigurationPolicy
模板的complianceType
的值改为mustnothave
。 - 保存并应用策略。
-
编辑 gatekeeper operator 策略。找到您用来创建 gatekeeper
从受管集群中删除 gatekeeper 实例:
-
编辑 gatekeeper operator 策略。找到用于创建 Gatekeeper 自定义资源(CR)的
ConfigurationPolicy
模板。 -
将
ConfigurationPolicy
模板的complianceType
的值改为mustnothave
。
-
编辑 gatekeeper operator 策略。找到用于创建 Gatekeeper 自定义资源(CR)的
删除受管集群中的 gatekeeper Operator:
-
编辑 gatekeeper operator 策略。找到用于创建 Subscription CR 的
ConfigurationPolicy
模板。 -
将
ConfigurationPolicy
模板的complianceType
的值改为mustnothave
。
-
编辑 gatekeeper operator 策略。找到用于创建 Subscription CR 的
Gatekeeper 策略、gatekeeper 和 gatekeeper operator 策略会被卸载。
如需有关 gatekeeper 的详细信息,请参阅集成 gatekeeper 约束和约束模板。有关将第三方策略与产品集成的主题列表,请参阅集成第三方策略控制器。
2.7. 保护 hub 集群
通过强化 hub 集群安全性来保护 Red Hat Advanced Cluster Management for Kubernetes 安装。完成以下步骤:
- Secure Red Hat OpenShift Container Platform.如需更多信息,请参阅 OpenShift Container Platform 安全和合规性。
- 设置基于角色的访问控制(RBAC)。如需更多信息,请参阅基于角色的访问控制。
- 自定义证书,请参阅 证书。
- 定义集群凭证,请参阅 管理凭证概述
- 查看可用的策略以帮助您强化集群安全性。请参阅支持的策略
2.8. 完整性 shield 保护(技术预览)
完整性屏蔽是一种工具,它有助于为创建或更新资源的任何请求执行签名验证。完整性截图支持开放策略代理(OPA)和 Gatekeeper,验证请求是否有签名,并根据定义的约束阻止任何未授权的请求。
请参阅以下完整性盾牌功能:
- 仅支持部署授权的 Kubernetes 清单。
- 在资源配置中支持零偏移,除非资源已添加到 allowlist 中。
- 在集群上执行所有完整性验证,如强制准入控制器。
- 如果集群中部署了未经授权的 Kubernetes 资源,则持续监控资源以报告。
-
X509、GPG 和 Sigstore 签名支持为 Kubernetes 清单 YAML 文件签名。Kubernetes 完整性 shield 使用
k8s-manifest-sigstore
支持 Sigstore 签名。
2.8.1. 完整性 shield 架构
完整性屏蔽由两个主要组件组成,即 API 和 Observer。完整性 shield operator 支持在集群上安装和管理完整的 shield 组件。查看以下组件描述:
-
完整性 shield API 从 OPA 或 gatekeeper 接收 Kubernetes 资源,验证准入请求中包含的资源,并将验证结果发送到 OPA 或 gatekeeper。shield API 在内部使用
k8s-manifest-sigstore
的verify-resource
功能来验证 Kubernetes 清单 YAML 文件。完整性 shield API 根据ManifestingIntegrityConstraint
(是基于 OPA 或 gatekeeper 的约束框架的自定义资源)验证资源。 -
完整性 shield Observer 根据
ManifestingIntegrityConstraint
资源持续验证集群中的 Kubernetes 资源,并将结果导出到名为ManifestIntegrityState
的资源。完整性 shield Observer 还使用k8s-manifest-sigstore
来验证签名。
2.8.2. 支持的版本
以下产品版本支持完整性 shield 保护:
2.8.3. 启用完整性 shield 保护(技术预览)
在 Red Hat Advanced Cluster Management for Kubernetes 集群中启用完整性 shield 保护 Kubernetes 资源的完整性。
2.8.3.1. 先决条件
在 Red Hat Advanced Cluster Management 受管集群中启用完整性 shield 保护需要以下先决条件:
-
安装具有一个或多个受管集群的 Red Hat Advanced Cluster Management hub 集群,以及集群管理员对集群的访问权限,以使用
oc
或kubectl
命令。 安装完整性 shield.在安装完整性 shield 前,您必须在集群中安装 Open Policy Agent 或 gatekeeper。完成以下步骤以安装完整性 shield operator:
运行以下命令,在命名空间中安装完整性 shield operator 以获得完整性 shield:
kubectl create -f https://raw.githubusercontent.com/open-cluster-management/integrity-shield/master/integrity-shield-operator/deploy/integrity-shield-operator-latest.yaml
使用以下命令安装完整性 shield 自定义资源:
kubectl create -f https://raw.githubusercontent.com/open-cluster-management/integrity-shield/master/integrity-shield-operator/config/samples/apis_v1_integrityshield.yaml -n integrity-shield-operator-system
完整性屏蔽需要一对密钥来签名和验证集群中需要保护的资源签名。设置签名和验证密钥对:
使用以下命令生成一个新的 GPG 密钥:
gpg --full-generate-key
使用以下命令将您的新 GPG 公钥导出到文件中:
gpg --export signer@enterprise.com > /tmp/pubring.gpg
-
安装
yq
以运行用于签署 Red Hat Advanced Cluster Management 策略的脚本。 -
启用完整性 shield 保护和签名 Red Hat Advanced Cluster Management 包括从
integrity-shield
仓库检索和提交源。您必须安装 Git。
2.8.3.2. 启用完整性 shield 保护
通过完成以下步骤,在 Red Hat Advanced Cluster Management 受管集群中启用完整性 shield:
为完整性 shield 在 hub 集群上创建一个命名空间。运行以下命令:
oc create ns your-integrity-shield-ns
在 Red Hat Advanced Cluster Management 受管集群中部署验证密钥。提醒,您必须创建签名和验证密钥。在 hub 集群上运行
acm-verification-key-setup.sh
来设置验证密钥。运行以下命令:curl -s https://raw.githubusercontent.com/stolostron/integrity-shield/master/scripts/ACM/acm-verification-key-setup.sh | bash -s \ --namespace integrity-shield-operator-system \ --secret keyring-secret \ --path /tmp/pubring.gpg \ --label environment=dev | oc apply -f -
要删除验证密钥,请运行以下命令:
curl -s https://raw.githubusercontent.com/stolostron/integrity-shield/master/scripts/ACM/acm-verification-key-setup.sh | bash -s - \ --namespace integrity-shield-operator-system \ --secret keyring-secret \ --path /tmp/pubring.gpg \ --label environment=dev | oc delete -f -
在 hub 集群中创建一个名为
policy-integrity-shield
的 Red Hat Advanced Cluster Management 策略。-
从
policy-collection
存储库检索policy-integrity-shield
策略。确定 fork 了 存储库。 -
通过更新
remediationAction
参数值(从inform
到enforce
),将命名空间配置为在 Red Hat Advanced Cluster Management 受管集群上部署完整性 shield。 -
通过更新
signerConfig
部分,为签名者和验证密钥配置电子邮件。 -
配置
PlacementRule
,它决定了应该部署完整性的 Red Hat Advanced Cluster Management 受管集群。 运行以下命令,签署
policy-integrity-shield.yaml
:curl -s https://raw.githubusercontent.com/stolostron/integrity-shield/master/scripts/gpg-annotation-sign.sh | bash -s \ signer@enterprise.com \ policy-integrity-shield.yaml
注 :每当您更改策略并应用到其他集群时,您必须创建新的签名。否则,更改会被阻止且不应用。
-
从
如需示例,请参阅 policy-integrity-shield
策略。