1.3. 既知の問題
アプリケーション管理に関する既知の問題を確認します。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題 を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
クラスター管理または クラスターのライフサイクル は、{produt-title-short} の有無にかかわらず、マルチクラスターエンジンオペレーターによって提供されます。以下は、{produt-title-short} にのみ適用される、クラスター管理に関する既知の問題と制限事項です。クラスター管理の既知の問題のほとんどは、クラスターライフサイクルの既知の問題 にあるクラスターライフサイクルのドキュメントに記載されています。
1.3.1. インストール関連の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
インストールに関する既知の問題を確認してください。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題[OpenShift Container Platform known issues] を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
1.3.1.1. エラータリリースへのアップグレード後も非推奨のリソースが残る リンクのコピーリンクがクリップボードにコピーされました!
2.4.x から 2.5.x にアップグレードしてから 2.6.x にアップグレードした後、マネージドクラスターの namespace に非推奨のリソースが残る場合があります。バージョン 2.6.x が 2.4.x からアップグレードされた場合、これらの非推奨のリソースを手動で削除する必要があります。
注記: バージョン 2.5.x からバージョン 2.6.x にアップグレードする前に、30 分以上待つ必要があります。
コンソールから削除するか、削除するリソースに対して次の例のようなコマンドを実行できます。
oc delete -n <managed cluster namespace> managedclusteraddons.addon.open-cluster-management.io <resource-name>
oc delete -n <managed cluster namespace> managedclusteraddons.addon.open-cluster-management.io <resource-name>
残っている可能性のある非推奨のリソースのリストを参照してください。
1.3.1.2. Red Hat Advanced Cluster Management のアップグレード後に Pod が復旧しないことがある リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management を新しいバージョンにアップグレードした後、StatefulSet に属するいくつかの Pod が failed 状態のままになることがあります。このまれなイベントは、Kubernetes の既知の問題 が原因です。
この問題の回避策として、失敗した Pod を削除します。Kubernetes は、正しい設定で自動的に再起動します。
1.3.1.3. OpenShift Container Platform クラスターのアップグレード失敗のステータス リンクのコピーリンクがクリップボードにコピーされました!
OpenShift Container Platform クラスターがアップグレードの段階に入ると、クラスター Pod は再起動され、クラスターのステータスが 1-5 分ほど、upgrade failed のままになることがあります。この動作は想定されており、数分後に解決されます。
1.3.1.4. MultiClusterEngine の作成ボタンが機能しない リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Container Platform コンソールに Red Hat Advanced Cluster Management for Kubernetes をインストールすると、ポップアップウィンドウに次のメッセージが表示されます。
MultiClusterEngine required
Create a MultiClusterEngine instance to use this Operator.
ポップアップウィンドウメッセージの Create MultiClusterEngine ボタンが機能しない場合があります。この問題を回避するには、提供された API セクションの MultiClusterEngine タイルで インスタンスの作成 を選択します。
1.3.2. ビジネス継続性関連の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management for Kubernetes の既知の問題を確認してください。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題[OpenShift Container Platform known issues] を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
1.3.2.1. バックアップおよび復元の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
1.3.2.1.1. cluster-proxy-addon がハブクラスターのバックアップと復元中に失敗する リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management ハブクラスターをバックアップする場合は、これをアンインストールし、同じクラスターに再インストールしてから復元すると、cluster-proxy-addon が機能しなくなります。Pod ログから以下のエラーメッセージが表示されます。
E0430 19:11:20.810624 1 clientset.go:188] "cannot connect once" err="rpc error: code = Unavailable desc = connection error: desc = \"transport: authentication handshake failed: tls: failed to verify certificate: x509: certificate signed by unknown authority\""
E0430 19:11:20.810624 1 clientset.go:188] "cannot connect once" err="rpc error: code = Unavailable desc = connection error: desc = \"transport: authentication handshake failed: tls: failed to verify certificate: x509: certificate signed by unknown authority\""
この問題を回避するには、以下の手順を実行します。
以下のコマンドを実行して
cluster-proxy-addonを無効にします。oc patch mce multiclusterengine --type=merge -p '{"spec":{"overrides":{"components":[ {"name":"cluster-proxy-addon","enabled": false} ]}}}'oc patch mce multiclusterengine --type=merge -p '{"spec":{"overrides":{"components":[ {"name":"cluster-proxy-addon","enabled": false} ]}}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のコマンドを実行して、
cluster-proxy-addonを再インストールします。oc patch mce multiclusterengine --type=merge -p '{"spec":{"overrides":{"components":[ {"name":"cluster-proxy-addon","enabled": true} ]}}}'oc patch mce multiclusterengine --type=merge -p '{"spec":{"overrides":{"components":[ {"name":"cluster-proxy-addon","enabled": true} ]}}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.2.1.2. ベアメタルハブリソースは、マネージドクラスターのバックアップによってバックアップされなくなりました リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management のバックアップおよびリストア機能を使用して、ベアメタルクラスターのリソースがバックアップされ、セカンダリーハブクラスターにリストアされる場合は、マネージドクラスターがノードに再インストールされ、既存のマネージドクラスターが壊れます。
注記: これは、ゼロタッチプロビジョニングを使用してデプロイされたベアメタルクラスターにのみ影響があります。つまり、ベアメタルノードの電源のオンとオフを管理し、起動用の仮想メディアを接続する BareMetalHost リソースが含まれます。BareMetalHost リソースがマネージドクラスターのデプロイメントで使用されない場合は、悪影響はありません。
この問題を回避するために、プライマリーハブクラスター上の BareMetalHost リソースは、マネージドクラスターバックアップでバックアップされなくなりました。
別のユースケースがあり、プライマリーハブクラスター上のマネージド BareMetalHost リソースをバックアップする場合は、プライマリーハブクラスター上の BareMetalHost リソースにバックアップラベル cluster.open-cluster-management.io/backup を追加します。
このバックアップラベルを使用して汎用リソースをバックアップする方法の詳細は、バックアップされるリソース のトピックを参照してください。
1.3.2.1.3. OADP 1.1.2 以降を使用すると、BackupSchedule に FailedValidation ステータスが表示される リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management のバックアップおよび復元コンポーネントを有効にし、DataProtectionApplication リソースを正常に作成すると、BackupStorageLocation リソースが Available のステータスで作成されます。OADP バージョン 1.1.2 以降を使用している場合、BackupSchedule リソースを作成すると、次のメッセージが表示されてステータスが FailedValidation になることがあります。
oc get backupschedule -n open-cluster-management-backup NAME PHASE MESSAGE rosa-backup-schedule FailedValidation Backup storage location is not available. Check velero.io.BackupStorageLocation and validate storage credentials.
oc get backupschedule -n open-cluster-management-backup
NAME PHASE MESSAGE
rosa-backup-schedule FailedValidation Backup storage location is not available. Check velero.io.BackupStorageLocation and validate storage credentials.
このエラーは、BackupStorageLocation リソースの ownerReference の値がないために発生します。DataProtectionApplication リソースの値は、ownerReference の値として使用する必要があります。
この問題を回避するには、ownerReference を BackupStorageLocation に手動で追加します。
次のコマンドを実行して、
oadp-operator.v1.1.2ファイルを開きます。oc edit csv -n open-cluster-management-backup oadp-operator.v1.1.2
oc edit csv -n open-cluster-management-backup oadp-operator.v1.1.2Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
OADP Operator CSV の
1を0に置き換えて、spec.deployments.label.spec.replicasの値を編集します。 次の例のとおり、YAML スクリプトの
ownerReferenceアノテーションにパッチを適用します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow -
spec.deployments.label.spec.replicasの値を1に戻し、新しい設定でデータ保護アプリケーションプロセスを開始します。
1.3.2.1.4. Velero 復元の制限 リンクのコピーリンクがクリップボードにコピーされました!
データが復元される新しいハブクラスターにユーザーが作成したリソースがある場合、新しいハブクラスターはアクティブなハブクラスターとは異なる設定を持つことができます。たとえば、バックアップデータが新しいハブクラスターで復元される前に、新しいハブクラスターで作成された既存のポリシーを含めることができます。
既存のリソースが復元されたバックアップの一部でない場合、Velero はそれらをスキップするため、新しいハブクラスターのポリシーは変更されず、新しいハブクラスターとアクティブなハブクラスターの間で異なる設定が生じます。
この制限に対処するために、クラスターのバックアップと復元のオペレーターは、restore.cluster.open-cluster-management.io リソースが作成されたときに、ユーザーが作成したリソースをクリーンアップする復元後の操作、または別の復元操作を実行します。
詳細は、バックアップおよび復元 Operator のインストール トピックを参照してください。
1.3.2.1.5. パッシブ設定ではマネージドクラスターが表示されない リンクのコピーリンクがクリップボードにコピーされました!
マネージドクラスターは、アクティブ化データがパッシブハブクラスターで復元された場合にのみ表示されます。
1.3.2.1.6. マネージドクラスターリソースが復元されない リンクのコピーリンクがクリップボードにコピーされました!
local-cluster マネージドクラスターリソースの設定を復元し、新しいハブクラスターで local-cluster データを上書きすると、設定が正しく設定されません。リソースにはクラスター URL の詳細など、local-cluster 固有の情報が含まれているため、以前のハブクラスター local-cluster のコンテンツはバックアップされません。
復元されたクラスターの local-cluster リソースに関連するすべての設定変更を手動で適用する必要があります。バックアップおよび復元 Operator のインストール トピックの 新しいハブクラスターの準備 を参照してください。
1.3.2.1.7. 復元された Hive マネージドクラスターは、新しいハブクラスターに接続できない場合がある リンクのコピーリンクがクリップボードにコピーされました!
Hive マネージドクラスターの変更またはローテーションされた認証局 (CA) のバックアップを新しいハブクラスターで復元すると、マネージドクラスターは新しいハブクラスターへの接続に失敗します。このマネージドクラスターの admin kubeconfig シークレット (バックアップで使用可能) が無効になっているため、接続は失敗します。
新しいハブクラスター上のマネージドクラスターの復元された admin kubeconfig シークレットを手動で更新する必要があります。
1.3.2.1.8. インポートされたマネージドクラスターに Pending Import ステータスが表示される リンクのコピーリンクがクリップボードにコピーされました!
プライマリーハブクラスターに手動でインポートされたマネージドクラスターは、アクティブ化データがパッシブハブクラスターで復元されると、Pending Import のステータスを示します。詳細は、管理されたサービスアカウントを使用したクラスターの接続 を参照してください。
1.3.2.1.9. ハブクラスターを復元した後、appliedmanifestwork がマネージドクラスターから削除されない リンクのコピーリンクがクリップボードにコピーされました!
ハブクラスターデータが新しいハブクラスターで復元されるとき、appliedmanifestwork は固定クラスターセットではないアプリケーションサブスクリプションの配置規則を持つマネージドクラスターから削除されません。
固定クラスターセットではないアプリケーションサブスクリプションの配置ルールの例を次に示します。
spec:
clusterReplicas: 1
clusterSelector:
matchLabels:
environment: dev
spec:
clusterReplicas: 1
clusterSelector:
matchLabels:
environment: dev
その結果、マネージドクラスターが復元されたハブクラスターから切り離されると、アプリケーションは孤立します。
この問題を回避するには、配置ルールで固定クラスターセットを指定します。以下の例を参照してください。
spec:
clusterSelector:
matchLabels:
environment: dev
spec:
clusterSelector:
matchLabels:
environment: dev
次のコマンドを実行して、残りの appliedmanifestwork を手動で削除することもできます。
oc delete appliedmanifestwork <the-left-appliedmanifestwork-name>
oc delete appliedmanifestwork <the-left-appliedmanifestwork-name>
1.3.2.1.10. appliedmanifestwork は削除されず、ハブクラスター配置ルールには固定クラスターセットがない リンクのコピーリンクがクリップボードにコピーされました!
ハブクラスターデータが新しいハブクラスターで復元されるとき、appliedmanifestwork は固定クラスターセットではないアプリケーションサブスクリプションの配置規則を持つマネージドクラスターから削除されません。その結果、マネージドクラスターが復元されたハブクラスターから切り離されると、アプリケーションは孤立します。
固定クラスターセットではないアプリケーションサブスクリプションの配置ルールの例を次に示します。
spec:
clusterReplicas: 1
clusterSelector:
matchLabels:
environment: dev
spec:
clusterReplicas: 1
clusterSelector:
matchLabels:
environment: dev
この問題を回避するには、配置ルールで固定クラスターセットを指定します。以下の例を参照してください。
spec:
clusterSelector:
matchLabels:
environment: dev
spec:
clusterSelector:
matchLabels:
environment: dev
次のコマンドを実行して、残りの appliedmanifestwork を手動で削除できます。
oc delete appliedmanifestwork <the-left-appliedmanifestwork-name>
oc delete appliedmanifestwork <the-left-appliedmanifestwork-name>
1.3.2.1.11. appliedmanifestwork が削除されず、agentID が仕様にない リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management 2.6 をプライマリーハブクラスターとして使用しているが、リストアハブクラスターがバージョン 2.7 以降である場合、このフィールドは 2.7 リリースで導入されたため、appliedmanifestworks の仕様に agentID がありません。これにより、マネージドクラスターのプライマリーハブに追加の appliedmanifestworks が生成されます。
この問題を回避するには、プライマリーハブクラスターを Red Hat Advanced Cluster Management 2.7 にアップグレードしてから、新しいハブクラスターにバックアップを復元します。
appliedmanifestwork ごとに spec.agentID を手動で設定して、マネージドクラスターを修正します。
次のコマンドを実行して、
agentIDを取得します。oc get klusterlet klusterlet -o jsonpath='{.metadata.uid}'oc get klusterlet klusterlet -o jsonpath='{.metadata.uid}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のコマンドを実行して、
appliedmanifestworkごとにspec.agentIDを設定します。oc patch appliedmanifestwork <appliedmanifestwork_name> --type=merge -p '{"spec":{"agentID": "'$AGENT_ID'"}}'oc patch appliedmanifestwork <appliedmanifestwork_name> --type=merge -p '{"spec":{"agentID": "'$AGENT_ID'"}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.2.1.12. managed-serviceaccount アドオンステータスは Unknownと表示されます。 リンクのコピーリンクがクリップボードにコピーされました!
マネージドクラスター appliedmanifestwork addon-managed-serviceaccount-deploy は、新しいハブクラスターの Kubernetes Operator リソースのマルチクラスターエンジンで有効にせずに Managed Service Account を使用している場合は、インポートされたマネージドクラスターから削除されます。
マネージドクラスターは引き続き新しいハブクラスターにインポートされますが、managed-serviceaccount アドオンのステータスは Unknown と表示されます。
マルチクラスターエンジン Operator リソースで Managed Service Account を有効にした後、managed-serviceaccount アドオンを回復できます。Managed Service Account を有効にする方法は、自動インポートの有効化 を参照してください。
1.3.3. コンソール関連の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
コンソールの既知の問題を確認してください。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題 を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
1.3.3.1. PostgreSQL Pod の CrashLoopBackoff 状態を検索する リンクのコピーリンクがクリップボードにコピーされました!
search-postgres Pod は CrashLoopBackoff 状態です。Red Hat Advanced Cluster Management が hugepages パラメーターが有効になっているノードを含むクラスターにデプロイされており、これらのノードで search-postgres Pod がスケジュールされている場合、Pod は起動しません。
search-postgres Pod のメモリーを増やすには、次の手順を実行します。
以下のコマンドを使用して
search-operatorPod を一時停止します。oc annotate search search-v2-operator search-pause=true
oc annotate search search-v2-operator search-pause=trueCopy to Clipboard Copied! Toggle word wrap Toggle overflow hugepagesパラメーターの制限を使用して、search-postgresデプロイメントを更新します。次のコマンドを実行して、hugepagesパラメーターを512Miに設定します。oc patch deployment search-postgres --type json -p '[{"op": "add", "path": "/spec/template/spec/containers/0/resources/limits/hugepages-2Mi", "value":"512Mi"}]'oc patch deployment search-postgres --type json -p '[{"op": "add", "path": "/spec/template/spec/containers/0/resources/limits/hugepages-2Mi", "value":"512Mi"}]'Copy to Clipboard Copied! Toggle word wrap Toggle overflow Pod のメモリー使用量を確認する前に、
search-postgresPod がRunning状態にあることを確認します。以下のコマンドを実行します。oc get pod <your-postgres-pod-name> -o jsonpath="Status: {.status.phase}"oc get pod <your-postgres-pod-name> -o jsonpath="Status: {.status.phase}"Copy to Clipboard Copied! Toggle word wrap Toggle overflow 次のコマンドを実行して、
search-postgresPod のメモリー使用量を確認します。oc get pod <your-postgres-pod-name> -o jsonpath='{.spec.containers[0].resources.limits.hugepages-2Mi}'oc get pod <your-postgres-pod-name> -o jsonpath='{.spec.containers[0].resources.limits.hugepages-2Mi}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow
512Mi の値が表示されます。
1.3.3.2. コンソール機能は Firefox の以前のバージョンで表示されない場合がある リンクのコピーリンクがクリップボードにコピーされました!
以前のバージョンの Firefox のダークテーマスタイルには、既知の問題があります。コンソールの互換性を最適化するため、最新版にアップグレードしてください。
詳しくは、サポートされているブラウザー を参照してください。
1.3.3.3. searchcustomization におけるストレージサイズの制限 リンクのコピーリンクがクリップボードにコピーされました!
searchcustomization CR でストレージサイズを更新する場合、PVC 設定は変更されません。ストレージサイズを更新する必要がある場合は、以下のコマンドで PVC (<storageclassname>-search-redisgraph-0) を更新します。
oc edit pvc <storageclassname>-search-redisgraph-0
oc edit pvc <storageclassname>-search-redisgraph-0
1.3.3.4. 検索クエリーの解析エラー リンクのコピーリンクがクリップボードにコピーされました!
環境が大規模になり、スケーリングのためにさらに多くのテストが必要になると、検索クエリーがタイムアウトになり、解析エラーメッセージが表示されることがあります。このエラーは、検索クエリーを 30 秒間待機した後に表示されます。
次のコマンドでタイムアウト時間を延長します。
kubectl annotate route multicloud-console haproxy.router.openshift.io/timeout=Xs
kubectl annotate route multicloud-console haproxy.router.openshift.io/timeout=Xs
1.3.3.5. クラスターセットのネームスペースバインディングを編集できない リンクのコピーリンクがクリップボードにコピーされました!
admin または bind ロールを使用してクラスターセットの namespace バインディングを編集すると、次のメッセージのようなエラーが発生する場合があります。
ResourceError: managedclustersetbindings.cluster.open-cluster-management.io "<cluster-set>" is forbidden: User "<user>" cannot create/delete resource "managedclustersetbindings" in API group "cluster.open-cluster-management.io" in the namespace "<namespace>".
この問題を解決するには、バインドする namespace で ManagedClusterSetBinding リソースを作成または削除する権限も持っていることを確認してください。ロールバインディングでは、クラスターセットを namespace にバインドすることしかできません。
1.3.3.6. Hosted Control Plane クラスターをプロビジョニングした後、水平スクロールが機能しない リンクのコピーリンクがクリップボードにコピーされました!
Hosted Control Plane クラスターをプロビジョニングした後、ClusterVersionUpgradeable パラメーターが長すぎると、Red Hat Advanced Cluster Management コンソールのクラスター概要を水平方向にスクロールできない場合があります。結果として、非表示のデータを表示することはできません。
この問題を回避するには、ブラウザーのズームコントロールを使用してズームアウトするか、Red Hat Advanced Cluster Management コンソールウィンドウのサイズを大きくするか、テキストをコピーして別の場所に貼り付けます。
1.3.3.7. EditApplicationSet 拡張機能の繰り返しを設定する リンクのコピーリンクがクリップボードにコピーされました!
複数のラベル式を追加するか、ApplicationSet のクラスターセレクターに入ろうとすると、"Expand to enter expression" メッセージが繰り返し表示されることがあります。この問題にもかかわらず、クラスターの選択を入力することはできます。
1.3.3.8. アプリケーションコンソールは Argo CD プルモデルをサポートしません。 リンクのコピーリンクがクリップボードにコピーされました!
Argo CD プルモデルを使用して ApplicationSet リソースをデプロイすると、アプリケーションが Topology ページから正しく表示されません。Argo CD プルモデルを使用した ApplicationSet アプリケーションのデプロイはサポートされていません。
1.3.4. アプリケーションの既知の問題と制限事項 リンクのコピーリンクがクリップボードにコピーされました!
アプリケーション管理に関する既知の問題を確認します。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題 を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
アプリケーションライフサイクルコンポーネントについては、次の既知の問題を参照してください。
1.3.4.1. ローカルクラスターは pull モデルのマネージドクラスターとして除外されます リンクのコピーリンクがクリップボードにコピーされました!
ハブクラスターアプリケーションセットはターゲットマネージドクラスターにデプロイされますが、マネージドハブクラスターであるローカルクラスターはターゲットマネージドクラスターとして除外されます。
1.3.4.2. Argo CD コントローラーと伝播コントローラーは同時に調整する可能性があります リンクのコピーリンクがクリップボードにコピーされました!
Argo CD コントローラーと伝播コントローラーの両方が同じアプリケーションリソース上で調整し、マネージドクラスター上で異なるデプロイメントモデルからのアプリケーションデプロイメントの重複インスタンスが発生する可能性があります。
Pull モデルを使用してアプリケーションをデプロイする場合、Argo CD argocd.argoproj.io/skip-reconcile アノテーションが ApplicationSet のテンプレートセクションに追加されると、Argo CD コントローラーはこれらのアプリケーションリソースを無視します。
argocd.argoproj.io/skip-reconcile アノテーションは、GitOps operator バージョン 1.9.0 以降でのみ使用できます。競合を防ぐには、プルモデルを実装する前に、ハブクラスターとすべてのマネージドクラスターが GitOps operator バージョン 1.9.0 にアップグレードされるまで待ってください。
1.3.4.3. リソースのデプロイに失敗する リンクのコピーリンクがクリップボードにコピーされました!
MulticlusterApplicationSetReport にリストされているすべてのリソースは、実際にはマネージドクラスターにデプロイされます。リソースのデプロイに失敗した場合、そのリソースはリソースリストには含まれませんが、原因はエラーメッセージにリストされます。
1.3.4.4. リソースの割り当てには数分かかる場合があります リンクのコピーリンクがクリップボードにコピーされました!
1,000 を超えるマネージドクラスターと、数百のマネージドクラスターにデプロイされた Argo CD アプリケーションセットがある大規模環境の場合、ハブクラスターでの Argo CD アプリケーションの作成には数分かかる場合があります。次のファイル例に示されているように、アプリケーションセットの clusterDecisionResource ジェネレーターで requeueAfterSeconds を zero に設定できます。
1.3.4.5. アプリケーション ObjectBucket チャネルタイプは、許可リストと拒否リストを使用できない リンクのコピーリンクがクリップボードにコピーされました!
subscription-admin ロールの ObjectBucket チャネルタイプで許可リストと拒否リストを指定することはできません。他の種類のチャネルでは、サブスクリプションの許可リストと拒否リストによって、デプロイできる Kubernetes リソースとデプロイできない Kubernetes リソースが示されます。
1.3.4.5.1. Argo アプリケーションを 3.x OpenShift Container Platform マネージドクラスターにデプロイできない リンクのコピーリンクがクリップボードにコピーされました!
Infrastructure.config.openshift.io API は 3.x では使用できないため、コンソールから Argo ApplicationSet を 3.x OpenShift Container Platform マネージドクラスターにデプロイすることはできません。
1.3.4.6. multicluster_operators_subscription イメージへの変更は自動的に有効にならない リンクのコピーリンクがクリップボードにコピーされました!
マネージドクラスターで実行している application-manager アドオンは、以前は klusterlet Operator により処理されていましたが、サブスクリプション Operator により処理されるようになりました。サブスクリプション Operator は multicluster-hub で管理されていないため、multicluster-hub イメージマニフェスト ConfigMap の multicluster_operators_subscription イメージへの変更は自動的に有効になりません。
サブスクリプション Operator が使用するイメージが、multicluster-hub イメージマニフェスト ConfigMap の multicluster_operators_subscription イメージを変更することによってオーバーライドされた場合、マネージドクラスターの application-manager アドオンは、サブスクリプション Operator Pod が再起動するまで新しいイメージを使用しません。Pod を再起動する必要があります。
1.3.4.7. サブスクリプション管理者以外はポリシーリソースをデプロイできない リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management バージョン 2.4 では、デフォルトで policy.open-cluster-management.io/v1 リソースがアプリケーションサブスクリプションによってデプロイされなくなりました。
サブスクリプション管理者は、このデフォルトの動作を変更するためにアプリケーションサブスクリプションをデプロイする必要があります。
詳細は、サブスクリプション管理者としての許可リストおよび拒否リストの作成 を参照してください。以前の Red Hat Advanced Cluster Management バージョンの既存のアプリケーションサブスクリプションによってデプロイされた policy.open-cluster-management.io/v1 リソースは、サブスクリプション管理者がアプリケーションサブスクリプションをデプロイしていない限り、ソースリポジトリーに合わせて調整されません。
1.3.4.8. アプリケーション Ansible フックのスタンドアロンモード リンクのコピーリンクがクリップボードにコピーされました!
Ansible フックのスタンドアロンモードはサポートされていません。サブスクリプションを使用してハブクラスターに Ansible フックをデプロイするには、次のサブスクリプション YAML を使用できます。
ただし、spec.placement.local:true ではサブスクリプションが standalone モードで実行されているため、この設定では Ansible インストールが作成されない可能性があります。ハブモードでサブスクリプションを作成する必要があります。
local-clusterにデプロイする配置ルールを作成します。次のサンプルを参照してください。ここでのlocal-cluster: "true"はハブクラスターを指します。Copy to Clipboard Copied! Toggle word wrap Toggle overflow 使用しているサブスクリプションで、作成した配置ルールを参照します。以下のサンプルを参照してください。
Copy to Clipboard Copied! Toggle word wrap Toggle overflow
両方を適用すると、ハブクラスターに作成された Ansible インスタンスが表示されます。
1.3.4.9. 配置ルールの更新後にアプリケーションがデプロイされない リンクのコピーリンクがクリップボードにコピーされました!
配置ルールの更新後にアプリケーションがデプロイされない場合は、application-manager Pod が実行されていることを確認します。application-manager は、マネージドクラスターで実行する必要があるサブスクリプションコンテナーです。
oc get pods -n open-cluster-management-agent-addon |grep application-manager を実行して確認できます。
コンソールで kind:pod cluster:yourcluster を検索して、application-manager が実行されているかどうかを確認することもできます。
検証できない場合は、もう一度、クラスターのインポートを試行して検証を行います。
1.3.4.10. サブスクリプション Operator が SCC を作成しない リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Container Platform SCC の詳細は、Security Context Constraints (SCC) の管理 を参照してください。これは、マネージドクラスターで必要な追加設定です。
デプロイメントごとにセキュリティーコンテキストとサービスアカウントが異なります。サブスクリプション Operator は SCC CR を自動的に作成できず、管理者が Pod のパーミッションを制御します。Security Context Constraints (SCC) CR は、関連のあるサービスアカウントに適切なパーミッションを有効化して、デフォルトではない namespace で Pod を作成する必要があります。使用している namespace で SCC CR を手動で作成するには、以下の手順を実行します。
デプロイメントで定義したサービスアカウントを検索します。たとえば、以下の
nginxデプロイメントを参照してください。nginx-ingress-52edb nginx-ingress-52edb-backend
nginx-ingress-52edb nginx-ingress-52edb-backendCopy to Clipboard Copied! Toggle word wrap Toggle overflow 使用している namespace に SCC CR を作成して、サービスアカウントに必要なパーミッションを割り当てます。以下の例を参照してください。
kind: SecurityContextConstraintsが追加されています。Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.4.11. アプリケーションチャネルには一意の namespace が必要 リンクのコピーリンクがクリップボードにコピーされました!
同じ namespace に複数のチャネルを作成すると、ハブクラスターでエラーが発生する可能性があります。
たとえば、namespace charts-v1 は、Helm タイプのチャネルとしてインストーラーで使用するので、charts-v1 に追加のチャネルを作成します。一意の namespace でチャネルを作成するようにしてください。すべてのチャネルには個別の namespace が必要ですが、GitHub チャネルは例外で、別 GitHub のチャネルと namespace を共有できます。
1.3.4.12. Ansible Automation Platform ジョブが失敗する リンクのコピーリンクがクリップボードにコピーされました!
互換性のないオプションを選択すると、Ansible ジョブの実行に失敗します。Ansible Automation Platform は、-cluster-scoped のチャネルオプションが選択されている場合にのみ機能します。これは、Ansible ジョブを実行する必要があるすべてのコンポーネントに影響します。
1.3.4.13. Ansible Automation Platform Operator は、プロキシー外の Ansible Automation Platform にアクセスする リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Ansible Automation Platform Operator は、プロキシー対応の OpenShift Container Platform クラスターの外部にある Ansible Automation Platform にアクセスできません。解決するには、プロキシー内に Ansible Automation Platform をインストールできます。Ansible Automation Platform によって提供されるインストール手順を参照してください。
1.3.4.14. アプリケーション名の要件 リンクのコピーリンクがクリップボードにコピーされました!
アプリケーション名は 37 文字を超えることができません。この数を超えた場合、アプリケーションのデプロイメント時に以下のエラーが表示されます。
status: phase: PropagationFailed reason: 'Deployable.apps.open-cluster-management.io "_long_lengthy_name_" is invalid: metadata.labels: Invalid value: "_long_lengthy_name_": must be no more than 63 characters/n'
status:
phase: PropagationFailed
reason: 'Deployable.apps.open-cluster-management.io "_long_lengthy_name_" is invalid: metadata.labels: Invalid value: "_long_lengthy_name_": must be no more than 63 characters/n'
1.3.4.15. アプリケーションコンソールテーブルの制限事項 リンクのコピーリンクがクリップボードにコピーされました!
コンソールのさまざまな アプリケーション の表に対する以下の制限を確認してください。
- Overview ページの Applications の表と、Advanced configuration ページの Subscriptions の表にある Clusters の列では、アプリケーションリソースのデプロイ先のクラスター数が表示されます。アプリケーションは、ローカルクラスターのリソースで定義されているため、実際のアプリケーションリソースがローカルクラスターにデプロイされているかどうかにかかわらず、ローカルのクラスターは検索結果に含まれます。
- Subscriptions の Advanced configuration 表にある Applications の列には、サブスクリプションを使用するアプリケーションの合計数が表示されますが、サブスクリプションが子アプリケーションをデプロイする場合には、これらも検索結果に含まれます。
- Channels の Advanced configuration 表にある Subscriptions の列には、対象のチャネルを使用するローカルクラスター上のサブスクリプション合計数が表示されます。ただし、他のサブスクリプションがデプロイするサブスクリプションは検索結果には含まれますが、ここには含まれません。
1.3.4.16. アプリケーションコンソールトポロジーのフィルタリング機能がない リンクのコピーリンクがクリップボードにコピーされました!
2.8 では Application の Console と Topology が変更されています。コンソールの Topology ページにフィルタリング機能はありません。
1.3.4.17. 許可リストと拒否リストがオブジェクトストレージアプリケーションで機能しない リンクのコピーリンクがクリップボードにコピーされました!
allow リストおよび deny リストの機能は、オブジェクトストレージアプリケーションのサブスクリプションでは機能しません。
1.3.5. 可観測性関連の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management for Kubernetes の既知の問題を確認してください。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題[OpenShift Container Platform known issues] を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
1.3.5.1. サービスレベルの概要ダッシュボードでローカルクラスターが重複する リンクのコピーリンクがクリップボードにコピーされました!
さまざまなハブクラスターが同じ S3 ストレージを使用して Red Hat Advanced Cluster Management の可観測性をデプロイする場合、重複する local-clusters は Kubernetes/Service-Level Overview/API Server ダッシュボード内で検出および表示できます。重複クラスターは、Top Clusters、Number of clusters that has exceeded the SLO、および Number of clusters that are meeting the SLO のパネル内の結果に影響を及ぼします。local-clusters は、共有 S3 ストレージに関連付けられた一意のクラスターです。複数の local-clusters がダッシュボード内で表示しないようにするには、一意のハブクラスターごとに、ハブクラスター専用の S3 バケットを使用して可観測性をデプロイすることが推奨されます。
1.3.5.2. 可観測性エンドポイント Operator がイメージのプルに失敗する リンクのコピーリンクがクリップボードにコピーされました!
可観測性エンドポイント Operator は、MultiClusterObservability CustomResource (CR) へのデプロイにプルシークレットを作成したにもかかわらず、open-cluster-management-observability namespace にプルシークレットがない場合に問題が発生します。新しいクラスターをインポートする場合、または Red Hat Advanced Cluster Management で作成された Hive クラスターをインポートする場合は、マネージドクラスターにプルイメージシークレットを手動で作成する必要があります。
詳細は、可観測性の有効化 を参照してください。
1.3.5.3. ROKS クラスターにデータがない リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management の可観測性は、組み込みダッシュボードで、ROKS クラスターのデータが表示されないパネルがあります。これは、ROKS が、管理対象サーバーからの API サーバーメトリクスを公開しないためです。以下の Grafana ダッシュボードには、Kubernetes/API server、Kubernetes/Compute Resources/Workload、Kubernetes/Compute Resources/Namespace(Workload) の ROKS クラスターをサポートしないパネルが含まれます。
1.3.5.4. ROKS クラスターに etcd データがない リンクのコピーリンクがクリップボードにコピーされました!
ROKS クラスターの場合に、Red Hat Advanced Cluster Management の可観測性のダッシュボードの etcd パネルでデータが表示されません。
1.3.5.5. Grafana コンソールでメトリクスが利用できない リンクのコピーリンクがクリップボードにコピーされました!
Grafana コンソールでアノテーションのクエリーに失敗する:
Grafana コンソールで特定のアノテーションを検索すると、トークンの有効期限が切れているために、以下のエラーメッセージが表示されることがあります。
"Annotation Query Failed"ブラウザーを更新し、ハブクラスターにログインしていることを確認します。
rbac-query-proxy Pod のエラー:
managedclusterリソースにアクセス権がないために、プロジェクトでクラスターのクエリーを実行すると以下のエラーが表示される場合があります。no project or cluster foundロールのパーミッションを確認し、適切に更新します。詳細は、ロールベースのアクセス制御 を参照してください。
1.3.5.6. マネージドクラスターでの Prometheus データ喪失 リンクのコピーリンクがクリップボードにコピーされました!
デフォルトでは、OpenShift の Prometheus は一時ストレージを使用します。Prometheus は、再起動されるたびにすべてのメトリックデータを失います。
Red Hat Advanced Cluster Management が管理する OpenShift Container Platform マネージドクラスターで可観測性を有効または無効にすると、可観測性エンドポイント Operator は、ローカルの Prometheus を自動的に再起動する alertmanager 設定を追加して cluster-monitoring-config ConfigMap を更新します。
1.3.5.7. out-of-order サンプルの取り込みエラー リンクのコピーリンクがクリップボードにコピーされました!
Observability receive Pod では、以下のエラーをレポートします。
Error on ingesting out-of-order samples
Error on ingesting out-of-order samples
このエラーメッセージは、マネージドクラスターがメトリクス収集間隔中に送信した時系列データが、以前の収集間隔中に送信した時系列データよりも古いことを意味します。この問題が発生した場合には、データは Thanos レシーバーによって破棄され、Grafana ダッシュボードに表示されるデータにギャップが生じる場合があります。エラーが頻繁に発生する場合は、メトリックコレクションの間隔をより大きい値に増やすことが推奨されます。たとえば、間隔を 60 秒に増やすことができます。
この問題は、時系列の間隔が 30 秒などの低い値に設定されている場合にのみ見られます。メトリクス収集の間隔がデフォルト値の 300 秒に設定されている場合には、この問題は発生しません。
1.3.5.8. アップグレード後に Grafana のデプロイが失敗する リンクのコピーリンクがクリップボードにコピーされました!
2.6 より前の以前のバージョンでデプロイされた grafana-dev インスタンスがあり、環境を 2.6 にアップグレードすると、grafana-dev は機能しません。次のコマンドを実行して、既存の grafana-dev インスタンスを削除する必要があります。
./setup-grafana-dev.sh --clean
./setup-grafana-dev.sh --clean
次のコマンドでインスタンスを再作成します。
./setup-grafana-dev.sh --deploy
./setup-grafana-dev.sh --deploy
1.3.5.9. klusterlet-addon-search Pod が失敗する リンクのコピーリンクがクリップボードにコピーされました!
メモリー制限に達したため、klusterlet-addon-search Pod が失敗します。マネージドクラスターで klusterlet-addon-search デプロイメントをカスタマイズして、メモリーの失われると制限を更新する必要があります。ハブクラスターで、search-collector という名前の ManagedclusterAddon カスタムリソースを編集します。search-collector に以下のアノテーションを追加し、メモリー addon.open-cluster-management.io/search_memory_request=512Mi および addon.open-cluster-management.io/search_memory_limit=1024Mi を更新します。
たとえば、foobar という名前のマネージドクラスターがある場合、次のコマンドを実行して、メモリーリクエストを 512Mi に変更し、メモリー制限を 1024Mi に変更します。
oc annotate managedclusteraddon search-collector -n foobar \ addon.open-cluster-management.io/search_memory_request=512Mi \ addon.open-cluster-management.io/search_memory_limit=1024Mi
oc annotate managedclusteraddon search-collector -n foobar \
addon.open-cluster-management.io/search_memory_request=512Mi \
addon.open-cluster-management.io/search_memory_limit=1024Mi
1.3.5.10. disableHubSelfManagement を有効にすると、Grafana ダッシュボードのリストが空になる リンクのコピーリンクがクリップボードにコピーされました!
mulitclusterengine カスタムリソースで disableHubSelfManagement パラメーターが true に設定されている場合、Grafana ダッシュボードには空のラベルリストが表示されます。ラベルリストを表示するには、パラメーターを false に設定するか、パラメーターを削除する必要があります。詳細は、disableHubSelfManagement を参照してください。
1.3.5.10.1. エンドポイント URL に完全修飾ドメイン名 (FQDN) を含めることはできません リンクのコピーリンクがクリップボードにコピーされました!
endpoint パラメーターに FQDN またはプロトコルを使用すると、可観測性 Pod は有効になりません。次のエラーメッセージが表示されます。
Endpoint url cannot have fully qualified paths
Endpoint url cannot have fully qualified paths
プロトコルなしで URL を入力します。endpoint 値は、シークレットの次の URL に似ている必要があります。
endpoint: example.com:443
endpoint: example.com:443
1.3.5.10.2. Grafana のダウンサンプリングデータの不一致 リンクのコピーリンクがクリップボードにコピーされました!
履歴データをクエリーしようとしたときに、計算されたステップ値とダウンサンプリングされたデータの間に不一致がある場合、結果は空になります。たとえば、計算されたステップ値が 5m で、ダウンサンプリングされたデータが 1 時間間隔の場合、データは Grafana から表示されません。
この不一致は、URL クエリーパラメーターが Thanos Query フロントエンドデータソースを介して渡される必要があるために発生します。その後、データが欠落している場合、URL クエリーは他のダウンサンプリングレベルに対して追加のクエリーを実行できます。
Thanos Query フロントエンドデータソース設定を手動で更新する必要があります。以下の手順を実行します。
- Query フロントエンドデータソースに移動します。
- クエリーパラメーターを更新するには、Misc セクションをクリックします。
-
Custom query parameters フィールドから、
max_source_resolution=autoを選択します。 - データが表示されていることを確認するには、Grafana ページを更新します。
Grafana ダッシュボードからクエリーデータが表示されます。
1.3.5.11. メトリックコレクターがプロキシー設定を検出しない リンクのコピーリンクがクリップボードにコピーされました!
addonDeploymentConfig を使用して設定したマネージドクラスター内のプロキシー設定は、メトリックコレクターによって検出されません。回避策として、マネージドクラスター ManifestWork を削除してプロキシーを有効化できます。ManifestWork を削除すると、addonDeploymentConfig の変更が強制的に適用されます。
1.3.5.12. カスタム CA バンドルを使用した HTTPS プロキシーはサポートされていない リンクのコピーリンクがクリップボードにコピーされました!
カスタム CA バンドルが必要な場合、マネージドクラスターのプロキシー設定は機能しません。
1.3.6. ガバナンス関連の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
ガバナンスに関する既知の問題を確認してください。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題[OpenShift Container Platform known issues] を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
1.3.6.1. Red Hat Advanced Cluster Management からログアウトできない リンクのコピーリンクがクリップボードにコピーされました!
外部アイデンティティープロバイダーを使用して Red Hat Advanced Cluster Management にログインする場合は、Red Hat Advanced Cluster Management からログアウトできない可能性があります。これは、Red Hat Advanced Cluster Management に IBM Cloud および Keycloak をアイデンティティープロバイダーとしてインストールして使用する場合に発生します。
Red Hat Advanced Cluster Management からログアウトするには、外部アイデンティティープロバイダーからログアウトしておく必要があります。
1.3.6.2. Gatekeeper Operator のインストールに失敗する リンクのコピーリンクがクリップボードにコピーされました!
Red Hat OpenShift Container Platform バージョン 4.9 に gatekeeper Operator をインストールする場合、インストールに失敗します。OpenShift Container Platform をバージョン 4.9.0. にアップグレードする前に、gatekeeper Operator をバージョン 0.2.0 にアップグレードする必要があります。詳細は、gatekeeper および gatekeeper Operator のアップグレード を参照してください。
1.3.6.3. namespace が Terminating 状態で停止している場合に、設定ポリシーが準拠と表示される リンクのコピーリンクがクリップボードにコピーされました!
設定ポリシーで complianceType のパラメーターに mustnothave、remediationAction のパラメーターに enforce が設定されている場合に、ポリシーは Kubernetes API に削除要求が送信されてから、準拠と表示されます。そのため、ポリシーが準拠と表示されているにも関わらず、Kubernetes オブジェクトは、Terminating の状態のままになってしまう可能性があります。
1.3.6.4. ポリシーでデプロイされた Operator が ARM をサポートしない リンクのコピーリンクがクリップボードにコピーされました!
ARM 環境へのインストールはサポートされますが、ポリシーを使用してデプロイされる Operator は ARM 環境をサポートしない可能性があります。Operator をインストールする以下のポリシーは ARM 環境をサポートしません。
1.3.6.5. ConfigurationPolicy CRD が終了中にスタックする リンクのコピーリンクがクリップボードにコピーされました!
KlusterletAddonConfig でポリシーコントローラーを無効にするか、クラスターをデタッチして、管理対象クラスターから config-policy-controller アドオンを削除すると、ConfigurationPolicy CRD が中断状態でスタックする場合があります。ConfigurationPolicy CRD が中断状態でスタックしている場合に、アドオンを後で再インストールしても、新しいポリシーがクラスターに追加されない可能性があります。次のエラーが表示されることもあります。
template-error; Failed to create policy template: create not allowed while custom resource definition is terminating
template-error; Failed to create policy template: create not allowed while custom resource definition is terminating
次のコマンドを使用して、CRD がスタックしているかどうかを確認します。
oc get crd configurationpolicies.policy.open-cluster-management.io -o=jsonpath='{.metadata.deletionTimestamp}'
oc get crd configurationpolicies.policy.open-cluster-management.io -o=jsonpath='{.metadata.deletionTimestamp}'
削除のタイムスタンプがリソースにある場合に、CRD はスタックします。この問題を解決するには、クラスターに残っている設定ポリシーからすべてのファイナライザーを削除します。マネージドクラスターで次のコマンドを使用し、<cluster-namespace> をマネージドクラスターの namespace に置き換えます。
oc get configurationpolicy -n <cluster-namespace> -o name | xargs oc patch -n <cluster-namespace> --type=merge -p '{"metadata":{"finalizers": []}}'
oc get configurationpolicy -n <cluster-namespace> -o name | xargs oc patch -n <cluster-namespace> --type=merge -p '{"metadata":{"finalizers": []}}'
設定ポリシーリソースはクラスターから自動的に削除され、CRD は中断状態を終了します。アドオンがすでに再インストールされている場合には、CRD は削除タイムスタンプなしで自動的に再作成されます。
1.3.6.6. 既存の設定ポリシーを変更するときに PruneObjectBehavior が機能しない リンクのコピーリンクがクリップボードにコピーされました!
既存の設定ポリシーを変更するときに pruneObjectBehavior が機能しないpruneObjectBehavior が機能しない可能性がある以下の理由を確認してください。
-
設定ポリシーで
pruneObjectBehaviorをDeleteAllまたはDeleteIfCreatedに設定すると、変更前に作成された古いリソースは正しく消去されません。設定ポリシーを削除すると、ポリシーの作成およびポリシーの更新による新しいリソースのみが追跡および削除されます。 -
pruneObjectBehaviorをNoneに設定するか、パラメーター値を設定しない場合、マネージドクラスター上で古いオブジェクトが意図せずに削除される可能性があります。具体的には、これはユーザーがテンプレート内のname、namespace、kind、またはapiversionを変更したときに発生します。パラメーターフィールドは、object-templates-rawまたはnamespaceSelectorのパラメーターが変更されると動的に変更できます。
1.3.6.7. ポリシーステータスは、適用時に更新が繰り返されることを示している リンクのコピーリンクがクリップボードにコピーされました!
ポリシーが remediationAction: enforce に設定されていて、繰り返し更新されている場合、Red Hat Advanced Cluster Management コンソールには、更新が成功しても繰り返し違反が表示されます。このエラーについては、次の 2 つの考えられる原因と解決策を参照してください。
別のコントローラーまたはプロセスも、異なる値でオブジェクトを更新しています。
この問題を解決するには、ポリシーを無効にして、ポリシーの
objectDefinitionとマネージドクラスターのオブジェクトの違いを比較します。値が異なる場合は、別のコントローラーまたはプロセスが値を更新している可能性があります。オブジェクトのmetadataを確認して、値が異なる理由を特定してください。ポリシーの適用時に Kubernetes がオブジェクトを処理するため、
ConfigurationPolicyのobjectDefinitionが一致しません。この問題を解決するには、ポリシーを無効にして、ポリシーの
objectDefinitionとマネージドクラスターのオブジェクトの違いを比較します。キーが異なるか欠落している場合、Kubernetes は、デフォルト値または空の値を含むキーを削除するなど、キーをオブジェクトに適用する前に処理した可能性があります。注記:
pruneObjectBehaviorがNone以外に設定されている場合、ポリシーを無効にするとオブジェクトがクリーンアップされます。この場合、pruneObjectBehaviorをNoneに設定して、ポリシーが無効になった後もオブジェクトが存在するようにします。
たとえば、Secret リソース内の stringData マップは、Kubernetes によって、base64 でエンコードされた値を持つ data に変換されます。stringData を使用する代わりに、文字列の代わりに base64 でエンコードされた値を含む data を直接使用します。
1.3.6.8. Pod セキュリティーポリシーは OpenShift Container Platform 4.12 以降ではサポートされません リンクのコピーリンクがクリップボードにコピーされました!
Pod セキュリティーポリシーのサポートは、OpenShift Container Platform 4.12 以降、および Kubernetes v1.25 以降から削除されました。PodSecurityPolicy リソースを適用すると、次の非準拠メッセージを受け取る場合があります。
violation - couldn't find mapping resource with kind PodSecurityPolicy, please check if you have CRD deployed
violation - couldn't find mapping resource with kind PodSecurityPolicy, please check if you have CRD deployed
1.3.6.9. ポリシーテンプレート名が重複すると、一貫性のない結果が生じる リンクのコピーリンクがクリップボードにコピーされました!
同じポリシーテンプレート名でポリシーを作成すると、検出されない一貫性のない結果が返されますが、原因がわからない場合があります。たとえば、create-pod という名前の複数の設定ポリシーを含むポリシーを定義すると、一貫性のない結果が発生します。Best practice: ポリシーテンプレートに重複した名前を使用しないようにします。
1.3.6.10. ガバナンスデプロイメントが無効になっている場合、エラーが発生せずにシャットダウンしない リンクのコピーリンクがクリップボードにコピーされました!
MultiClusterHub オブジェクトでガバナンスデプロイメントを無効にすると、デプロイメントはエラーなしでクリーンアップされません。次の手順を実行してガバナンスを無効にし、デプロイメントもクリーンアップされるようにします。
マネージドクラスターの
KlusterletAddonConfigでpolicyControllerを無効にします。すべてのマネージドクラスターに対してこれを行う場合は、次のコマンドを実行します。for CLUSTER in $(oc get managedclusters -o jsonpath='{.items[].metadata.name}'); do oc patch -n ${CLUSTER} klusterletaddonconfig ${CLUSTER} --type=merge --patch='{"spec":{"policyController":{"enabled":false}}}' donefor CLUSTER in $(oc get managedclusters -o jsonpath='{.items[].metadata.name}'); do oc patch -n ${CLUSTER} klusterletaddonconfig ${CLUSTER} --type=merge --patch='{"spec":{"policyController":{"enabled":false}}}' doneCopy to Clipboard Copied! Toggle word wrap Toggle overflow ローカルクラスターの場合のみ: ローカルクラスターの
governance-policy-framework-uninstallPod がCrashLoopBackOffにある場合は、ローカルクラスターのManifestWorkを削除し、ManagedClusterAddonのファイナライザーを削除します。以下のコマンドを実行します。oc delete manifestwork -n local-cluster -l open-cluster-management.io/addon-name=governance-policy-framework oc patch managedclusteraddon -n local-cluster governance-policy-framework --type=merge --patch='{"metadata":{"finalizers":[]}}'oc delete manifestwork -n local-cluster -l open-cluster-management.io/addon-name=governance-policy-framework oc patch managedclusteraddon -n local-cluster governance-policy-framework --type=merge --patch='{"metadata":{"finalizers":[]}}'Copy to Clipboard Copied! Toggle word wrap Toggle overflow 必要に応じて、
MultiClusterHubオブジェクトのspec.overridesセクションのgrc要素をfalseに設定して、ガバナンスをグローバルに無効にします。以下のコマンドを実行します。oc edit multiclusterhub <name> -n <namespace>
oc edit multiclusterhub <name> -n <namespace>Copy to Clipboard Copied! Toggle word wrap Toggle overflow ローカルクラスターの場合のみ: ローカルクラスターポリシーがある場合は、次のコマンドを実行してポリシーを削除できます。
oc delete policies -n local-cluster --all
oc delete policies -n local-cluster --allCopy to Clipboard Copied! Toggle word wrap Toggle overflow KlusterletAddonConfigでガバナンスを再度有効にするには、MultiClusterHubのspec.overridesセクションのgrc要素を再度有効にします。以下のコマンドを実行します。for CLUSTER in $(oc get managedclusters -o jsonpath='{.items[].metadata.name}'); do oc patch -n ${CLUSTER} klusterletaddonconfig ${CLUSTER} --type=merge --patch='{"spec":{"policyController":{"enabled":true}}}' donefor CLUSTER in $(oc get managedclusters -o jsonpath='{.items[].metadata.name}'); do oc patch -n ${CLUSTER} klusterletaddonconfig ${CLUSTER} --type=merge --patch='{"spec":{"policyController":{"enabled":true}}}' doneCopy to Clipboard Copied! Toggle word wrap Toggle overflow デプロイが失敗した場合、
governance-policy-addon-controllerのリースが失効している可能性があります。次のコマンドを使用してリースを削除します。oc delete lease governance-policy-addon-controller-lock -n <namespace>
oc delete lease governance-policy-addon-controller-lock -n <namespace>Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.6.11. テンプレートエラーによりオブジェクトが削除されました リンクのコピーリンクがクリップボードにコピーされました!
設定ポリシー内の構文が正しくないなど、テンプレートエラーがある場合、オブジェクトは削除されます。削除されたオブジェクトを正しい構文で再作成します。
1.3.6.12. ポリシーの自動化用に重複した Ansible ジョブが作成される リンクのコピーリンクがクリップボードにコピーされました!
Run once モードおよび無効に設定された PolicyAutomation がある場合は、追加の Ansible ジョブが作成されます。追加の Ansible ジョブを削除できます。以下の手順を実行します。
次のコマンドを実行して、Ansible ジョブリストを表示します。
oc get ansiblejob -n {namespace}oc get ansiblejob -n {namespace}Copy to Clipboard Copied! Toggle word wrap Toggle overflow 以下のコマンドを使用して、重複した Ansible ジョブを削除します。
oc delete ansiblejob {ansiblejob name} -n {namespace}oc delete ansiblejob {ansiblejob name} -n {namespace}Copy to Clipboard Copied! Toggle word wrap Toggle overflow
1.3.7. ネットワーク関連の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
Submariner の既知の問題を確認してください。以下のリストには、このリリースの既知の問題、または以前のリリースから持ち越された既知の問題が記載されています。
Red Hat OpenShift Container Platform クラスターは、OpenShift Container Platform の既知の問題 を参照してください。
非推奨と削除の詳細は、非推奨と削除 を参照してください。
1.3.7.1. Submariner の既知の問題 リンクのコピーリンクがクリップボードにコピーされました!
ネットワーク機能の使用中に発生する可能性がある次の既知の問題と制限事項を参照してください。
1.3.7.1.1. ClusterManagementAddon submariner アドオンを使用しないと失敗する リンクのコピーリンクがクリップボードにコピーされました!
バージョン 2.8 以前の場合、Red Hat Advanced Cluster Management をインストールするときに、Operator Lifecycle Manager を使用して submariner-addon コンポーネントもデプロイします。MultiClusterHub カスタムリソースを作成しなかった場合、submariner-addon Pod はエラーを送信し、Operator はインストールできません。
ClusterManagementAddon カスタムリソース定義がないため、次の通知が発生します。
graceful termination failed, controllers failed with error: the server could not find the requested resource (post clustermanagementaddons.addon.open-cluster-management.io)
graceful termination failed, controllers failed with error: the server could not find the requested resource (post clustermanagementaddons.addon.open-cluster-management.io)
ClusterManagementAddon リソースは cluster-manager デプロイメントによって作成されますが、このデプロイメントが使用可能になるのは MultiClusterEngine コンポーネントがクラスターにインストールされてからです。
MultiClusterHub カスタムリソースの作成時にクラスター上ですでに使用可能な MultiClusterEngine リソースが存在しない場合、MultiClusterHub Operator は MultiClusterEngine インスタンスと必要な Operator をデプロイし、前のエラーを解決します。
1.3.7.1.2. Red Hat Advanced Cluster Management が管理できるすべてのインフラストラクチャープロバイダーがサポートされているわけではない リンクのコピーリンクがクリップボードにコピーされました!
Submariner は、Red Hat Advanced Cluster Management が管理できるすべてのインフラストラクチャープロバイダーでサポートされているわけではありません。サポートされているプロバイダーの一覧は、Red Hat Advanced Cluster Management のサポートマトリックス を参照してください。
1.3.7.1.3. 限定的なヘッドレスサービスのサポート リンクのコピーリンクがクリップボードにコピーされました!
Globalnet を使用する場合、セレクターを使用しないヘッドレスサービスのサービスディスカバリーはサポートされません。
1.3.7.1.4. NAT が有効な場合に VXLAN を使用したデプロイはサポートされていない リンクのコピーリンクがクリップボードにコピーされました!
NAT 以外のデプロイメントのみが VXLAN ケーブルドライバーを使用した Submariner デプロイメントをサポートします。
1.3.7.1.5. OVN Kubernetes には OCP 4.11 以降が必要 リンクのコピーリンクがクリップボードにコピーされました!
OVN Kubernetes CNI ネットワークを使用している場合は、Red Hat OpenShift 4.11 以降が必要です。
1.3.7.1.6. 自己署名証明書により、ブローカーに接続できない場合がある リンクのコピーリンクがクリップボードにコピーされました!
ブローカーの自己署名証明書により、結合されたクラスターがブローカーに接続できない場合があります。接続は証明書の検証エラーで失敗します。関連する SubmarinerConfig オブジェクトで InsecureBrokerConnection を true に設定すると、ブローカー証明書の検証を無効にできます。以下の例を参照してください。
1.3.7.1.7. Submariner は OpenShift SDN または OVN Kubernetes のみサポート リンクのコピーリンクがクリップボードにコピーされました!
Submariner は、OpenShift SDN または OVN-Kubernetes Container Network Interface (CNI) ネットワークプロバイダーを使用する Red Hat OpenShift Container Platform クラスターのみをサポートします。
1.3.7.1.8. Microsoft Azure クラスターでのコマンド制限 リンクのコピーリンクがクリップボードにコピーされました!
subctl diagnose firewall inter-cluster コマンドは、Microsoft Azure クラスターでは機能しません。
1.3.7.1.9. カスタム CatalogSource または Subscription で自動アップグレードが機能しない リンクのコピーリンクがクリップボードにコピーされました!
Red Hat Advanced Cluster Management for Kubernetes がアップグレードされると、Submariner は自動的にアップグレードされます。カスタムの CatalogSource または Subscription を使用している場合、自動アップグレードは失敗する可能性があります。
マネージドクラスターに Submariner をインストールするときに自動アップグレードが確実に機能するようにするには、各マネージドクラスターの SubmarinerConfig カスタムリソースで spec.subscriptionConfig.channel フィールドを stable-0.15 に設定する必要があります。
Red Hat Advanced Cluster Management バージョン 2.8 でリリースされた Submariner バージョン 0.15 は、OpenShift Container Platform バージョン 4.14 以降ではサポートされません。OpenShift Container Platform バージョン 4.14 以降を使用する場合は、Submariner バージョンを 0.16 にアップグレードするか、Submariner バージョン 0.15 および Red Hat Advanced Cluster Management バージョン 2.8 で OpenShift Container Platform バージョン 4.13 を引き続き使用する必要があります。