4.11 リリースノート
機能および拡張機能、既知の問題、その他の重要なリリース情報についてのリリースノート
概要
多様性を受け入れるオープンソースの強化
Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。まずは、マスター (master)、スレーブ (slave)、ブラックリスト (blacklist)、ホワイトリスト (whitelist) の 4 つの用語の置き換えから始めます。この取り組みは膨大な作業を要するため、今後の複数のリリースで段階的に用語の置き換えを実施して参ります。詳細は、Red Hat CTO である Chris Wright のメッセージ をご覧ください。
Red Hat ドキュメントへのフィードバック (英語のみ)
Red Hat ドキュメントに対するご意見をお聞かせください。ドキュメントの改善点があれば、ぜひお知らせください。フィードバックをお寄せいただくには、以下をご確認ください。
特定の部分についての簡単なコメントをお寄せいただく場合は、以下をご確認ください。
- ドキュメントの表示が Multi-page HTML 形式になっていていることを確認してください。ドキュメントの右上隅に Feedback ボタンがあることを確認してください。
- マウスカーソルを使用して、コメントを追加するテキストの部分を強調表示します。
- 強調表示されたテキストの下に表示される Add Feedback ポップアップをクリックします。
- 表示される指示に従ってください。
より詳細なフィードバックをお寄せいただく場合は、Bugzilla のチケットを作成してください。
- Bugzilla の Web サイトに移動します。
- Component セクションで、documentation を選択します。
- Description フィールドに、ドキュメントの改善に向けたご提案を記入してください。ドキュメントの該当部分へのリンクも追加してください。
- Submit Bug をクリックします。
第1章 概要
Red Hat OpenShift Data Foundation は、コンテナー環境向けに最適化されたソフトウェア定義のストレージです。このソフトウェアは、OpenShift Container Platform の Operator として実行されるため、コンテナーの永続ストレージ管理を高度に統合し、簡素化できます。
Red Hat OpenShift Data Foundation は、最新の Red Hat OpenShift Container Platform に統合され、プラットフォームサービス、アプリケーションの移植性、永続性の課題に対処します。Red Hat Ceph Storage、Rook.io Operator、および NooBaa の Multicloud Object Gateway テクノロジー。OpenShift Data Foundation は、Red Hat OpenShift Data Foundation Logical Volume Manager も単一ノード OpenShift クラスターのテクノロジープレビュー機能としてサポートします。
Red Hat OpenShift Data Foundation は、数多くの方法でアプリケーションのライフサイクル全体におけるユーザーエクスペリエンスを単純化し、強化する、信頼できるエンタープライズクラスのアプリケーション開発環境を提供します。
- データベースのブロックストレージを提供します。
- 継続的な統合、メッセージングおよびデータ集約のための共有ファイルストレージ。
- クラウドファースト開発、アーカイブ、バックアップ、およびメディアストレージ用のオブジェクトストレージ。
- アプリケーションとデータの飛躍的なスケーリングが可能です。
- 永続データボリュームの割り当てと割り当て解除を加速的に実行します。
- 複数のデータセンターまたはアベイラビリティーゾーンにクラスターを拡張します。
- 包括的なアプリケーションコンテナーレジストリーを確立します。
- データアナリティクス、人工知能、機械学習、ディープラーニング、および IoT (モノのインターネット) などの次世代の OpenShift ワークロードをサポートします。
- アプリケーションコンテナーだけでなく、データサービスボリュームおよびコンテナー、さらに追加の OpenShift Container Platform ノード、Elastic Block Store (EBS) ボリュームおよびその他のインフラストラクチャーサービスを動的にプロビジョニングします。
1.1. このリリースについて
Red Hat OpenShift Data Foundation 4.11 (RHSA-2022:6155 および RHSA-2022:6156) が利用可能になりました。以下では、OpenShift Data Foundation 4.11 に関連する新たな拡張機能、新機能、および既知の問題について説明します。
Red Hat OpenShift Data Foundation 4.11 は、Red Hat OpenShift Container Platform バージョン 4.11 でサポートされます。詳細は、Red Hat OpenShift Data Foundation Supportability and Interoperability Checker を参照してください。
Red Hat OpenShift Data Foundation のライフサイクル情報は、Red Hat OpenShift Container Platform ライフサイクルポリシー で、階層化された製品 (および依存関係のある製品) ライフサイクルのセクションを参照してください。
第2章 機能強化
このセクションでは、Red Hat OpenShift Data foundation 4.11 で導入された主な拡張機能について説明します。
アカウント資格情報の変更可能性オプション
このリリースでは、マルチクラウドオブジェクトゲートウェイ (MCG) の既定のアカウント資格情報を変更するために外部から呼び出すことができるオプションがあります。コマンドラインインターフェイスを使用して資格情報を変更およびローテーションし、アプリケーションの問題を防ぐことができます。このオプションを使用すると、システム内のすべてのサービスアカウントの資格情報を管理できます。詳細は、マルチクラウドオブジェクトゲートウェイのセキュリティーを強化するためにデフォルトのアカウント資格情報を変更する を参照してください。
データバケットのオブジェクトの有効期限に関するライフサイクルポリシー
以前は、MCG は新しいライフサイクル API に対応していませんでした。今回のリリース更新により、MCG はライフサイクル REST API と互換性があり、データバケットのオブジェクトの有効期限がサポートされるようになりました。
S3 ルートに追加された終了ポリシー
insecureEdgeTerminationPolicy
を s3-rout.yaml
に追加すると、デフォルト (Allow) から Allow
、Disable
または Redirect
に変更する機能が追加されます。
第3章 削除された機能
この章では、Red Hat OpenShift Data Foundation でサポートされていたが、OpenShift Data Foundation 4.11 では使用できなくなった機能をリストします。
Multicloud Object Gateway Management コンソールリンク
Multicloud Object Gateway (MCG) Management Console への外部リンクは、MCG コンソールがサポートされなくなったため、OpenShift Data Foundation コンソールから削除されました。
第4章 テクノロジープレビュー
このセクションでは、テクノロジープレビューのサポート制限に基づいて、Red Hat OpenShift Data Foundation 4.11 で導入されたテクノロジープレビュー機能について説明します。
テクノロジープレビュー機能は、実稼働環境での Red Hat サービスレベルアグリーメント (SLA) ではサポートされておらず、機能的に完全ではない可能性があるため、Red Hat では実稼働環境での使用を推奨していません。これらの機能は、近々発表予定の製品機能をリリースに先駆けてご提供することにより、お客様は機能性をテストし、開発プロセス中にフィードバックをお寄せいただくことができます。
テクノロジープレビュー機能は、カスタマーポータルの テクノロジープレビュー機能のサポート範囲 で詳細に説明されているように制限されたサポート範囲で提供されます。
4.1. OpenShift ワークロードの災害復旧
OpenShift Data Foundation のディザスターリカバリー (DR) 機能は、複数の OpenShift Container Platform クラスターにわたる DR を可能にし、次のように分類されます。
リージョンディザスターリカバリー (Regional-DR)
地域 DR ソリューションは、ブロックボリュームの自動保護、非同期レプリケーションを提供し、地理的な場所で災害が発生したときにビジネス機能を保護します。パブリッククラウドでは、これはリージョン障害からの保護に似ています。
詳細については、計画ガイド および OpenShift Data Foundation ガイドの Regional-DR ソリューション を参照してください。
大都市災害復旧 (Metro-DR)
Metro-DR ソリューションは、複数のクラスターの同期レプリケーションを使用しながら、データを損失することなく、データセンターが使用できなくなったときに保護とビジネスの継続性を確保します。パブリッククラウドでは、これらはアベイラビリティゾーンの障害からの保護に似ています。ほぼゼロの RPO で、ビジネス機能を即座に保護します。
詳細は、計画ガイド および OpenShift Data Foundation ガイドの Metro-DR ソリューション を参照してください。
Red Hat Advanced Cluster Management コンソールでのマルチクラスター監視
マルチクラスター監視は、複数のクラスターにまたがるストレージの正常性と容量の単一の単純化されたビューです。このマルチクラスター監視により、ストレージ容量を管理し、Red Hat Advanced Cluster Management (RHACM) ユーザーインターフェイスから OpenShift Data Foundation クラスターを監視できます。この監視機能は、DR クラスターと非 DR クラスターの両方に適用されます。
詳細は、マルチクラスターストレージの正常性の監視 を参照してください。
4.2. ネットワークファイルシステムサービスのサポート
このリリースでは、OpenShift Data Foundation は、Windows OS を含む任意のオペレーティングシステム (OS) で実行されている内部または外部アプリケーションの Network File System (NFS) サービスをサポートします。NFS サービスは、Red Hat Gluster Storage ファイルシステムから OpenShift 環境へのデータ移行など、任意の環境から OpenShift 環境へのデータ移行を支援します。
詳細については、ネットワークファイルシステムを使用するためのリソース要件 および NFS を使用したエクスポートの作成 を参照してください。
4.3. シングルノード OpenShift クラスターのシンプロビジョニングソリューション
OpenShift Data Foundation Logical Volume Manager Operator が設定されると、ボリュームグループはデフォルトでシンプロビジョニングボリュームを作成します。これは、ストレージ容量が限られている Edge ユーザーにとってメリットがあります。
シンプロビジョニングボリュームは、Logical Volume Manager を使用し、単一の限られたリソースの単一ノード OpenShift (SNO) クラスターでブロックストレージの動的プロビジョニングを提供します。
詳細は、Logical Volume Manager Operator を使用したストレージのプロビジョニング を参照してください。
4.4. 単一ノード OpenShift のボリュームスナップショットとボリュームクローン
このリリースでは、単一ノード OpenShift の OpenShift Data Foundation は、Rook-Ceph ベースの OpenShift Data Foundation と同様の機能を提供します。
- OpenShift Data Foundation Logical Volume Manager Operator によってプロビジョニングされる永続ボリュームのボリュームスナップショットを作成します。これにより、ボリュームのスナップショットを作成したときの状態に戻すことができます。
- 複製されたボリュームのボリュームスナップショットの作成。
- ボリュームスナップショットを復元します。これにより、新しい Persistent Volume Claim (PVC) が作成されます。
- ボリュームのクローンを作成して、標準のボリュームと同様に使用できる既存のストレージボリュームを複製します。
詳細については、単一ノード OpenShift の ボリュームスナップショット および ボリュームクローン を参照してください。
第5章 開発者向けプレビュー
このセクションでは、Red Hat OpenShift Data Foundation 4.11 で導入された開発者プレビュー機能について説明します。
開発者プレビュー機能は、開発者プレビューのサポート制限の対象となります。開発者プレビューのリリースは、実稼働環境で実行することは意図されていません。開発者プレビュー機能と共にデプロイしたクラスターは開発用クラスターとして考慮され、Red Hat カスタマーポータルのケース管理システムではサポートされません。開発者プレビュー機能に関してサポートが必要な場合には、ocs-devpreview@redhat.com メーリングリストに連絡してください。Red Hat Development Team のメンバーが稼働状況とスケジュールに応じて可能な限り迅速に対応します。
5.1. Multicloud Object Gateway ライフサイクルでの期限切れオブジェクトの削除
期限切れのオブジェクトの削除は、未使用のデータの処理を可能にする単純な方法です。未使用のデータは、別の場所に移動するか、削除することによって処理されます。これは、データ階層化およびデータ有効期限機能を使用できる Multicloud Object Gateway (MCG) ライフサイクル機能によって実現できます。階層化により、データを透過的に別のバッキングストレージに階層化できます。アプリケーションは、その場所に関係なく、データセット全体を使用できます。データの有効期限は、Amazon Web Services (AWS) のライフサイクル管理の一部であり、自動削除の有効期限を設定します。ライフサイクルの有効期限の最小時間分解能は 1 日です。
データの有効期限の詳細については、AWS ライフサイクル管理 を参照してください。
5.2. Red Hat Advanced Cluster Manager ポリシーを使用した 3 ノードのコンパクトモードクラスターのインストール
このリリースでは、OpenShift Data Foundation は、Red Hat Advanced Cluster Management (RHACM) ポリシーを使用して、すべての高度なストレージ機能に対して 3 ノード (3 ノード) のコンパクトモードクラスターへの限定的なサポートを提供します。
このデプロイメントのサポートは、OpenShift Data Foundation 専用のローカルディスクを備えたベアメタルプラットフォームに限定されます。
これにより、Rados Block Device (RBD) のみの OpenShift Data Foundation クラスターをデプロイして、ReadWriteMany (RWX) およびオブジェクトが現在必要とされていないリソースを節約できます。このオプションは、インストールが簡単な本格的なモバイルデータセンターのように動作する 3 ノードクラスターを有効にします。
RHACM ポリシーを使用して 3 ノードの OpenShift Data Foundation コンパクトクラスターをインストールする方法については、すべてのクラスター および IBM Power 固有の デプロイメント向けの Red Hat Knowledgebase ソリューションを参照してください。
第6章 バグ修正
このセクションでは、Red Hat OpenShift Data Foundation 4.11 で導入された重要なバグ修正について説明します。
6.1. Multicloud Object Gateway
OpenShift Data Foundation が Microsoft Azure Government (MAG) にデプロイされている場合、マルチクラウドオブジェクトゲートウェイが間違った URL に API リクエストを送信する
以前は、デフォルトのバッキングストアに障害があり、システム全体の健全性が低下していました。これは、Multicloud Object Gateway (MCG) が、OpenShift Data Foundation がデプロイされたプラットフォームにデフォルトのバッキングストアを作成するためです。Microsoft Azure Government (MAG) の識別に問題があったため、デフォルトのバッキングストアが間違った値で作成されました。
今回の更新により、通常の Azure バッキングストアを作成する代わりに、MAG を識別するときに永続ボリューム (PV) プールが作成され、後で MAG 環境の上にバッキングストアを作成し、その新しいバッキングストアを使用することができます。
(BZ#1944572)
デフォルトのバッキングストア noobaa-default-backing-store が作成中状態のままになっている
以前は、Cloud Credentials Operator (CCO) がデフォルトのバッキングストアの作成後に資格情報を変更していました。そのため、使用されるバッキングストアは停止します。本リリースでは、デフォルトのバッキングストアの更新認証情報が修正されました。デフォルトの Multicloud Object Gateway (MCG) バッキングストアは、資格情報の変更中に作成でスタックしません。
(BZ#1992090)
接頭辞の名前が
99
と990
の場合、S3 リストは無限ループに入ります。以前は、MCG DB の開始時に照合アルゴリズムが正しく設定されていなかったため、リスト操作のクエリー結果は、Multicloud Object Gateway (MCG) が期待する順序ではありませんでした。
今回の更新により、MCG DB の開始時に新しい展開で照合アルゴリズムが正しく設定されるようになりました。これで、クエリー結果が期待どおりの順序になりました。
(BZ#2068110)
6.2. CephFS
FIPS 対応環境での MD5 の使用は明示的に許可されており、S3 マルチパート操作を完了できる
以前は、FIPS が有効な環境では、暗号化以外の目的で明示的に除外されていない限り、MD5 ダイジェストの使用はデフォルトで許可されていませんでした。このため、S3 の完全なマルチパートアップロード操作中にセグメンテーション違反が発生しました。
この修正により、S3 の完全なマルチパート
PUT
操作のための FIPS 対応環境での非暗号化目的での MD5 の使用が明示的に許可され、S3 のマルチパート操作を完了することができます。(BZ#2086724)
Liveness Probe の障害により、OpenShift Data Foundation Pod が再起動しています
以前は、Pod の liveness プローブによって Ceph Pod が再起動されていました。このリリース更新では、liveness プローブのデフォルトのタイムアウトが増加します。ノードの負荷が高くなり、CPU/メモリーリソースが少なくなるため、Pod が再起動するまでの時間が長くなりました。
6.3. Rook
OpenShift Data Foundation 4.10.3 へのアップグレードがローカルボリュームのボリュームグループの非アクティブ化に失敗した後、OSD Pod が
CrashLoopBackOff
状態になる以前は、古い OpenShift Data Foundation リリース (4.3、4.4) の LVM ベースの OSD はバージョン 4.10 と互換性がなく、4.10 にアップグレードするとクラッシュしていました。今回の更新により、古い OpenShift Data Foundation リリースの OSD がクラッシュする代わりに実行されるようになりました。Rook は、これらのレガシー OSD を処理するための正しいフラグを追加して、4.10 で機能するようにします。
(BZ#2097268)
第7章 既知の問題
このセクションでは、Red Hat OpenShift Data Foundation 4.11 の既知の問題について説明します。
7.1. 障害復旧
マネージドクラスターのアプリケーション namespace の作成
アプリケーション namespace は、Disaster Recovery(DR) 関連の事前デプロイアクションのために RHACM マネージドクラスターに存在する必要があるため、アプリケーションが ACM ハブクラスターにデプロイされるときに事前に作成されます。ただし、アプリケーションがハブクラスターで削除され、対応する namespace がマネージドクラスターで削除された場合、それらはマネージドクラスターに再表示されます。
回避策:
openshift-dr
は、ACM ハブのマネージドクラスター namespace に namespacemanifestwork
リソースを維持します。これらのリソースは、アプリケーションの削除後に削除する必要があります。たとえば、クラスター管理者として、ハブクラスターでoc delete manifestwork -n <managedCluster namespace> <drPlacementControl name>-<namespace>-ns-mw
のコマンドを実行します。
フェイルオーバーアクションは、RPC エラー still in use を表示し、Pod で失敗した RADOS ブロックデバイスのイメージマウントを報告します。
障害復旧 (DR) で保護されるワークロードをフェイルオーバーすると、フェールオーバーしたクラスター上のボリュームを使用している Pod が、RADOS ブロックデバイス (RBD) イメージがまだ使用中であることを報告する時に停止する可能性があります。これにより、Pod が長時間 (最大数時間) 起動できなくなります。
フェイルオーバーアクションは、RPC エラー fsck を表示し、Pod で失敗した RADOS ブロックデバイスのイメージマウントを報告する。
障害復旧 (DR) で保護されるワークロードをフェイルオーバーすると、ボリュームにファイルシステムの整合性チェック (fsck) エラーがあると示すボリュームマウントエラーにより、Pod が起動しない可能性があります。これにより、ワークロードはフェイルオーバークラスターにフェイルオーバーできなくなります。
各アクションの数分以内にフェイルオーバーと再配置が実行されると、再配置が失敗します
PeerReady
条件ステータスがTRUE
になる前に、ユーザーがあるクラスターから別のクラスターへのアプリケーションの再配置を開始すると、DRPC YAML ファイルを介して、または次のoc
コマンドを実行することによって、条件ステータスが表示されます。$ oc get drpc -o yaml -n <application-namespace>
<application-namespace>
は、アプリケーションをデプロイするためのワークロードが存在する名前空間です。ピア (ターゲットクラスター) がクリーンな状態になる前に再配置が開始された場合、再配置は永久に停止します。
回避策: DRPC
.Spec.Action
をFailover
に戻し、PeerReady
条件ステータスが TRUE になるまで待ちます。回避策を適用した後、アクションを 再配置 に変更すると、再配置が有効になります。
ユーザーは、DR ポリシーの作成中に同期スケジュールとして値を 0 分に設定でき、レプリケーションポリシーとして同期を報告し、地域の DR セットアップで検証されます。
DRPolicyList
ページは、sync
間隔の値を使用してレプリケーションタイプを表示します。ゼロに設定されている場合、レプリケーションタイプは、メトロクラスターと地域クラスターの同期 (同期) と見なされます。この問題はユーザーを混乱させます。これは、ユーザーインターフェイスにAsync
スケジューリングタイプとして表示されている場合でも、バックエンドがSync
を考慮しているためです。回避策:
sync
またはasync
を決定するには、DRCluster CR ステータスから CephFsid
をフェッチする必要があります。
アプリケーションを削除すると、Pod は削除されますが、PVC は削除されません
RHACM コンソールからアプリケーションを削除しても、DRPC は削除されません。DRPC を削除しないと、VRG だけでなく VRG も削除されません。VRG/VR が削除されない場合、PVC ファイナライザーリストがクリーンアップされず、PVC が
Terminating
状態のままになります。回避策: 次のコマンドを使用して、ハブクラスターの DRPC を手動で削除します
$ oc delete drpc <name> -n <namespace>
結果:
- DRPC は VRG を削除します
- VRG は VR を削除します
- VR が PVC のファイナライザーリストからファイナライザーを削除します。
- VRG が PVC のファイナライザーリストからファイナライザーを削除します。
両方の DRPC が、同じ名前空間で作成されたすべての永続ボリューム要求を保護します
複数のディザスタリカバリー (DR) 保護ワークロードをホストするネームスペースは、その
spec.pvcSelector
フィールドを使用してワークロードに基づいて PVC を指定および分離しないハブクラスタの同じネームスペース内の各 DRPlacementControl リソースのネームスペース内のすべての持続ボリューム請求 (PVC) を保護します。これにより、複数のワークロードで DRPlacementControl
spec.pvcSelector
に一致する PVC が生成されるか、すべてのワークロードでセレクターが欠落している場合、レプリケーション管理が各 PVC を複数回管理し、個々の DRPlacementControl アクションに基づいてデータの破損または無効な操作を引き起こす可能性があります。回避策: ワークロードに属する PVC に一意のラベルを付け、選択したラベルを DRPlacementControl
spec.pvcSelector
として使用して、どの DRPlacementControl がネームスペース内の PVC のどのサブセットを保護および管理するかを明確にします。ユーザーインターフェイスを使用して DRPlacementControl のspec.pvcSelector
フィールドを指定することはできません。したがって、そのようなアプリケーションの DRPlacementControl を削除し、コマンドラインを使用して作成する必要があります。結果: PVC は複数の DRPlacementControl リソースによって管理されなくなり、操作およびデータの不整合は発生しません。
一部のイメージで RBD ミラースケジューリングが停止する
Ceph Manager デーモンは、さまざまな理由でブロックリストに登録されます。これにより、スケジュールされた RBD ミラースナップショットが、イメージがプライマリーであるクラスターでトリガーされなくなります。ミラーリングが有効になっている (つまり DR 保護されている) すべての RBD イメージは、
rbd mirror snapshot schedule status -p ocs-storagecluster-cephblockpool
を使用して調べたときにスケジュールを一覧表示しないため、ピアサイトにアクティブにミラーリングされません。回避策: イメージがプライマリーである管理対象クラスターで Ceph Manager のデプロイを再起動して、現在実行中のインスタンスに対するブロックリストを回避します。これは、次のように Ceph Manager のデプロイをスケールダウンしてからスケールアップすることで実行できます。
$ oc -n openshift-storage scale deployments/rook-ceph-mgr-a --replicas=0 $ oc -n openshift-storage scale deployments/rook-ceph-mgr-a --replicas=1
結果:
rbd mirror snapshot schedule status -p ocs-storagecluster-cephblockpool
を使用して調べると、DR が有効で、管理対象クラスターでプライマリーとして示されているイメージがミラーリングスケジュールの報告を開始します。
Ceph が Globalnet によって割り当てられたグローバル IP を認識しない
Ceph は Globalnet によって割り当てられたグローバル IP を認識しないため、Globalnet を使用して重複するサービス CIDR を持つクラスター間で障害復旧ソリューションを設定することはできません。このため、サービス
CIDR
が重複している場合、障害復旧ソリューションは機能しません。
ボリュームレプリケーショングループの削除は、削除中に作成された新しいボリュームレプリケーションでスタックします。これは、永続的なボリュームクレームをファイナライザーで更新できないためスタックします。
ディザスターリカバリー (DR) リコンサイラーのバグにより、マネージドクラスターで内部
VolumeReplicaitonGroup
リソースの削除中に、ワークロードがフェールオーバーまたは再配置された場所から、persistent volume claim (PVC) が保護されようとします。結果のクリーンアップ操作は完了せず、アプリケーションのDRPlacementControl
でPeerReady
状態を報告します。これにより、アプリケーションはフェイルオーバーまたは再配置され、
DRPlacementControl
リソースがそのPeerReady
状態をfalse
として報告するため、再配置または再フェイルオーバーできなくなります。回避策: 回避策を適用する前に、
VolumeReplicationGroup
の削除中に PVC を保護することが原因であるかどうかを次のように判断します。再配置またはフェイルオーバー元のマネージドクラスターのワークロード名前空間にある
VolumeReplicationGroup
リソースに、次の値があることを確認します。-
VRG
metadata.deletionTimestamp
がnon-zero
です -
VRG
spec.replicationState
はSecondary
です
-
VRG
上記のようにワークロード名前空間の
VolumeReplication
リソースを一覧表示し、リソースに次の値があることを確認します。-
metadata.generation
は1
に設定されています -
spec.replicationState
はセカンダリー
に設定されています - VolumeReplication リソースがステータスを報告しない
-
-
上記の状態の VolumeReplication リソースごとに、対応する PVC リソース (VR
spec.dataSource
フィールドに表示される) の値は、non-zero
としてのmetadata.deletionTimestamp
が必要です。 復元するには、ファイナライザーを削除します。
-
VRG リソースからの
volumereplicationgroups.ramendr.openshift.io/vrg-protection
-
それぞれの PVC リソースからの
volumereplicationgroups.ramendr.openshift.io/pvc-vr-protection
-
VRG リソースからの
結果: ハブクラスターの
DRPlacementControl
は、PeerReady
状態をtrue
として報告し、さらにワークロードの再配置またはフェイルオーバーアクションを有効にします。(BZ#2116605)
MongoDB Pod は、
cephrbd
ボリュームのデータを読み取る許可エラーのため、CrashLoopBackoff
になっています異なるマネージドクラスターにまたがる Openshift プロジェクトには、異なるセキュリティーコンテキスト制約 (SCC) があり、特に指定された UID 範囲および/または
FSGroups
が異なります。これにより、特定のワークロード Pod とコンテナーが、ログ内のファイルシステムアクセスエラーが原因で、これらのプロジェクト内でポストフェールオーバーまたは再配置操作を開始できなくなります。回避策: ワークロードプロジェクトが同じプロジェクトレベルの SCC ラベルを持つすべてのマネージドクラスターで作成されていることを確認し、フェイルオーバーまたは再配置時に同じファイルシステムコンテキストを使用できるようにします。Pod は、ファイルシステム関連のアクセスエラーで DR 後のアクションに失敗しなくなりました。
セカンダリークラスターへのフェールオーバー中に、PVC の一部がプライマリークラスターに残る
Kubernetes v1.23 より前の動作では、Kubernetes コントロールプレーンは StatefulSet 用に作成された PVC をクリーンアップしませんでした。これはクラスター管理者または StatefulSet を管理するソフトウェア Operator のままになります。このため、ステートフルセットの PVC は、Pod が削除されたときにそのまま残されていました。これにより、Ramen がアプリケーションを元のクラスターにフェールバックできなくなります。
回避策: ワークロードが StatefulSets を使用している場合は、フェールバックまたは別のクラスターに再配置する前に、次の操作を行います。
-
oc get drpc -n <namespace> -o wide
実行します。 PeerReady 列に TRUE が表示されている場合は、フェールバックまたは再配置を続行できます。それ以外の場合は、ピアクラスターで次の操作を行います。
-
oc get pvc -n <namespace>
を実行します。 -
StatefulSet に属する名前空間のバインドされた PVC ごとに、
oc delete pvc <pvcname> -n namespace
を実行します。 - すべての PVC が削除されると、ボリュームレプリケーショングループ (VRG) はセカンダリーに移行してから削除されます。
-
-
次のコマンド
oc get drpc -n <namespace> -o wide
を再度実行します。数秒から数分後、PeerReady 列がTRUE
に変わります。その後、フォールバックまたは再配置を続行できます。
結果: ピアクラスターがクリーンアップされ、新しいアクションの準備が整います。(BZ#2118270)
-
フェイルバック中にアプリケーションが Relocating 状態でスタックする
マルチクラウドオブジェクトゲートウェイでは、同じ名前または名前空間の複数の永続ボリューム (PV) オブジェクトを同じパスの S3 ストアに追加できました。これにより、同一の
claimRef
を指す複数のバージョンが検出されたため、Ramen は PV を復元しません。回避策: S3 CLI または同等の機能を使用して、重複する PV オブジェクトを S3 ストアからクリーンアップします。タイムスタンプがフェールオーバーまたは再配置の時刻に近いものだけを保持します。
結果: 復元操作が完了し、フェイルオーバーまたは再配置操作が次のステップに進みます。
ゾーンがダウンしている場合、アプリケーションが FailingOver 状態で停止する
フェイルオーバーまたは再配置時に、どの s3 ストアにも到達できない場合、フェイルオーバーまたは再配置プロセスがハングします。Openshift DR ログが S3 ストアに到達できないことを示している場合、トラブルシューティングを行い、s3 ストアを操作可能にすることで、OpenShift DR はフェイルオーバーまたは再配置操作を続行できます。
クラスターがストレッチモードの場合、ceph
df
が無効な MAX AVAIL 値を報告するRed Hat Ceph Storage クラスターのクラッシュルールに複数の実行ステップがある場合、
ceph df
レポートは、マップの使用可能な最大サイズを間違って表示します。この問題は、今後のリリースで修正される予定です。
7.2. Multicloud Object Gateway
rook-ceph-operator-config
ConfigMap
は、OpenShift Container Storage がバージョン 4.5 から他のバージョンにアップグレードされると更新されないocs-operator
は rook-ceph-operator-config ConfigMap を使用して、rook-ceph-operator 動作を設定しますが、作成は 1 回だけで、調整は行いません。これにより、製品が進化してもデフォルト値が更新されないという問題が発生します。回避策: 管理者は rook-ceph-operator-config の値を手動で変更できます。
ストレージシステムのインストール時に、ストレージクラスターおよびストレージシステムの
ocs-storagecluster
が数分間エラー状態になるストレージクラスターの作成中、正常な状態または準備完了状態に移行する前にエラー状態が表示されるわずかな時間枠があります。これは断続的な状態であるため、通常は自然に解決され、成功または準備完了になります。
回避策: 詳細については、ステータスメッセージまたはログを待ち、監視します。
7.3. CephFS
Ceph OSD スナップトリミングが実行中のスクラブによってブロックされなくなりました
以前は、実行中のスクラブによってブロックされた OSD スナップトリミングは再開されませんでした。その結果、OSD がリセットされるまでトリミングは実行されませんでした。このリリースでは、スクラブとスナップのトリミングが期待どおりに機能した後にブロックされた場合のトリミングの再開の処理が修正されています。
CephFS でのストレッチクラスターのパフォーマンスの低下
マルチサイトの OpenShift Data Foundation クラスターにメタデータサーバー (MDS) を任意に配置するため、小さなメタデータ操作が多数あるワークロードでは、パフォーマンスが低下する可能性があります。
親 PVC が展開されている場合、スナップショットの復元がサイズ制限で失敗する
ボリュームスナップショットと同じサイズのボリュームスナップショットから新しい復元された persistent volume claim (PVC) を作成する場合、ボリュームスナップショットを取得した後、復元された新しい PVC を作成する前に親 PVC のサイズが変更されると、失敗します。
回避策: 次の回避策のいずれかを使用できます。
- 親 PVC から作成されたボリュームスナップショットがあり、そのボリュームスナップショットを新しい PVC に復元する計画がある場合は、親 PVC のサイズを変更しないでください。
- 親 PVC と同じサイズの復元された PVC を作成します。
- 復元された PVC がすでに作成されて保留状態になっている場合は、その PVC を削除し、親 PVC と同じサイズで再作成します。
7.4. OpenShift Data Foundation Operator
OpenShift Data Foundation Operator がインストールされると、PodSecurityViolation アラートが発生し始める
OpenShift は、Pod Security Admission を導入して、OpenShift 4.11 が特権を適用する (4.10 と同じ) 監査および警告イベントを行うように、スケジュールされたときに Pod にセキュリティー制限を適用します。
その結果、
openshift-storage
名前空間には Pod セキュリティーアドミッションに必要な適用ラベルがないため、イベントに警告が表示されます。(BZ#2110628)
第8章 エラータの非同期更新
8.1. RHSA-2023:4238 OpenShift Data Foundation 4.11.9 バグ修正およびセキュリティー更新
OpenShift Data Foundation リリース 4.11.9 が利用可能になりました。更新に含まれるバグ修正は、RHSA-2023:4238 アドバイザリーに記載されています。
8.2. RHBA-2023:3293 OpenShift Data Foundation 4.11.8 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.8 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2023:3293 アドバイザリーにリストされています。
8.3. RHSA-2023:2023 OpenShift Data Foundation 4.11.7 バグ修正およびセキュリティー更新
OpenShift Data Foundation リリース 4.11.7 が利用可能になりました。更新に含まれるバグ修正は、RHSA-2023:2023 アドバイザリーに記載されています。
8.4. RHBA-2023:1230 OpenShift Data Foundation 4.11.6 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.6 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2023:1230 アドバイザリーにリストされています。
8.5. RHBA-2023:0764 OpenShift Data Foundation 4.11.5 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.5 が利用可能になりました。更新に含まれるバグ修正は RHBA-2023:0764 アドバイザリーに記載されています。
今回のリリースにより、OpenShift Data Foundation 4.10 ユーザーが OpenShift Data Foundation 4.11 にアップグレードできるようになりました。これは、以前はオブジェクトストレージデータのアクセシビリティの問題により不可能でした。
8.6. RHBA-2022:8877 OpenShift Data Foundation 4.11.4 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.4 が利用可能になりました。更新に含まれるバグ修正は RHBA-2022:8877 アドバイザリーに記載されています。
8.7. RHBA-2022:7912 OpenShift Data Foundation 4.11.3 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.3 が利用可能になりました。この更新に含まれるバグ修正の一覧は、RHBA-2022:7912 アドバイザリーにまとめられています。
8.8. RHBA-2022:6888 OpenShift Data Foundation 4.11.2 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.2 が利用可能になりました。この更新に含まれるバグ修正の一覧は、RHBA-2022:6888 アドバイザリーにまとめられています。
8.9. RHBA-2022:6525 OpenShift Data Foundation 4.11.1 のバグ修正とセキュリティー更新
OpenShift Data Foundation リリース 4.11.1 が利用可能になりました。更新に含まれるバグ修正は、RHBA-2022:6525 アドバイザリーに記載されています。